JP6107372B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP6107372B2 JP6107372B2 JP2013089853A JP2013089853A JP6107372B2 JP 6107372 B2 JP6107372 B2 JP 6107372B2 JP 2013089853 A JP2013089853 A JP 2013089853A JP 2013089853 A JP2013089853 A JP 2013089853A JP 6107372 B2 JP6107372 B2 JP 6107372B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- color region
- region
- image
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/005—Statistical coding, e.g. Huffman, run length coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/09—Recognition of logos
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、例えば、カメラの位置および姿勢を算出するカメラのキャリブレーション処理に利用される、撮像画像上におけるマーカーの座標の抽出に用いる画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program that are used for, for example, a camera calibration process for calculating the position and orientation of a camera and that are used for extracting marker coordinates on a captured image.
自車両の周囲状況を運転者にとって確認し易くし、運転者の安全運転に資することを目的として、自車両の周囲画像をカメラにより取得し、取得した画像を車の運転者に提示する技術が提案されている。例えば、自車両の周囲に複数のカメラを設け、各カメラで撮像した画像を合成すれば、自車両周囲の広範囲の画像を運転者に視認させることが可能になる。 A technology that makes it easy for the driver to check the surroundings of the host vehicle and contributes to the driver's safe driving by acquiring a surrounding image of the host vehicle with a camera and presenting the acquired image to the driver of the vehicle. Proposed. For example, by providing a plurality of cameras around the host vehicle and synthesizing images captured by the cameras, it becomes possible for the driver to visually recognize a wide range of images around the host vehicle.
複数の撮像画像を合成した結果として、運転者にとって違和感の無い画像、すなわち、画像間の継ぎ目がずれたり、画像が傾いたりしていない合成画像を得る為には、複数のカメラが、所定の位置、所定のカメラ向きで設置されている必要がある。しかしながら、カメラは車両に取り付けられる為、走行などによる震動などに起因して、カメラの設置位置や角度などが変化してしまう場合がある。そのため、出荷時や車検時など、利用開始後の任意のタイミングで、カメラの取り付け位置、角度にズレが生じていないかを確認し、カメラの設置位置や角度の校正処理(キャリブレーション処理)を行う必要がある。 As a result of combining a plurality of captured images, in order to obtain an image that does not feel uncomfortable for the driver, i.e., a combined image in which the seams between images are not shifted or the images are not tilted, It is necessary to be installed in the position and the predetermined camera orientation. However, since the camera is attached to the vehicle, the camera installation position, angle, and the like may change due to vibration caused by traveling or the like. Therefore, at any time after the start of use, such as at the time of shipment or vehicle inspection, check whether there is any deviation in the camera installation position and angle, and perform the camera installation position and angle calibration process (calibration process). There is a need to do.
カメラの設置位置や角度の校正処理では、カメラ撮影範囲の規定の位置に設置したマーカー(冶具)を撮影し、撮影画像上におけるマーカー位置、換言すると、撮像画像上におけるマーカーの特徴点の座標と、規定の位置とを対応付ける。校正処理に用いるマーカーとしては、撮像画像上で特徴点を抽出しやすい模様を有していることが望ましく、例えば、市松模様のマーカーなどが一般的に利用されている。なお、市松模様のマーカーは、例えば、市松模様が交差する中心点を特徴点として抽出する。 In the calibration processing of the camera installation position and angle, a marker (jig) placed at a specified position in the camera shooting range is shot, and the marker position on the shot image, in other words, the coordinates of the marker feature point on the captured image, Associate with the specified position. As a marker used for the calibration process, it is desirable to have a pattern from which a feature point can be easily extracted on the captured image. For example, a checkered marker is generally used. For example, the checkerboard marker is extracted as a feature point at the center point where the checkerboard pattern intersects.
市松模様のマーカーの特徴点を抽出する方法として、撮像画像上の市松模様を構成する色領域の色境界線を検出し、検出した色境界線を利用して交点を求めることにより、マーカーの特徴点を抽出する技術が開示されている。 As a method of extracting feature points of a checkered pattern marker, the feature of the marker is obtained by detecting the color boundary line of the color area constituting the checkered pattern on the captured image and obtaining the intersection using the detected color boundary line. A technique for extracting points is disclosed.
ところで、マーカーの特徴点の画像上の座標は、上述した校正処理のパラメータとして利用される。そのため、撮像画像上のマーカーから特徴点を抽出する際の抽出精度が低いと、カメラの設置位置や角度の校正処理の精度が劣化する。従って、撮像画像上におけるマーカーの特徴点を高い精度で抽出する必要がある。 By the way, the coordinates of the feature points of the marker on the image are used as parameters for the calibration processing described above. Therefore, if the extraction accuracy when extracting the feature points from the marker on the captured image is low, the accuracy of the calibration processing of the camera installation position and angle is deteriorated. Therefore, it is necessary to extract the marker feature points on the captured image with high accuracy.
例えば、自車両の周囲の状況を撮影するために車両に搭載されるカメラは、少ない台数で車両の周囲を撮像できることが望ましいため、例えば、広角カメラが用いられる。しかしながら、広角カメラは撮像画像の中心から距離が離れるにつれて、撮像画像上の物体となるマーカーの形状が歪んだりするなど、撮像画像上のマーカーの形状が不鮮明になる傾向にある。なお、広角カメラ以外のカメラでマーカーを撮影したとしても、撮像画像の両端近傍では、マーカーの形状が少なからず歪み、撮像画像上のマーカーの形状が不鮮明になる。 For example, since it is desirable that a camera mounted on the vehicle to capture the situation around the host vehicle can capture the surroundings of the vehicle with a small number, for example, a wide-angle camera is used. However, the wide-angle camera tends to blur the shape of the marker on the captured image, for example, the shape of the marker that is an object on the captured image is distorted as the distance from the center of the captured image increases. Even if the marker is photographed by a camera other than the wide-angle camera, the shape of the marker is not a little distorted near both ends of the captured image, and the shape of the marker on the captured image becomes unclear.
更に、校正処理を実施する照明環境の状態によっては、撮像画像上のマーカーの市松模様が、市松模様の様に撮像されない場合も生じる。例えば、白色領域と黒色領域との2色の色領域を有する市松模様のマーカーでは、照明の光が強く明るい場合、マーカーの市松模様の白色領域が膨張した状態で撮像される。また、照明の光が弱く暗い場合、マーカーの市松模様の白色領域が収縮した状態で撮像される。この様な不鮮明なマーカーの画像から、市松模様の色境界線を検出し、マーカーの特徴点を抽出することは難しい。よって、上述した従来技術では、マーカーの特徴点を十分に精度良く抽出することは難しい。 Furthermore, depending on the state of the lighting environment in which the calibration process is performed, the checkered pattern of the marker on the captured image may not be captured like the checkered pattern. For example, in a checkered marker having two color regions, a white region and a black region, when the illumination light is strong and bright, an image is captured in a state where the checkered white region of the marker is expanded. When the illumination light is weak and dark, the image is taken in a state where the checkered white area of the marker is contracted. It is difficult to detect a checkered pattern color boundary line and extract a marker feature point from such an unclear marker image. Therefore, it is difficult to extract the marker feature points with sufficient accuracy in the above-described conventional technology.
この為、画像処理装置においては、マーカーの特徴点を高精度で抽出することが必要となる。本発明は、マーカーの特徴点を高精度で抽出することが出来る画像処理装置を提供することを目的とする。 For this reason, in the image processing apparatus, it is necessary to extract the feature point of the marker with high accuracy. An object of this invention is to provide the image processing apparatus which can extract the feature point of a marker with high precision.
本発明が開示する画像処理装置は、複数の第1色領域と、第1色領域とは異なる色の複数の第2色領域を有し、複数の第1色領域同士と、複数の第2色領域同士が互いに対向するマーカーを含む画像を取得する取得部を備える。更に、当該画像処理装置は、画像から第1色領域、または第2色領域を抽出する抽出部を備える。更に、当該画像処理装置は、抽出された第1色領域、または第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで第1色領域または第2色領域を減退する減退部を備える。第1閾値を満たした第1色領域または第2色領域と、所定の蝶形状との第2類似度を算出する算出部を備える。 An image processing apparatus disclosed in the present invention includes a plurality of first color regions, a plurality of second color regions having a color different from the first color region, a plurality of first color regions, and a plurality of second color regions. An acquisition unit that acquires an image including markers whose color regions face each other is provided. The image processing apparatus further includes an extraction unit that extracts the first color area or the second color area from the image. Further, the image processing apparatus performs the first color region or the first color region until the first similarity between the shape of the extracted first color region or the second color region and the predetermined elliptical shape satisfies a predetermined first threshold value. A reduction unit for reducing the two-color area is provided. A calculation unit is provided that calculates a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。 The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims. It should also be understood that both the above general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.
本明細書に開示される画像処理装置では、不鮮明な画像でもマーカーの特徴点を高精度で抽出することが可能となる。 With the image processing device disclosed in this specification, it is possible to extract marker feature points with high accuracy even in a blurred image.
図1(a)は、マーカーの第1の例を示す図である。図1(b)は、マーカーの第2の例を示す図である。図1(c)は、マーカーの第3の例を示す図である。図1(a)ないし図1(c)において、マーカーは市松模様である。図1(a)に示す様に、マーカーは、例えば、40センチメートル程度の正方形の領域の中心部に、円形領域を有する。また、図1(b)、図1(c)に示す様に、マーカーは、例えば、40センチメートル程度の正方形の領域の中心部に、更に正方形領域を有する。 Fig.1 (a) is a figure which shows the 1st example of a marker. FIG.1 (b) is a figure which shows the 2nd example of a marker. FIG.1 (c) is a figure which shows the 3rd example of a marker. 1A to 1C, the marker has a checkered pattern. As shown to Fig.1 (a), a marker has a circular area | region in the center part of the square area | region of about 40 centimeters, for example. Moreover, as shown in FIG.1 (b) and FIG.1 (c), a marker has a square area | region further in the center part of the square area | region of about 40 centimeters, for example.
図1(a)ないし図1(c)において、マーカーは、複数の第1色領域と、第1色領域とは異なる色の複数の第2色領域を有し、複数の第1色領域同士と、複数の第2色領域同士が互いに対向している。換言すると、マーカーは、例えば、白色領域と黒色領域とが互い違いの市松模様となっている。また、マーカーの中心部に位置する円形領域または正方形領域は、マーカーの中心部を挟んで、対向する白色領域の対と、黒色領域の対とを有する。なお、マーカーを、例えば、白黒の市松模様とするのは、例えば、マーカーの円形領域または正方形領域の中心を特徴点として抽出する為である。なお、本実施例においては、図1(a)に示すマーカーを用いて説明を行うが、図1(b)または図1(c)に示すマーカーを用いても実施可能である。また、説明の便宜上、第1色領域は白色領域に対応し、第2色領域は黒色領域に対応するものと説明するが、対応関係を逆に規定することも出来る。 In FIGS. 1A to 1C, the marker has a plurality of first color regions and a plurality of second color regions having colors different from the first color regions, and the plurality of first color regions are The plurality of second color regions face each other. In other words, the marker has, for example, a checkered pattern in which white areas and black areas are alternate. In addition, the circular area or the square area located at the center of the marker has a pair of white areas and a pair of black areas facing each other across the center of the marker. The marker is, for example, a black and white checkered pattern, for example, to extract the center of the circular area or square area of the marker as a feature point. In this embodiment, the description will be made using the marker shown in FIG. 1 (a), but the present invention can also be implemented using the marker shown in FIG. 1 (b) or FIG. 1 (c). For convenience of explanation, the first color area corresponds to the white area and the second color area corresponds to the black area, but the correspondence relationship may be defined in reverse.
本発明者らの鋭意検証により、不鮮明な画像からマーカーの特徴点を抽出する画像処理装置において、以下の課題が明らかになった。例えば、国際公開第2012/061205号パンフレットにおいて、不鮮明な画像でもマーカーの特徴点抽出する画像処理装置が開示されている。当該画像処理装置は、マーカーの特徴点が、市松模様のマーカーの白色領域の対(ペア)と、黒色領域の対(ペア)との交点であることに着目したもので、マーカーの色領域を抽出し、その位置関係によりマーカー特徴点を抽出する方法が開示されている。 The following problems have been clarified in an image processing apparatus that extracts feature points of a marker from an unclear image by vigorous verification by the present inventors. For example, International Publication No. 2012/061205 pamphlet discloses an image processing apparatus that extracts feature points of a marker even with a blurred image. The image processing apparatus focuses on the fact that the feature point of the marker is the intersection of a pair of white areas of a checkered pattern and a pair of black areas. A method for extracting and extracting marker feature points based on the positional relationship is disclosed.
上述の通り、校正処理を実施する照明環境の影響により、マーカーの一方の色領域が膨張し、他方の色領域が縮退して撮影される。この為、撮像画像のマーカーは、一方の色領域が侵食した状態(繋がった状態と称しても良い)で撮像画像上に現れうる。国際公開第2012/061205号パンフレットに開示される画像処理装置においては、侵食した領域を分離する為に、マーカーを構成する色領域の候補領域に対して、所定凸形状(楕円形状)との類似性の判定を行い、類似しない場合は縮退処理を実施することが開示されている。具体的には、例えば、当該画像処理装置は、マーカーを構成する色領域の候補領域から疑似的な楕円形状を算出する。画像処理装置は、当該楕円面積と候補領域の面積を比較し、面積の類似度が高い場合に凸形状(楕円形状)であると判定することで、マーカーを構成する色領域(白色領域と黒色領域の対)を特定する。 As described above, one color region of the marker is expanded due to the influence of the illumination environment in which the calibration process is performed, and the other color region is degenerated and photographed. For this reason, the marker of the captured image can appear on the captured image in a state where one color region is eroded (may be referred to as a connected state). In the image processing apparatus disclosed in the pamphlet of International Publication No. 2012/061205, in order to separate the eroded areas, similarity to a predetermined convex shape (elliptical shape) with respect to the candidate areas of the color areas constituting the marker It is disclosed that the determination of sex is performed, and if they are not similar, a degeneration process is performed. Specifically, for example, the image processing apparatus calculates a pseudo ellipse shape from candidate areas of color areas constituting the marker. The image processing apparatus compares the area of the ellipse with the area of the candidate area, and determines that the area has a convex shape (elliptical shape) when the similarity of the areas is high. Identify the region pair).
しかしながら、本発明者らの鋭意検証により、撮像画像のマーカーにおいて、一方の色領域がある程度の大きさで侵食した状態になった場合、撮像画像上で観測されるマーカーを構成する色領域の候補領域は、楕円形状ではなく蝶形状として観測されることが明らかになった。図2(a)は、マーカーを構成する色領域を正しく認識した場合の概念図である。図2(b)は、マーカーを構成する色領域を誤って認識した場合の概念図である。図2(a)に示す様に、色領域に侵食が発生しない場合においては、マーカーを構成する色領域(例えば白色領域)を楕円形状と判定することで、マーカー構成する白色領域の対を認識することが出来る。 However, as a result of diligent verification by the present inventors, when one color area of the marker of the captured image is eroded to a certain size, the candidate of the color area constituting the marker observed on the captured image It became clear that the region was observed as a butterfly shape rather than an elliptical shape. FIG. 2A is a conceptual diagram when the color region constituting the marker is correctly recognized. FIG. 2B is a conceptual diagram when the color area constituting the marker is erroneously recognized. As shown in FIG. 2A, when erosion does not occur in a color area, a pair of white areas constituting a marker is recognized by determining the color area (for example, white area) constituting the marker as an elliptical shape. I can do it.
一方、図2(b)に示す様に、色領域に侵食が発生する場合(例えば照明の光が強く明るい場合)、マーカー構成する白色領域の対が連結して蝶形状となる。この様な蝶形状においては、上述の楕円形状と候補領域の面積の比較において、面積の類似度が条件を満たし得るため、縮退処理が実施されない為に、マーカー構成する白色領域の対を特定すること出来ない課題が存在することが明らかになった。 On the other hand, as shown in FIG. 2B, when erosion occurs in a color area (for example, when illumination light is strong and bright), a pair of white areas constituting a marker are connected to form a butterfly shape. In such a butterfly shape, since the similarity of the area can satisfy the condition in the comparison of the area of the above-mentioned elliptical shape and the candidate region, the degeneration process is not performed, so the pair of white regions constituting the marker is specified. It became clear that there was a problem that could not be done.
本発明者らにより、所定の楕円形状との類似性の判定条件を、蝶形状を排除出来る様に、より厳しい判定条件に設定することが検証された。しかしながら、不鮮明な画像で判定条件を厳しく設定した場合、ロバスト性に影響が出ることが明らかになった。例えば、判定条件として面積を用いて比較する場合、類似していると判定する閾値を高く設定することが考えられる。しかし、不鮮明な画像の場合、市松模様のマーカー自体が歪んで撮像される為、マーカーを構成する色領域が分離されている状態であっても閾値を満たさなくなる問題がある。また、本発明者らにより、蝶形状のテンプレートを予め用意し、類似性を判定することも検証されたが、不鮮明な画像では、蝶形状も様々に歪んで撮像される為、テンプレートを適用することも難しいことが明らかになった。 It has been verified by the present inventors that the determination condition for similarity to a predetermined elliptical shape is set to a stricter determination condition so that the butterfly shape can be excluded. However, it has become clear that robustness is affected when the judgment conditions are set strictly for unclear images. For example, when comparing using an area as a determination condition, it is conceivable to set a high threshold for determining that they are similar. However, in the case of an unclear image, since the checkered marker itself is distorted and imaged, there is a problem that the threshold value is not satisfied even if the color regions constituting the marker are separated. In addition, the present inventors have prepared a butterfly-shaped template in advance and verified that similarity is determined. However, in a blurred image, the butterfly shape is captured in various distortions, so the template is applied. It became clear that it was difficult.
上述の制約を鑑みつつ、本実施例においては、図2(b)に示す様な、不鮮明な画像において、マーカー構成する白色領域の対が連結して蝶形状となる場合においてもマーカーの特徴点を高精度で抽出する画像処理装置を開示する。 In consideration of the above-mentioned restrictions, in the present embodiment, in the unclear image as shown in FIG. 2B, the feature points of the marker even when the pair of white areas constituting the marker are connected to form a butterfly shape. Disclosed is an image processing apparatus that extracts the image with high accuracy.
以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、本実施例は、開示の技術を限定するものではない。 Hereinafter, examples of an image processing apparatus, an image processing method, and an image processing program according to an embodiment will be described in detail with reference to the drawings. Note that this embodiment does not limit the disclosed technology.
(実施例1)
図3は、一つの実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、抽出部3、減退部4、算出部5、認識部6を有する。なお、画像処理装置1は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。
Example 1
FIG. 3 is a functional block diagram of the image processing apparatus 1 according to one embodiment. The image processing apparatus 1 includes an
取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部2は、外部装置が撮像する画像を受け取る。画像を撮像する外部装置は、例えば撮像素子である。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。なお、撮像素子を、必要に応じて画像処理装置1に含めることも可能である。撮像素子は、例えば、市松模様のマーカーを撮像する。取得部2は、取得したマーカーが含まれる画像を抽出部3に出力する。
The
図4は、マーカーの配置状況の一例を示す図である。図4に示す通り、車両7に対し、複数の撮像素子8a〜8dが、例えば、車両7の全周囲を撮像可能な位置に設置される。なお、図4に示す8A〜8Dは、車両7に設置された撮像素子8a〜8dの撮影範囲に該当する。図4に示す様に、撮像素子8аの撮影範囲8Aの一部と、撮像素子8bの撮影範囲8Bの一部、ならびに撮像素子8cの撮像範囲8Cの一部とが重複している。また、撮像素子8dの撮影範囲8Dの一部と、撮像素子8bの撮影範囲8Bの一部、ならびに撮像素子8cの撮影範囲8Cの一部とが重複している。
FIG. 4 is a diagram illustrating an example of a marker arrangement state. As shown in FIG. 4, a plurality of
図4において、車両7は、所定の停車位置に停車する。そして、車両7に設置された撮像素子8a〜8dのそれぞれが、例えば、最低4つのマーカーを撮影できる様に、車両7の周囲にマーカー9を配置する。この場合、ある撮像素子により撮影される4つのマーカー9のうちの2つのマーカー9は、隣接する撮像素子でも撮影されるようにマーカー9を配置しても良い。例えば、撮像素子8aにより撮影される4つのマーカー9のうちの1つのマーカー9は、撮像素子8aに隣接する撮像素子8bにより撮影される様に、マーカー9を配置しても良い。
In FIG. 4, the vehicle 7 stops at a predetermined stop position. And the marker 9 is arrange | positioned around the vehicle 7 so that each of the image pick-up
更に、撮像素子8aにより撮影される4つのマーカー9のうちの1つのマーカー9は、撮像素子8aに隣接する撮像素子カメラ8cにより撮影される様にマーカー9を配置しても良い。換言すると、複数の撮像素子の撮影範囲が重複する位置にマーカー9を配置すればよい。但し、重複する位置を含め、マーカー9の車両7に対する物理的な配置位置は予め計測されているものとする。なお、撮像素子とマーカー9は一つでも良い為、実施例1においては、撮像素子とマーカー9は一つであるものとして説明する。なお、以降の説明のおいては、説明の便宜上のマーカー9の参照符号は省略する。
Further, the marker 9 may be arranged so that one marker 9 out of the four markers 9 photographed by the
図3の抽出部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、抽出部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。抽出部3は、取得部2から画像を受け取り、当該画像から第1色領域、または第2色領域を抽出する。具体的には、抽出部3は、先ず、取得部2から受け取ったマーカーが含まれる画像(例えば、RGBカラーの原画像)を、次式に従って輝度を変化させることにより、グレースケール画像に変換する。
但し、上述の(数1)において、(x、y)は、原画像の位置(原点は、例えば、画像の左上端であれば良い)である。R(x、y)、G(x、y)、ならびにB(x、y)は、原画像の位置(x、y)におけるR成分値、G成分値、ならびにB成分値である。
The extraction unit 3 in FIG. 3 is, for example, a hardware circuit based on wired logic. Further, the extraction unit 3 may be a functional module realized by a computer program executed by the image processing apparatus 1. The extraction unit 3 receives an image from the
However, in the above (Equation 1), (x, y) is the position of the original image (the origin may be, for example, the upper left corner of the image). R (x, y), G (x, y), and B (x, y) are an R component value, a G component value, and a B component value at the position (x, y) of the original image.
次に、抽出部3はグレースケール画像から2値画像をそれぞれ生成する。抽出部3は、例えば、グレースケール画像の画素値を所定の閾値と比較し、当該閾値以上の値を「1」、当該閾値未満の値を「0」に2値化を実施することにより、グレースケール画像から2値画像を生成する。例えば、市松模様の白色領域の候補が「1」、黒色領域の候補が「0」に設定される。なお、上述の所定の閾値は、固定値でなくともよく、対象画像に基づいて局所的もしくは大局的に動的に決定してもよい。公知の方法としては、例えば、大津の判別法やNiBlack法などが存在する。 Next, the extraction unit 3 generates a binary image from the grayscale image. For example, the extraction unit 3 compares the pixel value of the grayscale image with a predetermined threshold value, and binarizes the value equal to or higher than the threshold value to “1” and the value less than the threshold value to “0”. A binary image is generated from the grayscale image. For example, the checkered white area candidate is set to “1” and the black area candidate is set to “0”. Note that the predetermined threshold value described above may not be a fixed value, and may be dynamically determined locally or globally based on the target image. Known methods include, for example, Otsu's discrimination method and NiBlack method.
抽出部3は、2値化した2値化画像に対してラベリングを実施することにより、第1色領域と第2色領域(換言すると白色領域または黒色領域)を抽出する。なお、ラベリング方法は、例えば、公知の手法となる4連結(4近傍)法や8連結(8近傍)法を用いることが出来る。なお、抽出部3は、抽出結果を格納する図示しない画像バッファを具備しても良い。当該画像バッファは、例えば、上述の2値化画像と同じサイズの画像であり、かつ、白色(1)または黒色(0)で初期化されている。なお、画像バッファは、抽出部3ではなく、減退部4などが具備しても良い。抽出部3は、抽出した第1色領域と第2色領域を減退部4に出力する。 The extraction unit 3 extracts a first color area and a second color area (in other words, a white area or a black area) by labeling the binarized binarized image. As a labeling method, for example, a 4-connection (4 neighborhood) method or an 8-connection (8 neighborhood) method which is a known method can be used. The extraction unit 3 may include an image buffer (not shown) that stores the extraction result. The image buffer is, for example, an image having the same size as the above-described binarized image, and is initialized with white (1) or black (0). Note that the image buffer may be provided not by the extraction unit 3 but by the reduction unit 4 or the like. The extraction unit 3 outputs the extracted first color region and second color region to the reduction unit 4.
減退部4は、抽出部3が抽出した第1色領域と第2色領域を、抽出部3から受け取る。減退部4は、第1色領域と第2色領域の形状と、所定の楕円形状との第1類似度を算出する。なお、以降の処理は、第1色領域(白色領域)について処理する方法について説明する。第2色領域(黒色領域)についても、例えば白黒の反転処理を行うことで第1色領域と同様に処理することが出来る為、詳細な説明は省略する。 The reduction unit 4 receives the first color region and the second color region extracted by the extraction unit 3 from the extraction unit 3. The reduction unit 4 calculates a first similarity between the shapes of the first color region and the second color region and a predetermined elliptical shape. In the following processing, a method for processing the first color region (white region) will be described. The second color region (black region) can also be processed in the same manner as the first color region by performing, for example, black and white reversal processing, and thus detailed description thereof is omitted.
減退部4は、2値化画像に複数含まれる第1色領域のそれぞれが、楕円形状か否かを判定する。具体的には、減退部4は、先ず、ラベリングにより抽出された第1色領域に対応する疑似的な楕円の長軸と短軸を以下の手順で算出する。 The reduction unit 4 determines whether each of the first color regions included in the binarized image has an elliptical shape. Specifically, the reduction unit 4 first calculates the major and minor axes of a pseudo ellipse corresponding to the first color region extracted by labeling in the following procedure.
2値化画像の位置(x、y)の2値化画像をBW(x、y)とし、2値化画像に複数含まれる任意の第1色領域について判定処理を実施する場合、当該第1色領域のモーメントMijは次式で定義される。
上述の(数2)において、モーメントMijは、(i+j)次のモーメントとも称される。ここで、次式で表現される0次モーメントは、第1色領域の面積となる。
In the above (Equation 2), the moment M ij is also referred to as an (i + j) -th moment. Here, the 0th-order moment expressed by the following equation is the area of the first color region.
上述の(数2)ならびに(数3)に基づいて第1色領域の重心座標(xG、yG)を算出することが出来る。
更に、重心周りのモーメントを、次式を用いて算出することが出来る。
Furthermore, the moment around the center of gravity can be calculated using the following equation.
上述の(数5)において、重心周りの2次モーメント(MG20、MG02、MG11の3つ)は、慣性モーメントと称される。ここで、0次モーメント(第1色領域の面積)で正規化した正規化慣性モーメントμijは次式で表現される。
上述の(数6)の右辺をモーメントMijをのみを次式で表現することが出来る。
次に、第1色領域の楕円形状(面積はM00)への近似を実施する為、近似する擬似的な楕円形状の長軸の長さa、短軸の長さbを、上述の(数7)を用いて、次式の通り算出する。
擬似的な楕円形状の面積Sは、上述の(数8)を用いて次式の通り、算出することが出来る。
図2(a)に示す様に、マーカーを構成する色領域に侵食が発生しない場合においては、マーカーを構成する色領域(例えば白色領域)を楕円形状と判定することで、マーカー構成する白色領域の対を認識することが出来る。換言すると、マーカーの白色領域の対が正常に分離した状態で撮像されている場合、白色領域の面積と、疑似的な楕円形状の面積とが大きく異なることは無い。そこで、図3の減退部4は、処理対象の第1色領域の面積と、その領域に当てはまる疑似的な楕円形状の面積との比(第1類似度と称しても良い)が所定の閾値(第1閾値と称しても良い)を満たしているか否かにより、処理対象としている第1色領域が楕円形状であるか否かを判定する。減退部4は、例えば、面積の比(第1類似度)を評価する次式を用いてを用いて評価値Eを算出し、第1閾値を例えば0.3と設定し、E<0.3の場合は楕円形状であると判定し、E≧0.3の場合は楕円形状では無いと判定する。
なお、減退部4は、例えば、国際公開第2012/061205号パンフレットに開示される減退方法や評価方法を適宜適用することが出来る。
As shown in FIG. 2A, in the case where erosion does not occur in the color area constituting the marker, the color area constituting the marker (for example, the white area) is determined to be elliptical, so that the white area constituting the marker Can be recognized. In other words, when the pair of white areas of the marker is captured in a normally separated state, the area of the white area and the pseudo elliptical area do not differ greatly. Therefore, the reduction unit 4 in FIG. 3 has a predetermined threshold value that is a ratio between the area of the first color area to be processed and the area of the pseudo elliptical shape that applies to the area (may be referred to as the first similarity). It is determined whether or not the first color region to be processed is an elliptical shape depending on whether or not (may be referred to as a first threshold) is satisfied. The reduction unit 4 calculates the evaluation value E using, for example, the following expression for evaluating the area ratio (first similarity), sets the first threshold value to 0.3, for example, and E <0. If it is 3, it is determined that the shape is elliptical, and if E ≧ 0.3, it is determined that the shape is not elliptical.
In addition, the decline part 4 can apply suitably the decline method and evaluation method which are disclosed by the international publication 2012/061205 pamphlet, for example.
図3の算出部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、算出部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。算出部5は、減退部5にアクセスし、2値化画像に複数含まれる第1色領域において、上述の(数10)の条件を満たすことによって楕円形状と判定された第1色領域と、所定の蝶形状との第2類似度を算出する。ここで、算出部5による楕円形状と判定された第1色領域と、所定の蝶形状との第2類似度を算出する技術的な意義について説明する。本発明者らの検証により、図2(b)に示す様に、色領域に侵食が発生する場合(例えば照明の光が強く明るい場合)、マーカー構成する第1色形状の対が連結して蝶形状となることが明らかになった。この様な蝶形状においては、上述の(数10)の条件を満たし得るため、縮退処理が実施されない為に、マーカー構成する白色領域の対を特定すること出来ない誤検出の問題が生じる。しかしながら、上述の(数10)の条件を満たした場合において、蝶形状であるか否かを判定することが可能となれば、誤検出を防止することが出来、ロバスト性が向上する。なお、算出部5による所定の蝶形状との第2類似度の算出方法については後述する。
The
算出部5は、処理対象となる第1色領域が蝶形状で無いと判定した場合は、当該第1色領域を、マーカーを構成する第1色領域の候補とする。算出部5は、抽出部3が有する画像バッファにアクセスし、画像バッファに、当該第1色領域をコピーし、元の画像の第1色領域の範囲を消去する(黒で塗りつぶす)ことを実施しても良い。また、算出部5は、処理対象となる第1色領域が蝶形状であると判定した場合は、当該第1色領域が楕円形状であったとしてもマーカーを構成する第1色領域の候補としない。算出部5は、複数の第1色領域に対して第2類似度を算出し、蝶形状か否かの判定処理を行うと、画像バッファには、マーカーを構成する第1色領域候補が抽出され、元の2値化画像には、候補ではない第1色領域が残存している。
When the
上述の算出部5の処理が実施された後に縮退部4は、元の2値化画像の縮退処理を行う。換言すると、減退部4は、楕円形状と判定されなかった第1色領域または、楕円形状と判定されたが蝶形状と判定された第1色領域に対して減退処理を実行する。なお、縮退処理は、第1色領域(白色領域)の外周の画素を1画素ずつ削る(削除する)方法や、第1色領域のエッジ部分の画素を所定のフィルタリング処理で削る方法など、様々な公知の技術を用いることが出来る。縮退部4による縮退処理が完了すると、抽出部3は、縮退後の2値化画像に対して再度ラベリングを実施することにより、第1色領域と第2色領域(換言すると白色領域または黒色領域)を再度抽出し、減退部4と算出部5は上述した一連の処理を第1色領域が消滅するまで反復する。反復処理が完了した場合、画像バッファには、マーカーを構成する第1色領域の候補が抽出されている。なお、第2色領域(黒色領域)についても、例えば白黒の反転処理を行うことで第1色領域と同様に処理することが出来る為、以下の処理においても詳細な説明は省略する。
After the processing of the
ここで、算出部5による楕円形状と判定された第1色領域が所定の蝶形状か否かを判定する方法について説明する。図5は、算出部5による蝶形状の判定フローチャートである。算出部5は、楕円形状であると判定された第1色領域を入力データとして、当該第1色領域の重心位置を算出する(ステップS501)。ステップS501において、算出部5は、第1色領域の重心位置を上述の(数4)に基づいて算出することが出来る。
Here, a method for determining whether or not the first color region determined to be an elliptical shape by the
次に、算出部5は、処理対象となる第1色領域の慣性主軸を算出する(ステップS502)。なお、算出部5は慣性主軸を次式に基づいて算出することが出来る。
なお、慣性主軸は、ステップS501で算出した重心位置を通過する上述の(数11)で算出される角度θの傾きを有する直線である。
Next, the
The inertial main axis is a straight line having the inclination of the angle θ calculated by the above (Equation 11) passing through the center of gravity calculated in step S501.
次に、算出部5は、処理対象となる第1色領域において、算出した慣性主軸上への射影ヒストグラムを生成する(ステップS503)。なお、算出部5は、ステップS503において、射影ヒストグラムを、例えば、以下の手順で生成することが出来る。
(1)処理対象となる第1色領域が含まれる画像を、上述の(数4)を用いて算出した重心座標(xG、yG)の周りに、上述の(数11)に基づいて算出される角度(−θ)だけ回転させる。なお、回転後の画像においては、慣性主軸の方向が画像の横方向(換言するとx軸方向)になる。
(2)回転後の画像の各列方向(縦方向、換言するとy軸方向)に、第1色領域の画素数をカウントする。各列毎の画素数のカウント結果が射影ヒストグラムとなる。
Next, the
(1) An image including the first color region to be processed is placed around the barycentric coordinates (x G , y G ) calculated using the above (Equation 4) based on the above (Equation 11). It is rotated by the calculated angle (−θ). In the rotated image, the direction of the principal axis of inertia is the horizontal direction of the image (in other words, the x-axis direction).
(2) The number of pixels in the first color area is counted in each column direction (vertical direction, in other words, y-axis direction) of the rotated image. The result of counting the number of pixels for each column is a projection histogram.
図6(a)は、蝶形状ではない第1色領域を含む回転前の画像を示す図である。図6(b)は、蝶形状ではない第1色領域を含む回転後の画像を示す図である。図7(a)は、蝶形状の第1色領域を含む回転前の画像を示す図である。図7(b)は、蝶形状の第1色領域を含む回転後の画像を示す図である。図6(a)、図7(a)に示す通り、左上端を原点とする画像に含まれる第1色領域においては、重心座標(xG、yG)と傾きθの慣性主軸が規定される。また、図6(b)、図7(b)に示す通り、第1色領域は、慣性主軸の方向が画像のx軸と平行方向となる様に回転される。 FIG. 6A is a diagram illustrating an image before rotation including a first color region that is not a butterfly shape. FIG. 6B is a diagram illustrating an image after rotation including a first color region that is not a butterfly shape. FIG. 7A is a diagram showing an image before rotation including a butterfly-shaped first color region. FIG. 7B is a diagram illustrating an image after rotation including a first color region having a butterfly shape. As shown in FIGS. 6 (a) and 7 (a), in the first color region included in the image with the upper left corner as the origin, the center of inertia coordinates (x G , y G ) and the inclination θ are defined. The Further, as shown in FIGS. 6B and 7B, the first color region is rotated so that the direction of the principal axis of inertia is parallel to the x-axis of the image.
図6(c)は、蝶形状ではない第1色領域の射影ヒストグラムである。図7(c)は、蝶形状の第1色領域の射影ヒストグラムである。図6(c)に示す射影ヒストグラムは単峰形状になっており、図7(c)に示す射影ヒストグラムは、双峰形状多峰性になっていることが確認出来る。この為、算出部5は、射影ヒストグラムが所定の双峰形状との類似度(第2類似度と称しても良い)が所定の類似度(第2閾値と称しても良い)以上であれば、第1色領域が蝶形状であること判定出来る。
FIG. 6C is a projection histogram of the first color region that is not a butterfly shape. FIG. 7C is a projection histogram of the butterfly-shaped first color region. The projection histogram shown in FIG. 6C has a unimodal shape, and it can be confirmed that the projection histogram shown in FIG. 7C has a bimodal multimodality. For this reason, the
図5において、算出部5は、ステップS503で生成した射影ヒストグラムの重心位置を算出する(ステップS504)。重心位置は、例えば、回転後の画像の第1色領域の重心位置のx座標であれば良い。ところで、図7(a)ないし図7(c)に示される通り、第1色領域が蝶形状であれば、重心位置付近に射影ヒストグラムの極小値が存在することが理解できる。そこで、次に、算出部5は、射影ヒストグラムの重心位置から所定の探索範囲内において、最小値と当該最小値位置を探索する(ステップS505)。所定探索範囲は、例えば、射影ヒストグラムの重心位置から左端(または右端)までの距離の0.6倍までと設定すれば良い。これは、射影ヒストグラムが双峰形状であれば、重心位置から左端(または右端)までの距離の1/2の距離の付近に極大値があると考えられ、それよりやや大きい0.6を設定すれば、探索される最小値は極小値である可能性が高い為である。
In FIG. 5, the
算出部5は、ステップS505において、射影ヒストグラムから、探索により最小値位置を得たのち、最小値位置よりも左側と右側でそれぞれ最大値を探索し、探索した最大値を、それぞれ左極大値ならびに右極大値として設定する(ステップS506)。次に、算出部5は、左極大値ならびに右極大値と先に探索した最小値との比率をそれぞれ計算し、これを左比率ならびに右比率(第2類似度と称しても良い)として設定する(ステップS507)。
In step S505, the
射影ヒストグラムが蝶領域であれば、探索した最小値位置の左右にはそれぞれ上に凸の領域が存在する為、左比率と右比率(第2類似度)は、蝶形状でない場合と比較して大きな値になる。そこで、算出部5は、左比率と右比率がともに第2閾値なる所定の閾値(例えば3.0)以上であるか否かを判定する(ステップS508)。算出部5は、処理対象となる第1色領域の第2類似度が、第2閾値以上の場合(ステップS508−Yes)、双峰性を有するものとして、蝶型形状肯定の結果を出力する(ステップS509)。また、算出部5は、処理対象となる第1色領域の第2類似度が第2閾値未満の場合(ステップS508−No)、双峰性を有さないものとして、蝶型形状否定の結果を出力する(ステップS510)。ステップS509またはS510の処理の完了に伴い、算出部5は、図5のフローチャートに示す蝶形状の判定処理を終了する。算出部5は、蝶形状判定の処理結果を図3の認識部6へ出力する。
If the projection histogram is a butterfly area, there are convex areas on the left and right sides of the searched minimum value position, so the left ratio and right ratio (second similarity) are compared to the case where the butterfly shape is not used. Great value. Therefore, the
図3の認識部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。認識部6は、算出部5から蝶形状判定の処理結果を受け取る。認識部6は、蝶形状判定の処理結果に基づいて第2類似度が第2閾値を満たさない第1色領域または第2色領域を、マーカーを構成する第1色領域または第2色領域として認識する。具体的には、認識部6は、認識したマーカーを構成する第1色領域または第2色領域を用いて、マーカーの特徴点すなわち市松模様の交点を検出する。換言すると、認識部5は、第2閾値を満たさなく、かつ、互いに対向する複数の第1色領域の所定位置を連結する第1線分と、第2閾値を満たさなく、かつ、互いに対向する複数の第2色領域の所定位置を連結する第2線分と、の交点をマーカーの特徴点として認識する。具体的には、認識部6は、例えば、以下の処理を実行する。
The recognition unit 6 in FIG. 3 is, for example, a hardware circuit based on wired logic. The recognition unit 6 may be a functional module that is realized by a computer program executed by the image processing apparatus 1. The recognition unit 6 receives the processing result of the butterfly shape determination from the
マーカーの構成する色領域の候補は複数抽出されている場合も有り得るが、マーカーを構成する第1色領域ならびに第2色領域であるには、2つの白色領域と2つの黒色領域からなる必要がある。また、白色領域のそれぞれの重心を結んだ線分と、黒領域のそれぞれの重心を結んだ線分が交差する必要がある。抽出した領域ペアが、複数に渡る場合は、認識部6は、領域ペアを更に絞り込んでも良い。認識部6は、例えば、マーカーの画像上での大凡のサイズを利用し、領域ペアのうち、重心間の距離が所定値(例えば、マーカーのおおよそのサイズ)以内のものに絞り込んでも良い。次に、認識部6は、抽出された複数の領域ペアに対して検証処理を行う。例えば、マーカーの形状は既知であるから、あらかじめマーカー形状のテンプレートを用意しておき、テンプレートマッチングのスコアをもとにマーカーらしい領域ペアを選択する。なお、画像上のマーカーは歪んで現れ得るため、テンプレートマッチングの際には、領域ペアの各領域の重心位置が、マーカー形状のテンプレートの各領域の重心位置に一致するように領域ペアの画像を、例えばアフィン変換することで、歪みを補正しておくことが好ましい。 There may be a case where a plurality of color area candidates constituting the marker are extracted, but in order to be the first color area and the second color area constituting the marker, it is necessary to include two white areas and two black areas. is there. In addition, the line segment connecting the centroids of the white area and the line segment connecting the centroids of the black area need to intersect. When there are a plurality of extracted area pairs, the recognition unit 6 may further narrow down the area pairs. The recognition unit 6 may use, for example, an approximate size of the marker on the image, and narrow down to a region pair whose distance between the centroids is within a predetermined value (for example, the approximate size of the marker). Next, the recognition unit 6 performs a verification process on the extracted plurality of region pairs. For example, since the shape of the marker is known, a marker-shaped template is prepared in advance, and an area pair that seems to be a marker is selected based on the template matching score. Since the marker on the image may appear distorted, when performing template matching, the image of the region pair is set so that the centroid position of each region of the region pair matches the centroid position of each region of the marker-shaped template. For example, it is preferable to correct the distortion by affine transformation.
上述の処理によって認識部6は、マーカーを構成する第1色領域と第2色領域の領域ペアを選択することが出来る。認識部6は、選択した領域ペアの重心を結んだ線分の交点を市松模様の交点として抽出し、マーカーの特徴点として認識する。 Through the above-described processing, the recognition unit 6 can select the first color region and the second color region region pair constituting the marker. The recognizing unit 6 extracts intersections of line segments connecting the centroids of the selected region pairs as intersections of a checkered pattern and recognizes them as marker feature points.
認識部6は、上述の条件を満たす白色領域ペアと黒色領域ペアを含む4領域(以下、領域ペアと称する)の組み合わせを認識する。図8は、マーカーを構成する第1色領域と第2色領域の領域ペアの概念図である。図8に示す通り、認識部6は、互いに対向する第1色領域の重心位置を連結する第1線分と、互いに対向する第2色領域の重心位置を連結する第2線分の交点がマーカーの特徴点として認識することが出来る。なお、認識部6は、例えば、国際公開第2012/061205号パンフレットに開示される特徴点の決定方法を適宜適用することが出来る。 The recognition unit 6 recognizes a combination of four regions (hereinafter referred to as region pairs) including a white region pair and a black region pair that satisfy the above conditions. FIG. 8 is a conceptual diagram of an area pair of a first color area and a second color area constituting a marker. As shown in FIG. 8, the recognition unit 6 has an intersection of a first line segment connecting the centroid positions of the first color regions facing each other and a second line segment linking the centroid positions of the second color regions facing each other. It can be recognized as a feature point of the marker. For example, the recognition unit 6 can appropriately apply the feature point determination method disclosed in International Publication No. 2012/061205 pamphlet.
図9は、画像処理装置1における画像処理のフローチャートである。図9において、取得部2は、外部装置が撮像する撮像画像を取得する(ステップS901)。抽出部3は、取得部2から画像を受け取り、当該画像から第1色領域、または第2色領域を上述の方法で抽出する(ステップS902)。なお、説明の便宜上、第1色領域ならびに第2色領域を合わせて色領域と称することとする。減退部4は、抽出された第1色領域、または第2色領域の領域数が0より多い場合(ステップS903−Yes)、抽出された複数の色領域から1つの色領域を選択する(ステップS904)。減退部4は、選択した色領域の形状と、所定の楕円形状との第1類似度を上述の方法を用いて算出する(ステップS905)。減退部4は、例えば、上述の(数10)に基づいて第1類似度と第1閾値を比較し、選択した色領域が楕円形状を満たすか否かを判断する(ステップS906)。
FIG. 9 is a flowchart of image processing in the image processing apparatus 1. In FIG. 9, the
第1類似度が第1閾値未満の場合(ステップS906−Yes)、選択した色領域が楕円形状を満たすものとして、算出部5は、上述の方法で第2類似度を算出する(ステップS907)。算出部5は、選択した色領域が蝶形状を満たすか否かを、第2類似度と第2閾値を比較することで判定する(ステップS908)。第2類似度が第2閾値未満(ステップS908−No)の場合は、認識部6は、選択した色領域が蝶形状を満たさないものとして、換言すると、選択した色領域がマーカーを構成する色領域として認識する(ステップS909)。なお、画像処理装置1は、ステップS906において、第1類似度が第1閾値以上の場合(ステップS906−No)や、ステップS908において、第2類似度が第2閾値以上(ステップS908−Yes)の場合は、選択した色領域がマーカーを構成しない色領域としてステップS910に処理を進める。画像処理装置1は、ステップS902で抽出部3が抽出した、全ての色領域において第1類似度と第1閾値ならびに第2類似度と第2閾値の比較処理が完了したか否かを判定する(ステップS910)。ステップS910において、比較処理が完了していない場合(ステップS910−No)、画像処理装置1は、ステップS904〜S910の処理を繰り返す。
When the first similarity is less than the first threshold (step S906-Yes), the
ステップS910において、比較処理が完了した場合(ステップS910−Yes)、減退部4は、ステップS906で楕円形状と判定されなかった色領域または、ステップS908で楕円形状と判定されたが蝶形状と判定された色領域に対して減退処理を実行する(ステップS911)。ステップS911の処理が完了すると、抽出部3は再び色領域を抽出する。次に、減退部4は、抽出された色領域の数が0以上か否かを判定する(S903)。なお、ステップS911で減退処理を行っている為、色領域は次第に消滅する為、ステップS902〜S911の処理を繰り返すことによって、いずれは、色領域数が0となる(ステップS903−No)。 In step S910, when the comparison process is completed (step S910-Yes), the reduction unit 4 determines that the color region has not been determined to be elliptical in step S906, or has been determined to be elliptical in step S908 but has a butterfly shape. A reduction process is executed for the color area that has been set (step S911). When the process of step S911 is completed, the extraction unit 3 extracts the color area again. Next, the reduction unit 4 determines whether or not the number of extracted color regions is 0 or more (S903). Since the color area gradually disappears because the reduction process is performed in step S911, the number of color areas is eventually reduced to 0 by repeating the processes in steps S902 to S911 (step S903-No).
ステップS903において、色領域数が0となった場合(ステップS903−No)、認識部は、ステップS909で認識したマーカーを構成する色領域から、上述した方法で特徴点を認識する(ステップS912)。ステップS912の処理の完了に伴い、画像処理装置1は、図9のフローチャートに示す画像処理を完了させる。 In step S903, when the number of color regions becomes 0 (step S903-No), the recognition unit recognizes feature points from the color regions constituting the marker recognized in step S909 by the method described above (step S912). . With the completion of the processing in step S912, the image processing apparatus 1 completes the image processing shown in the flowchart of FIG.
実施例1に係る画像処理装置においては、不鮮明な画像において、マーカー構成する白色領域の対が連結して蝶形状となる場合においてもマーカーの特徴点を高精度で抽出することが可能となる。 In the image processing apparatus according to the first embodiment, it is possible to extract a marker feature point with high accuracy even when a pair of white regions constituting a marker is connected to form a butterfly shape in a blurred image.
(実施例2)
図10は、一つの実施形態による画像処理装置1のハードウェア構成図である。図10に示すように、画像処理装置1は、制御部10、主記憶部11、補助記憶部12、ドライブ装置13、ネットワークI/F部15、入力部16、表示部17を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
(Example 2)
FIG. 10 is a hardware configuration diagram of the image processing apparatus 1 according to one embodiment. As illustrated in FIG. 10, the image processing apparatus 1 includes a
制御部10は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部10は、主記憶部11や補助記憶部12に記憶されたプログラムを実行する演算装置であり、入力部16や記憶装置からデータを受け取り、演算、加工した上で、表示部17や記憶装置などに出力する。
The
主記憶部11は、ROMやRAMなどであり、制御部10が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。
The
補助記憶部12は、HDDなどであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
The
ドライブ装置13は、記録媒体14、例えばフレキシブルディスクからプログラムを読み出し、補助記憶部12にインストールする。また、記録媒体14に、所定のプログラムを格納し、この記録媒体14に格納されたプログラムはドライブ装置13を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1により実行可能となる。
The
ネットワークI/F部15は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置1とのインターフェースである。
The network I /
入力部16は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部17の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部16は、ユーザが制御部10に操作指示を与えたり、データを入力したりするためのユーザインタフェースである。
The
表示部17は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部10から入力される表示データに応じた表示が行われる。
The
なお、上述した画像処理方法は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述した画像処理方法を実現することが出来る。 The image processing method described above may be realized as a program for causing a computer to execute. The above-described image processing method can be realized by installing this program from a server or the like and causing the computer to execute it.
また、このプログラムを記録媒体14に記録し、このプログラムが記録された記録媒体14をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体14は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることが出来る。
It is also possible to record the program on the
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが出来る。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。 In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得する取得部と、
前記画像から前記第1色領域、または前記第2色領域を抽出する抽出部と、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退する減退部と、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する算出部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記第2類似度が所定の第2閾値を満たさない前記第1色領域または前記第2色領域を、前記マーカーを構成する前記第1色領域または前記第2色領域として認識する認識部を更に備えることを特徴とする付記1記載の画像処理装置。
(付記3)
前記算出部は、前記第1閾値を満たした前記第1色領域または前記第2色領域の慣性主軸を算出し、前記慣性主軸に対する射影ヒストグラムを生成し、前記射影ヒストグラムと所定の双峰形状との類似度を前記第2類似度として算出することを特徴とする付記2記載の画像処理装置。
(付記4)
前記減退部は、前記第2閾値を満たした前記第1色領域または前記第2色領域が、前記第1閾値を満たすまで前記第1色領域または前記第2色領域を減退することを特徴とする付記3記載の画像処理装置。
(付記5)
前記認識部は、前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第1色領域の所定位置を連結する第1線分と、
前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第2色領域の所定位置を連結する第2線分と、の交点を前記マーカーの特徴点として認識する付記2ないし付記4のいずれか一つに記載の画像処理装置。
(付記6)
前記マーカーは市松模様であることを特徴とする付記1ないし付記4のいずれか一つに記載の画像処理装置。
(付記7)
前記減退部は、前記第1色領域または前記第2色領域の外周の画素を削除、またはエッジ部分のフィルタリングにより、前記第1色領域または前記第2色領域を減退させることを特徴とする付記1記載の画像処理装置。
(付記8)
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを含むことを特徴とする画像処理方法。
(付記9)
前記第2類似度が所定の第2閾値を満たさない前記第1色領域または前記第2色領域を、前記マーカーを構成する前記第1色領域または前記第2色領域として認識することを更に含む備えることを特徴とする付記8記載の画像処理方法。
(付記10)
前記算出することは、前記第1閾値を満たした前記第1色領域または前記第2色領域の慣性主軸を算出し、前記慣性主軸に対する射影ヒストグラムを生成し、前記射影ヒストグラムと所定の双峰形状との類似度を前記第2類似度として算出することを特徴とする付記9記載の画像処理方法。
(付記11)
前記減退することは、前記第2閾値を満たした前記第1色領域または前記第2色領域が、前記第1閾値を満たすまで前記第1色領域または前記第2色領域を減退することを特徴とする付記10記載の画像処理方法。
(付記12)
前記認識することは、前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第1色領域の所定位置を連結する第1線分と、
前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第2色領域の所定位置を連結する第2線分と、の交点を前記マーカーの特徴点として認識する付記9ないし付記11のいずれか一つに記載の画像処理方法。
(付記13)
前記マーカーは市松模様であることを特徴とする付記8ないし付記11のいずれか一つに記載の画像処理方法。
(付記14)
前記減退することは、前記第1色領域または前記第2色領域の外周の画素を削除、またはエッジ部分のフィルタリングにより、前記第1色領域または前記第2色領域を減退させることを特徴とする付記8記載の画像処理方法。
(付記15)
コンピュータに、
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを実行させることを特徴とする画像処理プログラム。
The following supplementary notes are further disclosed with respect to the embodiment described above.
(Appendix 1)
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. An acquisition unit for acquiring an image including a marker;
An extraction unit for extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is A decline department to decline,
A calculation unit that calculates a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape;
An image processing apparatus comprising:
(Appendix 2)
A recognizing unit that recognizes the first color area or the second color area in which the second similarity does not satisfy a predetermined second threshold as the first color area or the second color area constituting the marker; The image processing apparatus according to appendix 1, further comprising:
(Appendix 3)
The calculation unit calculates an inertia main axis of the first color area or the second color area that satisfies the first threshold, generates a projection histogram for the inertia main axis, and generates the projection histogram and a predetermined bimodal shape. The image processing apparatus according to
(Appendix 4)
The reduction unit reduces the first color area or the second color area until the first color area or the second color area that satisfies the second threshold satisfies the first threshold. The image processing apparatus according to appendix 3.
(Appendix 5)
The recognizing unit does not satisfy the second threshold and connects a predetermined position of the plurality of first color regions facing each other;
Any one of
(Appendix 6)
5. The image processing apparatus according to claim 1, wherein the marker is a checkered pattern.
(Appendix 7)
The reduction unit is configured to delete the first color region or the second color region by deleting pixels on the outer periphery of the first color region or the second color region or filtering an edge portion. The image processing apparatus according to 1.
(Appendix 8)
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing method comprising: calculating a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
(Appendix 9)
Recognizing the first color region or the second color region in which the second similarity does not satisfy a predetermined second threshold as the first color region or the second color region constituting the marker. The image processing method according to claim 8, further comprising:
(Appendix 10)
The calculating calculates an inertia principal axis of the first color area or the second color area that satisfies the first threshold, generates a projection histogram for the inertia principal axis, and generates a projection histogram and a predetermined bimodal shape The image processing method according to appendix 9, wherein the similarity is calculated as the second similarity.
(Appendix 11)
The reduction is characterized in that the first color area or the second color area is reduced until the first color area or the second color area that satisfies the second threshold satisfies the first threshold. The image processing method according to
(Appendix 12)
The recognizing means that a first line segment that does not satisfy the second threshold and connects predetermined positions of the plurality of first color regions facing each other;
Any one of Supplementary Notes 9 to 11 that recognizes an intersection point of a second line segment that does not satisfy the second threshold and connects a predetermined position of the plurality of second color regions facing each other as a feature point of the marker An image processing method according to claim 1.
(Appendix 13)
12. The image processing method according to claim 8, wherein the marker is a checkered pattern.
(Appendix 14)
The reduction is characterized in that the first color area or the second color area is reduced by deleting pixels on the outer periphery of the first color area or the second color area or by filtering an edge portion. The image processing method according to appendix 8.
(Appendix 15)
On the computer,
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing program that causes a calculation of a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
1 画像処理装置
2 取得部
3 抽出部
4 減退部
5 算出部
6 認識部
DESCRIPTION OF SYMBOLS 1
Claims (7)
前記画像から前記第1色領域、または前記第2色領域を抽出する抽出部と、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退する減退部と、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する算出部と、
を備えることを特徴とする画像処理装置。 A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. An acquisition unit for acquiring an image including a marker;
An extraction unit for extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is A decline department to decline,
A calculation unit that calculates a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape;
An image processing apparatus comprising:
前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第2色領域の所定位置を連結する第2線分と、の交点を前記マーカーの特徴点として認識する請求項2ないし請求項4のいずれか一項に記載の画像処理装置。 The recognizing unit does not satisfy the second threshold and connects a predetermined position of the plurality of first color regions facing each other;
5. The crossing point of the second line segment that connects the predetermined positions of the plurality of second color regions facing each other and does not satisfy the second threshold value is recognized as a feature point of the marker. The image processing apparatus according to any one of the above.
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを含むことを特徴とする画像処理方法。 A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing method comprising: calculating a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを実行させることを特徴とする画像処理プログラム。 On the computer,
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing program that causes a calculation of a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013089853A JP6107372B2 (en) | 2013-04-22 | 2013-04-22 | Image processing apparatus, image processing method, and image processing program |
US14/167,620 US9319669B2 (en) | 2013-04-22 | 2014-01-29 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013089853A JP6107372B2 (en) | 2013-04-22 | 2013-04-22 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014215645A JP2014215645A (en) | 2014-11-17 |
JP6107372B2 true JP6107372B2 (en) | 2017-04-05 |
Family
ID=51728709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089853A Expired - Fee Related JP6107372B2 (en) | 2013-04-22 | 2013-04-22 | Image processing apparatus, image processing method, and image processing program |
Country Status (2)
Country | Link |
---|---|
US (1) | US9319669B2 (en) |
JP (1) | JP6107372B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11004213B2 (en) * | 2016-01-25 | 2021-05-11 | KoreoGRFX, Inc. | Methods and systems for determining motion of a device |
DE102016205804A1 (en) | 2016-04-07 | 2017-10-12 | Siemens Aktiengesellschaft | Positioning System |
JP2018005263A (en) * | 2016-06-27 | 2018-01-11 | Nissha株式会社 | Image processing method, program, photographic paper, and image processing device |
US10095975B2 (en) * | 2017-03-10 | 2018-10-09 | Capital One Services, Llc | Systems and methods for capturing visible information |
JP6858742B2 (en) * | 2018-12-17 | 2021-04-14 | 株式会社フジタ | Displacement measuring device |
CN116109663B (en) * | 2023-04-04 | 2023-06-23 | 山东大学第二医院 | Stomach CT image segmentation method based on multi-threshold segmentation |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006260397A (en) * | 2005-03-18 | 2006-09-28 | Konica Minolta Holdings Inc | Eye opening degree estimating device |
JP5240517B2 (en) * | 2008-09-30 | 2013-07-17 | アイシン精機株式会社 | Car camera calibration system |
JPWO2010050412A1 (en) | 2008-10-28 | 2012-03-29 | 日本電気株式会社 | Calibration index determination device, calibration device, calibration performance evaluation device, system, method, and program |
JP2010107348A (en) | 2008-10-30 | 2010-05-13 | Panasonic Corp | Calibration target and in-vehicle calibration system using it |
JP5271742B2 (en) * | 2009-02-10 | 2013-08-21 | セコム株式会社 | Sunglass wear detection device |
JP5472463B2 (en) * | 2010-06-30 | 2014-04-16 | 富士通株式会社 | Image processing program and image processing apparatus |
US20120105385A1 (en) | 2010-11-02 | 2012-05-03 | Qualcomm Mems Technologies, Inc. | Electromechanical systems apparatuses and methods for providing rough surfaces |
JP5573618B2 (en) * | 2010-11-12 | 2014-08-20 | 富士通株式会社 | Image processing program and image processing apparatus |
US8798781B2 (en) * | 2011-02-07 | 2014-08-05 | Vistaprint Schweiz Gmbh | Method and system for converting an image to a color-reduced image mapped to embroidery thread colors |
-
2013
- 2013-04-22 JP JP2013089853A patent/JP6107372B2/en not_active Expired - Fee Related
-
2014
- 2014-01-29 US US14/167,620 patent/US9319669B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9319669B2 (en) | 2016-04-19 |
JP2014215645A (en) | 2014-11-17 |
US20140313349A1 (en) | 2014-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6107372B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4928310B2 (en) | License plate recognition device, control method thereof, computer program | |
JP5699788B2 (en) | Screen area detection method and system | |
US7813553B2 (en) | Image region detection method, recording medium, and device therefor | |
US8019164B2 (en) | Apparatus, method and program product for matching with a template | |
CN105303156B (en) | Character detection device, method, and program | |
JP5538868B2 (en) | Image processing apparatus, image processing method and program | |
CN107005655A (en) | Image processing method | |
JP5472463B2 (en) | Image processing program and image processing apparatus | |
JP2007156655A (en) | Variable region detection apparatus and its method | |
JP2011175523A (en) | Instrument reading device, method, program and computer-readable medium with the software stored | |
WO2005096129A1 (en) | Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device | |
CN107958202B (en) | Human body detection apparatus, control method of human body detection apparatus, and storage medium | |
JP2011118466A (en) | Difference noise replacement device, difference noise replacement method, difference noise replacement program, computer readable recording medium, and electronic equipment with difference noise replacement device | |
JP2018092354A (en) | Object detection apparatus and method for detecting objects | |
JP6789410B2 (en) | Image processing device, control method and control program | |
JP2011107878A (en) | Position detection apparatus and position detection method | |
JP6221283B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US11138447B2 (en) | Method for detecting raised pavement markers, computer program product and camera system for a vehicle | |
JP5708305B2 (en) | Image recognition apparatus, image recognition method, and computer program for image recognition | |
JP2013254242A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2017120455A (en) | Information processing device, program and control method | |
JP2013029996A (en) | Image processing device | |
JP5371015B2 (en) | Cross mark detection apparatus and method, and program | |
JP2020149184A (en) | Information processor and control method thereof and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160113 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6107372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |