JP4649559B2 - 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded - Google Patents

3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded Download PDF

Info

Publication number
JP4649559B2
JP4649559B2 JP2009051500A JP2009051500A JP4649559B2 JP 4649559 B2 JP4649559 B2 JP 4649559B2 JP 2009051500 A JP2009051500 A JP 2009051500A JP 2009051500 A JP2009051500 A JP 2009051500A JP 4649559 B2 JP4649559 B2 JP 4649559B2
Authority
JP
Japan
Prior art keywords
edge
dimensional object
orientation
projection point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009051500A
Other languages
Japanese (ja)
Other versions
JP2010205095A (en
Inventor
剛 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
3D Media Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3D Media Co Ltd filed Critical 3D Media Co Ltd
Priority to JP2009051500A priority Critical patent/JP4649559B2/en
Publication of JP2010205095A publication Critical patent/JP2010205095A/en
Application granted granted Critical
Publication of JP4649559B2 publication Critical patent/JP4649559B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、形状が既知の3次元物体を、カメラ等で撮影した2次元画像における輪郭などの特徴から認識する3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体に関する。   The present invention relates to a three-dimensional object recognition apparatus for recognizing a three-dimensional object having a known shape from features such as an outline in a two-dimensional image photographed by a camera or the like, a three-dimensional object recognition program, and a computer-readable computer on which the same is recorded. The present invention relates to a recording medium.

生産ラインにおいてロボットアームによる部品等の正確な操作を可能とするため、山積みにされた部品等を個々に認識し、各部品の位置及び姿勢を認識する3次元物体認識装置が近年開発されている。この3次元物体認識装置は、まず3次元物体を所定方向からカメラで撮影した画像から3次元物体のエッジすなわち輪郭などの特徴を抽出し、撮影画像を構成する各ピクセルについて最も近いエッジまでの距離をそれぞれ計算する。次に、3次元物体認識装置は、3次元物体を種々の位置及び姿勢に置いた状態で撮影画像に投影し、エッジを構成する各点の座標をそれぞれ算出する。そして、3次元物体認識装置は、両者を比較した誤差に基づいてその位置及び姿勢を評価し、最も評価の高い位置及び姿勢をその3次元物体の位置及び姿勢として認識する。   In order to enable accurate operation of parts and the like by a robot arm in a production line, a three-dimensional object recognition device has been developed in recent years that recognizes a pile of parts individually and recognizes the position and orientation of each part. . This three-dimensional object recognition apparatus first extracts features such as edges of a three-dimensional object, ie, contours, from an image obtained by photographing the three-dimensional object with a camera from a predetermined direction, and the distance to the nearest edge for each pixel constituting the photographed image. Respectively. Next, the three-dimensional object recognition device projects the three-dimensional object on the captured image in various positions and postures, and calculates the coordinates of each point constituting the edge. Then, the three-dimensional object recognition apparatus evaluates the position and orientation based on an error obtained by comparing the two, and recognizes the position and orientation with the highest evaluation as the position and orientation of the three-dimensional object.

しかし、3次元物体の位置及び姿勢を変化させる度に、撮影画像を構成する各ピクセルについて最も近いエッジまでの距離を計算したのでは、高性能な処理装置が必要となりコストが高くなる。従って、この問題を解消すべく、ディスタンスマップを予め作成することが提案されている(例えば特許文献1参照)。このディスタンスマップは、撮影画像を構成する各ピクセルに、最も近いエッジまでの距離を画素値としてそれぞれ持たせたものであり、このディスタンスマップを参照することにより、最も近いエッジまでの距離を一々計算する手間を省くことができる。   However, each time the position and orientation of the three-dimensional object are changed, calculating the distance to the nearest edge for each pixel constituting the captured image requires a high-performance processing device and increases the cost. Therefore, in order to solve this problem, it has been proposed to create a distance map in advance (see, for example, Patent Document 1). This distance map is obtained by assigning the distance to the nearest edge to each pixel constituting the captured image as a pixel value. By referring to this distance map, the distance to the nearest edge is calculated one by one. This saves you time and effort.

特開平11−025291号公報Japanese Patent Laid-Open No. 11-025291

しかし、従来の3次元物体認識装置は、認識対象物の隠れの影響によってロバスト性が悪いという問題があった。すなわち、部品等が山積みされた状態では、カメラ方向から見ると、認識対象である3次元物体の一部が他の物体によって隠された状態となる場合がある。そして、あるピクセルから最も近いエッジが隠れた状態となった場合、最も近いエッジまでの距離が誤って計算されるため、3次元物体の位置及び姿勢を正しく評価することができず、誤認識が発生する。   However, the conventional three-dimensional object recognition apparatus has a problem that the robustness is poor due to the influence of hiding the recognition object. That is, in a state in which parts and the like are stacked, when viewed from the camera direction, a part of the three-dimensional object that is a recognition target may be hidden by another object. And when the closest edge from a certain pixel is hidden, the distance to the closest edge is calculated incorrectly, so the position and orientation of the three-dimensional object cannot be correctly evaluated, resulting in erroneous recognition. appear.

また、本発明に係る3次元認識システムは、予め定めた複数の位置及び姿勢を評価して最適なものを選択するに留まるため、3次元物体の本来の位置及び姿勢と比較して誤差が生じる場合があり、認識精度が悪いという問題もある。   In addition, since the three-dimensional recognition system according to the present invention only selects an optimum one by evaluating a plurality of predetermined positions and postures, an error occurs compared to the original position and posture of the three-dimensional object. In some cases, the recognition accuracy is poor.

本発明は、このような問題に鑑みてなされたものであり、2次元画像における輪郭などの特徴から3次元物体を認識する3次元物体認識装置において、隠れの影響を排除してロバスト性を向上させるとともに、位置及び姿勢を最適化して認識精度を高める手段を提供する。   The present invention has been made in view of such problems, and in a three-dimensional object recognition apparatus that recognizes a three-dimensional object from features such as contours in a two-dimensional image, improves the robustness by eliminating the influence of hiding. And a means for optimizing the position and orientation to increase the recognition accuracy.

上記目的を達成するための本発明の請求項1に係る3次元物体認識装置は、認識対象である3次元物体を所定方向から撮影して画像を取得するカメラと、前記3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうち前記カメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段と、を備えるものである。   In order to achieve the above object, a three-dimensional object recognition apparatus according to claim 1 of the present invention includes a camera that captures an image by photographing a three-dimensional object that is a recognition target from a predetermined direction, a position of the three-dimensional object, and While changing the posture, among the sampling points constituting the edge of the three-dimensional object, the sampling points visible from the camera are respectively projected onto the camera image, and the coordinates of each projection point and the direction of the edge at each projection point are respectively projected. Projection point coordinate calculation means for calculating, a lookup table storage for storing a lookup table in which the position and orientation of the three-dimensional object, the coordinates of each projection point and the direction of the edge at each projection point are stored in association with each other Based on the original image acquired by the means and the camera, a plurality of pyramid images in which the resolution of the original image is reduced at different ratios are created A ramid image creating means; an edge extracting means for extracting the edge of the three-dimensional object for the pyramid image having the lowest resolution; and the nearest edge among the extracted edges to each pixel constituting the pyramid image having the lowest resolution A distance map creating means for creating a distance map with a direction having a distance to and a direction of the nearest edge as a pixel value, and stored in the lookup table on the distance map with the direction Further, the projection point mapping means for mapping each projection point, the direction of the edge at each projection point, and the direction of the nearest edge of the pixel corresponding to each projection point in the directional distance map are respectively compared. For a set of projection points that are approximately the same, Calculating the sum of squares of the distance to the nearest edge of the pixel group to be performed, and evaluating the position and orientation of the three-dimensional object based on the calculation result, and the three-dimensional by the position and orientation evaluation unit Position and orientation optimization means for optimizing a position and orientation evaluated to be close to the actual position and orientation of the object so that the sum of squares is minimized.

また、請求項2に係る3次元物体認識装置は、前記エッジ抽出手段が、サブピクセル精度で前記3次元物体のエッジを抽出し、前記位置姿勢評価手段が、前記最も近いエッジまでの距離として、前記ピクセル群から前記サブピクセル精度のエッジへ降ろした垂線の長さを用いるものである。   Further, in the three-dimensional object recognition apparatus according to claim 2, the edge extraction unit extracts an edge of the three-dimensional object with sub-pixel accuracy, and the position / orientation evaluation unit determines the distance to the nearest edge as The length of the perpendicular dropped from the pixel group to the edge of the sub-pixel accuracy is used.

また、請求項3に係る3次元物体認識装置は、コンピュータを、認識対象である3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうちカメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段として機能させるものである。   The three-dimensional object recognition apparatus according to claim 3 is capable of visually recognizing a computer from a sampling point constituting the edge of the three-dimensional object while changing the position and orientation of the three-dimensional object as a recognition target. Projection points on the camera image, projection point coordinate calculation means for calculating the coordinates of each projection point and the direction of the edge at each projection point, the position and orientation of the three-dimensional object, and the projection point Lookup table storage means for storing a lookup table in which coordinates and edge directions at each projection point are stored in association with each other, and based on the original image acquired by the camera, the resolution of the original image is reduced at different ratios. A pyramid image creating means for creating a plurality of pyramid images, and the pyramid image having the lowest resolution; Edge extraction means for extracting the edge of the original object, and each pixel constituting the pyramid image with the lowest resolution, the distance to the nearest edge among the extracted edges and the direction of the nearest edge as pixel values A directional distance map creating means for creating a directional distance map, a projected point mapping means for mapping each of the projected points stored in the lookup table on the directional distance map; and The direction of the edge at each projection point is compared with the direction of the closest edge of the pixel corresponding to each projection point in the directional distance map. Calculate the sum of squares of the distance to the nearest edge Position and orientation evaluation means for evaluating the position and orientation of the three-dimensional object based on the position, and the position and orientation evaluated by the position and orientation evaluation means as being close to the actual position and orientation of the three-dimensional object, It is made to function as a position / orientation optimizing means for optimizing so as to be minimized.

また、請求項4に係る3次元物体認識プログラムが記録されたコンピュータ読み取り可能な記録媒体は、請求項3に記載の3次元物体認識プログラムが記録されたものである。   A computer-readable recording medium on which the three-dimensional object recognition program according to claim 4 is recorded is the one on which the three-dimensional object recognition program according to claim 3 is recorded.

本発明の請求項1に係る3次元物体認識装置によれば、位置姿勢評価手段が、方向付けディスタンスマップとエッジの向きが略一致する投影点だけについて自乗和を算出する。従って、カメラの方向から見て3次元物体の一部が他の物体によって隠された状態であって、最も近いエッジまでの距離が誤って計算されたピクセルに関しては、エッジの向きが一致せず、自乗和を算出する対象から除外される。これにより、いわゆる隠れの影響を低減して、ロバスト性を向上させることができる。また、解像度が最も低いピラミッド画像を用いてルックアップテーブルに格納された位置及び姿勢を評価するので、処理速度を高速化することができる。また、位置姿勢最適化手段が、実際の位置及び姿勢に近いと評価された位置及び姿勢を更に最適化するので、位置及び姿勢の認識精度を向上させることができる。   According to the three-dimensional object recognition apparatus of the first aspect of the present invention, the position / orientation evaluation means calculates the sum of squares only for the projected points whose edge directions substantially coincide with the orientation distance map. Therefore, the edge direction does not match for a pixel in which a part of a three-dimensional object is hidden by another object when viewed from the camera direction and the distance to the nearest edge is erroneously calculated. And excluded from the target of calculating the sum of squares. Thereby, the so-called hiding effect can be reduced and the robustness can be improved. Further, since the position and orientation stored in the lookup table are evaluated using the pyramid image having the lowest resolution, the processing speed can be increased. In addition, since the position and orientation optimization unit further optimizes the position and orientation evaluated to be close to the actual position and orientation, the position and orientation recognition accuracy can be improved.

また、請求項2に係る3次元物体認識装置によれば、ピラミッド画像についてのエッジ抽出をサブピクセル精度で行うので、位置及び姿勢の認識精度を向上させることができる。   In addition, according to the three-dimensional object recognition apparatus according to the second aspect, the edge extraction of the pyramid image is performed with sub-pixel accuracy, so that the position and orientation recognition accuracy can be improved.

また、請求項3に係る3次元物体認識プログラムによれば、請求項1に係る3次元物体認識装置と同様の効果が得られる。   Further, according to the three-dimensional object recognition program according to the third aspect, the same effect as the three-dimensional object recognition apparatus according to the first aspect can be obtained.

また、請求項4に係る3次元物体認識プログラムが記録されたコンピュータ読み取り可能な記録媒体によれば、請求項1に係る3次元物体認識装置と同様の効果が得られる。   According to the computer-readable recording medium on which the three-dimensional object recognition program according to the fourth aspect is recorded, the same effect as that of the three-dimensional object recognition apparatus according to the first aspect can be obtained.

本発明の実施例に係る3次元物体認識装置1の構成を示す模式図。The schematic diagram which shows the structure of the three-dimensional object recognition apparatus 1 which concerns on the Example of this invention. 3次元物体認識プログラム8による処理の流れを示すフローチャート。7 is a flowchart showing a flow of processing by a three-dimensional object recognition program 8. ピラミッド画像15を説明するための説明図。Explanatory drawing for demonstrating the pyramid image 15. FIG. エッジ抽出を説明するための説明図であって、原画像16の一部をピクセルレベルまで拡大した状態を示す図。It is explanatory drawing for demonstrating edge extraction, Comprising: The figure which shows the state which expanded some original images 16 to the pixel level. ルックアップテーブルの作成方法を説明するための説明図。Explanatory drawing for demonstrating the creation method of a lookup table.

図1は、本実施例に係る3次元物体認識装置1の構成を示す模式図である。3次元物体認識装置1は、作業台2の上に置かれた認識対象としての3次元物体3と、この3次元物体3を異なる方向から撮影する2台のカメラ4と、3次元物体3を把持するためのロボットアーム5と、各カメラ4から入力された撮影画像に基づいてロボットアーム5の動作を制御するコンピュータ6とを備えるものである。   FIG. 1 is a schematic diagram illustrating a configuration of a three-dimensional object recognition apparatus 1 according to the present embodiment. The three-dimensional object recognition apparatus 1 includes a three-dimensional object 3 as a recognition target placed on a work table 2, two cameras 4 that photograph the three-dimensional object 3 from different directions, and a three-dimensional object 3. A robot arm 5 for gripping and a computer 6 for controlling the operation of the robot arm 5 based on a captured image input from each camera 4 are provided.

コンピュータ6は、図1に示すように、カメラ4が撮影した画像データ等を記憶する画像メモリ7と、3次元物体認識プログラム8を格納するハードディスク9と、該ハードディスク9から読み出された3次元物体認識プログラム8を一時記憶するRAM(Randaom Access Memory)10と、この3次元物体認識プログラム8に従って3次元物体3の位置及び姿勢を算出するCPU(Central Processing Unit)11と、画像メモリ7に記憶された画像データやCPU11による算出結果を表示するための表示部12と、マウスやキーボード等で構成される操作部13と、これら各部を互いに接続するシステムバス14とを有している。尚、本実施例では3次元物体認識プログラム8をハードディスク9に格納しているが、これに代えて、コンピュータ読み取り可能な記録媒体(不図示)に格納しておき、この記録媒体から読み出すことも可能である。   As shown in FIG. 1, the computer 6 includes an image memory 7 for storing image data taken by the camera 4, a hard disk 9 for storing a three-dimensional object recognition program 8, and a three-dimensional read from the hard disk 9. A RAM (Random Access Memory) 10 that temporarily stores the object recognition program 8, a CPU (Central Processing Unit) 11 that calculates the position and orientation of the three-dimensional object 3 according to the three-dimensional object recognition program 8, and the image memory 7 A display unit 12 for displaying the image data and the calculation result by the CPU 11, an operation unit 13 composed of a mouse, a keyboard, and the like, and a system bus 14 for connecting these units to each other. In the present embodiment, the three-dimensional object recognition program 8 is stored in the hard disk 9, but instead, it may be stored in a computer-readable recording medium (not shown) and read out from this recording medium. Is possible.

以下、3次元物体認識プログラム8による処理手順について説明する。図2は、3次元物体認識プログラム8による処理の流れを示すフローチャートである。まず、CPU11は、3次元物体3を撮影した原画像がカメラ4から入力されると、この原画像に基づいて複数枚のピラミッド画像を作成し(S1)、図1に示す画像メモリ7に記憶する。図3は、ピラミッド画像15を説明するための説明図である。ピラミッド画像15は、原画像16の解像度を所定の比率で低下させたものである。例えば、CPU11は、縦横両方向にそれぞれn個ずつのピクセルが並んだ原画像16が入力された場合、縦横両方向にそれぞれn/2個のピクセルが並んだ第1ピラミッド画像15A、縦横両方向にそれぞれn/4個のピクセルが並んだ第2ピラミッド画像15B、縦横両方向にそれぞれn/8個のピクセルが並んだ第3ピラミッド画像15Cを作成する。尚、本実施例では3段階のピラミッド画像15を作成したが、この段階数は入力画像の大きさに応じて適宜変更することができる。   Hereinafter, a processing procedure by the three-dimensional object recognition program 8 will be described. FIG. 2 is a flowchart showing the flow of processing by the three-dimensional object recognition program 8. First, when an original image obtained by photographing the three-dimensional object 3 is input from the camera 4, the CPU 11 creates a plurality of pyramid images based on the original image (S1) and stores them in the image memory 7 shown in FIG. To do. FIG. 3 is an explanatory diagram for explaining the pyramid image 15. The pyramid image 15 is obtained by reducing the resolution of the original image 16 at a predetermined ratio. For example, when an original image 16 in which n pixels are arranged in both vertical and horizontal directions is input, the CPU 11 receives a first pyramid image 15A in which n / 2 pixels are arranged in both vertical and horizontal directions, and n in both vertical and horizontal directions. A second pyramid image 15B in which / 4 pixels are arranged and a third pyramid image 15C in which n / 8 pixels are arranged in both the vertical and horizontal directions are created. In this embodiment, the three-stage pyramid image 15 is created. However, the number of stages can be appropriately changed according to the size of the input image.

次に、CPU11は、図2に示すように、解像度が最も低い第3ピラミッド画像15Cについて3次元物体3のエッジを抽出する(S2)。ここで、このエッジ抽出としては、ピクセル精度でのエッジ抽出を行う。図4は、エッジ抽出を説明するための説明図であって、原画像16の一部をピクセルレベルまで拡大した状態を示している。ピクセル精度でのエッジ抽出によれば、図において黒く塗り潰されたエッジ構成ピクセル17の集合体としてエッジが抽出される(以下、このエッジを「ピクセルエッジ18」と呼ぶ)。尚、本実施例では処理速度を優先させるべくピクセル精度でのエッジ抽出を行ったが、高い認識精度が要求される場合には、サブピクセル精度でのエッジ抽出を行ってもよい。サブピクセル精度でのエッジ抽出によれば、図4に直線で示すように、隣接ピクセル間隔D以下の精度でエッジが抽出される(以下、このエッジを「サブピクセルエッジ19」と呼ぶ)。   Next, as shown in FIG. 2, the CPU 11 extracts the edge of the three-dimensional object 3 for the third pyramid image 15C having the lowest resolution (S2). Here, as the edge extraction, edge extraction with pixel accuracy is performed. FIG. 4 is an explanatory diagram for explaining edge extraction, and shows a state in which a part of the original image 16 is enlarged to the pixel level. According to edge extraction with pixel accuracy, an edge is extracted as a collection of edge-constituting pixels 17 filled in black in the figure (hereinafter, this edge is referred to as “pixel edge 18”). In this embodiment, edge extraction is performed with pixel accuracy so as to prioritize processing speed. However, when high recognition accuracy is required, edge extraction with sub-pixel accuracy may be performed. According to edge extraction with subpixel accuracy, as shown by a straight line in FIG. 4, edges are extracted with accuracy equal to or smaller than the adjacent pixel interval D (hereinafter, this edge is referred to as “subpixel edge 19”).

次に、CPU11は、図2に示すように、方向付きディスタンスマップを作成し(S3)、図1に示すRAM8に記憶する。方向付きディスタンスマップとは、図に詳細は示さないが、エッジ抽出を行った第3ピラミッド画像15Cを構成する各ピクセルに、そのピクセルから最も近いピクセルエッジ18までの距離と、最も近いピクセルエッジ18の向きとを画素値として持たせたものである。   Next, as shown in FIG. 2, the CPU 11 creates a distance map with direction (S3) and stores it in the RAM 8 shown in FIG. Although a detailed distance map is not shown in the figure, the distance from the pixel to the nearest pixel edge 18 and the nearest pixel edge 18 to each pixel constituting the third pyramid image 15C subjected to edge extraction are shown. Are given as pixel values.

次に、CPU11は、方向付きディスタンスマップ上に、予め記憶したルックアップテーブルに格納された投影点をそれぞれマッピングする(S4)。このルックアップテーブルとは、3次元物体3の形状やカメラ4の位置等に応じ、CPU11が事前に作成してRAM10等に記憶したものである。その作成方法は、図5に示すように、3次元物体3の各エッジ20の上にサンプリング点21を設定し、各サンプリング点21がカメラ4から視認可能であるか否かを判定する。そして、カメラ4から視認可能と判断したサンプリング点21だけをカメラ画像22に投影し、投影点23の座標及び投影点23におけるエッジ24の向きを算出する。この作業を、カメラ4の位置等から考えて可能性のある全範囲に渡って、3次元物体3の位置(3自由度)及び姿勢(3自由度)を十分に細かく変化させながら、繰り返し行う。そして、3次元物体3の位置及び姿勢に対応付けて、投影点23の座標と投影点23におけるエッジ20の向きとを格納することにより、ルックアップテーブルを作成する。CPU11は、このルックアップテーブルに格納された各投影点23を、その座標に基づいて方向付きディスタンスマップ上に順次配置する。尚、方向付きディスタンスマップでは、最も近いピクセルエッジ18までの距離は画素毎にしか格納されていないため、投影点23のマッピングに際し、投影点23の座標値が小数部分を有する場合には、いわゆるバイリニア補間を用いることによって投影点23の配置位置を決定すればよい。   Next, the CPU 11 maps the projection points stored in the lookup table stored in advance on the directional distance map (S4). This look-up table is created in advance by the CPU 11 and stored in the RAM 10 or the like according to the shape of the three-dimensional object 3, the position of the camera 4, or the like. As shown in FIG. 5, the creation method sets sampling points 21 on each edge 20 of the three-dimensional object 3, and determines whether each sampling point 21 is visible from the camera 4. Then, only the sampling point 21 determined to be visible from the camera 4 is projected onto the camera image 22, and the coordinates of the projection point 23 and the direction of the edge 24 at the projection point 23 are calculated. This operation is repeated while changing the position (three degrees of freedom) and posture (three degrees of freedom) of the three-dimensional object 3 sufficiently finely over the entire range that can be considered from the position of the camera 4 and the like. . A lookup table is created by storing the coordinates of the projection point 23 and the direction of the edge 20 at the projection point 23 in association with the position and orientation of the three-dimensional object 3. The CPU 11 sequentially arranges the projection points 23 stored in the lookup table on the distance map with direction based on the coordinates. In the distance map with direction, since the distance to the nearest pixel edge 18 is stored only for each pixel, when mapping the projection point 23, the coordinate value of the projection point 23 has a decimal part. The arrangement position of the projection point 23 may be determined by using bilinear interpolation.

次に、CPU11は、マッピングされた各投影点23におけるエッジ24の向きと、方向付けディスタンスマップ上でその投影点23に対応するピクセルが画素値として持つ最も近いピクセルエッジ18の向きとを比較する。そして、両者が一致する投影点群について、CPU11は、その投影点群に対応するピクセル群が持つ最も近いピクセルエッジ18までの距離の自乗和を算出し、その算出結果に基づいて、3次元物体3の位置及び姿勢を評価する(S5)。すなわち、投影点23からなるエッジ24と、ピラミッド画像15Aにおけるピクセルエッジ18とを比較した時の誤差の大きさに基づいて、ルックアップテーブルに従って決定した位置及び姿勢が、3次元物体3の実際の位置及び姿勢からどの程度近いかを評価する。   Next, the CPU 11 compares the direction of the edge 24 at each mapped projection point 23 with the direction of the nearest pixel edge 18 that the pixel corresponding to the projection point 23 has as a pixel value on the orientation distance map. . And about the projection point group in which both correspond, CPU11 calculates the square sum of the distance to the nearest pixel edge 18 which the pixel group corresponding to the projection point group has, and based on the calculation result, three-dimensional object 3 is evaluated (S5). That is, the position and orientation determined according to the look-up table based on the magnitude of the error when comparing the edge 24 composed of the projection points 23 and the pixel edge 18 in the pyramid image 15 </ b> A is the actual position of the three-dimensional object 3. Evaluate how close it is from position and orientation.

ここで、前記自乗和の算出に際しては、最も近いエッジまでの距離として、図4に示す対象ピクセル25からピクセルエッジ18までの距離Laを用いる。このピクセルエッジ18までの距離Laとは、図で黒く塗り潰されたエッジ構成ピクセル17までの最短距離を意味している。尚、前述のようにピラミッド画像15についてのエッジ抽出をサブピクセル精度で行った場合には、最も近いエッジまでの距離として、図4に示す対象ピクセル25からサブピクセルエッジ19までの距離Lbを用いてもよい。このサブピクセルエッジ19までの距離Lbとは、対象ピクセル25からサブピクセルエッジ19へと降ろした垂線26の長さを意味している。また、要求される処理速度と認識精度の兼ね合いによっては、最も近いエッジまでの距離として距離Laと距離Lbを混在させて用いてもよい。例えば、距離Lbが隣接ピクセル間距離Dに満たない場合には距離Lbを用い、距離Lbが隣接ピクセル間距離D以上である場合には距離Laを用いるようにしてもよい。   Here, when calculating the sum of squares, the distance La from the target pixel 25 to the pixel edge 18 shown in FIG. 4 is used as the distance to the nearest edge. The distance La to the pixel edge 18 means the shortest distance to the edge constituent pixel 17 painted black in the drawing. As described above, when edge extraction for the pyramid image 15 is performed with subpixel accuracy, the distance Lb from the target pixel 25 to the subpixel edge 19 shown in FIG. 4 is used as the distance to the nearest edge. May be. The distance Lb to the subpixel edge 19 means the length of the perpendicular line 26 dropped from the target pixel 25 to the subpixel edge 19. Depending on the balance between the required processing speed and recognition accuracy, the distance La and the distance Lb may be mixed and used as the distance to the nearest edge. For example, the distance Lb may be used when the distance Lb is less than the adjacent pixel distance D, and the distance La may be used when the distance Lb is equal to or greater than the adjacent pixel distance D.

そして、評価の結果、ルックアップテーブルに従って決定した位置及び姿勢が、3次元物体3の実際の位置及び姿勢に近いと判断した場合、CPU11は、前記自乗和が最小となるように、当該位置及び姿勢を最適化する(S6)。ここで、この最適化には、従来公知のレーベンバーグ・マーカート法を用いる。このように、方向付けディスタンスマップとエッジの向きが略一致する投影点23だけについて前記自乗和を算出するので、カメラ4の方向から見て3次元物体3の一部が他の物体によって隠された状態であって、最も近いエッジまでの距離が誤って計算されたピクセルに関しては、エッジの向きが一致せず、前記自乗和を算出する対象から除外される。これにより、いわゆる隠れの影響を低減して、ロバスト性を向上させることができる。また、自乗和が最小となるように位置及び姿勢を最適化することにより、位置及び姿勢の認識精度を向上させることができる。尚、位置及び姿勢の最適化の手法としては、レーベンバーグ・マーカート法に限られず、従来公知の他の非線形最適化手法を用いてもよい。   If the CPU 11 determines that the position and orientation determined according to the lookup table are close to the actual position and orientation of the three-dimensional object 3 as a result of the evaluation, the CPU 11 determines that the position and orientation so that the sum of squares is minimized. The posture is optimized (S6). Here, for this optimization, a conventionally known Levenberg-Markert method is used. In this way, the sum of squares is calculated only for the projection points 23 whose edge directions substantially coincide with the orientation distance map, so that a part of the three-dimensional object 3 is hidden by other objects when viewed from the direction of the camera 4. The pixels in which the distance to the nearest edge is erroneously calculated are excluded from the targets for calculating the sum of squares because the directions of the edges do not match. Thereby, the so-called hiding effect can be reduced and the robustness can be improved. Further, the position and orientation recognition accuracy can be improved by optimizing the position and orientation so that the sum of squares is minimized. Note that the position and orientation optimization method is not limited to the Levenberg-Markert method, and any other conventionally known nonlinear optimization method may be used.

その後、CPU11は、S6で最適化した位置及び精度が必要な精度を満たしているか否かを判定し(S7)、必要な精度を満たしていると判断した場合は(S7:Yes)、第1ピラミッド画像15Aについて得られた位置及び姿勢を最終結果として出力し(S8)、処理を終了する。一方、S7での判定の結果、必要な精度を満たしていないと判断した場合は(S7:No)、未処理のピラミッド画像15があるか否かを判定し(S9)、未処理のピラミッド画像15はないと判断した場合は(S9:No)、第1ピラミッド画像15Aの結果を最終結果として出力し(S8)、処理を終了する。一方、未処理のピラミッド画像15があると判断した場合は(S9:Yes)、S2へ戻って残りのピラミッド画像15例えば第2ピラミッド画像15Bについて同様の処理を行う。そして、未処理のピラミッド画像15が無くなるまでこれを繰り返す。このように、必要な精度に達するまで、より解像度の高いピラミッド画像15について処理を行うことにより、3次元物体3の位置及び姿勢をより高い精度で認識することができる。もちろん、高速な処理速度が要求される場合には、所定段階のピラミッド画像15で処理が終了するよう予め定めておいてもよいし、また所定段階のピラミッド画像15だけについて処理を行うように予め定めておいてもよい。   Thereafter, the CPU 11 determines whether or not the position and accuracy optimized in S6 satisfy the required accuracy (S7), and when determining that the required accuracy is satisfied (S7: Yes), the first The position and orientation obtained for the pyramid image 15A are output as final results (S8), and the process is terminated. On the other hand, as a result of the determination in S7, if it is determined that the required accuracy is not satisfied (S7: No), it is determined whether there is an unprocessed pyramid image 15 (S9), and an unprocessed pyramid image. If it is determined that there is no 15 (S9: No), the result of the first pyramid image 15A is output as the final result (S8), and the process is terminated. On the other hand, if it is determined that there is an unprocessed pyramid image 15 (S9: Yes), the process returns to S2 and the same processing is performed on the remaining pyramid image 15, for example, the second pyramid image 15B. This is repeated until there is no unprocessed pyramid image 15. In this way, by performing processing on the pyramid image 15 having a higher resolution until the required accuracy is reached, the position and orientation of the three-dimensional object 3 can be recognized with higher accuracy. Of course, when a high processing speed is required, it may be determined in advance that the processing is completed at the pyramid image 15 at a predetermined stage, or the processing is performed only for the pyramid image 15 at the predetermined stage. It may be determined.

本発明に係る3次元物体認識装置は、ロボットアーム以外の他の機器の動作制御に用いることも可能である。   The three-dimensional object recognition apparatus according to the present invention can also be used for operation control of devices other than the robot arm.

1 3次元物体認識装置
3 3次元物体
4 カメラ
8 3次元物体認識プログラム
15 ピラミッド画像
15C 第3ピラミッド画像
16 原画像
18 ピクセルエッジ
19 サブピクセルエッジ
21 サンプリング点
22 カメラ画像
23 投影点
DESCRIPTION OF SYMBOLS 1 3D object recognition apparatus 3 3D object 4 Camera 8 3D object recognition program 15 Pyramid image 15C 3rd pyramid image 16 Original image 18 Pixel edge 19 Subpixel edge 21 Sampling point 22 Camera image 23 Projection point

Claims (4)

認識対象である3次元物体を所定方向から撮影して画像を取得するカメラと、
前記3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうち前記カメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、
前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、
前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、
解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、
解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、
前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、
前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、
該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段と、
を備えることを特徴とする3次元物体認識装置。
A camera that captures an image by photographing a three-dimensional object to be recognized from a predetermined direction;
While changing the position and orientation of the three-dimensional object, the sampling points that are visible from the camera among the sampling points constituting the edge of the three-dimensional object are respectively projected onto the camera image, and the coordinates of each projection point and each projection Projection point coordinate calculating means for calculating the direction of the edge at each point;
Look-up table storage means for storing a look-up table in which the position and orientation of the three-dimensional object are associated with the coordinates of the projection points and the direction of the edge at each projection point;
Pyramid image creation means for creating a plurality of pyramid images in which the resolution of the original image is reduced at different ratios based on the original image acquired by the camera;
Edge extraction means for extracting an edge of the three-dimensional object for the pyramid image having the lowest resolution;
Direction to create a directional distance map in which each pixel constituting the pyramid image with the lowest resolution has the distance to the nearest edge among the extracted edges and the direction of the nearest edge as pixel values With distance map creation means,
Projection point mapping means for mapping each of the projection points stored in the look-up table on the directional distance map;
The direction of the edge at each projection point is compared with the direction of the nearest edge of the pixel corresponding to the projection point in the directional distance map, and the pixel group corresponding to the projection point group in which both are substantially the same Position and orientation evaluation means for calculating the sum of squares of the distance to the nearest edge of the image and evaluating the position and orientation of the three-dimensional object based on the calculation result;
Position and orientation optimization means for optimizing the position and orientation evaluated by the position and orientation evaluation means as being close to the actual position and orientation of the three-dimensional object so that the sum of squares is minimized;
A three-dimensional object recognition apparatus comprising:
前記エッジ抽出手段が、サブピクセル精度で前記3次元物体のエッジを抽出し、
前記位置姿勢評価手段が、前記最も近いエッジまでの距離として、前記ピクセル群から前記サブピクセル精度のエッジへ降ろした垂線の長さを用いることを特徴とする請求項1に記載の3次元物体認識装置。
The edge extraction means extracts the edge of the three-dimensional object with sub-pixel accuracy;
2. The three-dimensional object recognition according to claim 1, wherein the position and orientation evaluation unit uses a length of a perpendicular line dropped from the pixel group to the sub-pixel precision edge as a distance to the nearest edge. apparatus.
コンピュータを、
認識対象である3次元物体の位置及び姿勢を変化させながら、前記3次元物体のエッジを構成するサンプリング点のうちカメラから視認可能なサンプリング点をカメラ画像にそれぞれ投影し、各投影点の座標及び各投影点におけるエッジの向きをそれぞれ算出する投影点座標算出手段と、
前記3次元物体の位置及び姿勢と、前記各投影点の座標及び各投影点におけるエッジの向きとを対応付けて格納したルックアップテーブルを記憶するルックアップテーブル記憶手段と、
前記カメラが取得した原画像に基づいて、該原画像の解像度を異なる比率で低下させた複数枚のピラミッド画像を作成するピラミッド画像作成手段と、
解像度が最も低い前記ピラミッド画像について前記3次元物体のエッジを抽出するエッジ抽出手段と、
解像度が最も低い前記ピラミッド画像を構成する各ピクセルに、抽出したエッジのうち最も近いエッジまでの距離と、前記最も近いエッジの向きとを画素値として持たせてなる方向付きディスタンスマップを作成する方向付きディスタンスマップ作成手段と、
前記方向付きディスタンスマップ上に、前記ルックアップテーブルに格納された前記各投影点をそれぞれマッピングする投影点マッピング手段と、
前記各投影点におけるエッジの向きと、前記方向付きディスタンスマップにおいて前記各投影点に対応するピクセルが持つ最も近いエッジの向きとをそれぞれ比較し、両者が略一致する投影点群について対応するピクセル群が持つ最も近いエッジまでの距離の自乗和を算出し、その算出結果に基づいて前記3次元物体の位置及び姿勢を評価する位置姿勢評価手段と、
該位置姿勢評価手段によって前記3次元物体の実際の位置及び姿勢に近いと評価された位置及び姿勢を、前記自乗和が最小となるように最適化する位置姿勢最適化手段
として機能させるための3次元物体認識プログラム。
Computer
While changing the position and orientation of the three-dimensional object that is the recognition target, among the sampling points that constitute the edge of the three-dimensional object, the sampling points that are visible from the camera are respectively projected onto the camera image, and the coordinates of each projection point and Projection point coordinate calculating means for calculating the direction of the edge at each projection point;
Look-up table storage means for storing a look-up table in which the position and orientation of the three-dimensional object are associated with the coordinates of the projection points and the direction of the edge at each projection point;
Pyramid image creation means for creating a plurality of pyramid images in which the resolution of the original image is reduced at different ratios based on the original image acquired by the camera;
Edge extraction means for extracting an edge of the three-dimensional object for the pyramid image having the lowest resolution;
Direction to create a directional distance map in which each pixel constituting the pyramid image with the lowest resolution has the distance to the nearest edge among the extracted edges and the direction of the nearest edge as pixel values With distance map creation means,
Projection point mapping means for mapping each of the projection points stored in the look-up table on the directional distance map;
The direction of the edge at each projection point is compared with the direction of the nearest edge of the pixel corresponding to the projection point in the directional distance map, and the pixel group corresponding to the projection point group in which both are substantially the same Position and orientation evaluation means for calculating the sum of squares of the distance to the nearest edge of the image and evaluating the position and orientation of the three-dimensional object based on the calculation result;
3 for causing the position and orientation evaluated by the position and orientation evaluation means to be close to the actual position and orientation of the three-dimensional object to function as position and orientation optimization means for optimizing the sum of squares to be minimized. Dimensional object recognition program.
請求項3に記載の3次元物体認識プログラムが記録されたコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the three-dimensional object recognition program according to claim 3 is recorded.
JP2009051500A 2009-03-05 2009-03-05 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded Active JP4649559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009051500A JP4649559B2 (en) 2009-03-05 2009-03-05 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009051500A JP4649559B2 (en) 2009-03-05 2009-03-05 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded

Publications (2)

Publication Number Publication Date
JP2010205095A JP2010205095A (en) 2010-09-16
JP4649559B2 true JP4649559B2 (en) 2011-03-09

Family

ID=42966487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009051500A Active JP4649559B2 (en) 2009-03-05 2009-03-05 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded

Country Status (1)

Country Link
JP (1) JP4649559B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189053B2 (en) 2018-06-04 2021-11-30 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4677536B1 (en) * 2009-11-20 2011-04-27 株式会社三次元メディア 3D object recognition apparatus and 3D object recognition method
JP2013101045A (en) * 2011-11-08 2013-05-23 Fanuc Ltd Recognition device and recognition method of three-dimensional position posture of article
JP5899951B2 (en) * 2012-01-18 2016-04-06 セイコーエプソン株式会社 Robot apparatus and position and orientation detection method
JP6198104B2 (en) * 2013-03-15 2017-09-20 株式会社三次元メディア 3D object recognition apparatus and 3D object recognition method
US11006039B1 (en) 2020-02-13 2021-05-11 Mujin, Inc. Method and system for determining occlusion within a camera field of view
CN111723688B (en) * 2020-06-02 2024-03-12 合肥的卢深视科技有限公司 Human body action recognition result evaluation method and device and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093611A (en) * 2007-10-11 2009-04-30 Mwtec Software Gmbh System and method for recognizing three-dimensional object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093611A (en) * 2007-10-11 2009-04-30 Mwtec Software Gmbh System and method for recognizing three-dimensional object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189053B2 (en) 2018-06-04 2021-11-30 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP2010205095A (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
CN112348815B (en) Image processing method, image processing apparatus, and non-transitory storage medium
CN110568447B (en) Visual positioning method, device and computer readable medium
JP4649559B2 (en) 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded
JP6011102B2 (en) Object posture estimation method
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
JP4785880B2 (en) System and method for 3D object recognition
US20180189556A1 (en) Hand gesture recognition for virtual reality and augmented reality devices
CN108629843B (en) Method and equipment for realizing augmented reality
JP6299234B2 (en) Display control method, information processing apparatus, and display control program
WO2017119940A1 (en) Hand gesture recognition for cursor control
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
JP6256475B2 (en) Image processing apparatus, image processing method, and image processing program
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
CN111401266B (en) Method, equipment, computer equipment and readable storage medium for positioning picture corner points
JP5468824B2 (en) Method and apparatus for determining shape match in three dimensions
EP3825804A1 (en) Map construction method, apparatus, storage medium and electronic device
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
US8472756B2 (en) Method for producing high resolution image
JP6016242B2 (en) Viewpoint estimation apparatus and classifier learning method thereof
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
JP2001101419A (en) Method and device for image feature tracking processing and three-dimensional data preparing method
JP6851089B2 (en) Adaptive 3D space generation method and its system
CN116912195A (en) Rotation target detection method, system, electronic device and storage medium
JP2009146150A (en) Method and device for detecting feature position

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101007

R150 Certificate of patent or registration of utility model

Ref document number: 4649559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250