JP2021105862A - Three-dimensional data generation device for interpolating three-dimensional data and robot system - Google Patents

Three-dimensional data generation device for interpolating three-dimensional data and robot system Download PDF

Info

Publication number
JP2021105862A
JP2021105862A JP2019237077A JP2019237077A JP2021105862A JP 2021105862 A JP2021105862 A JP 2021105862A JP 2019237077 A JP2019237077 A JP 2019237077A JP 2019237077 A JP2019237077 A JP 2019237077A JP 2021105862 A JP2021105862 A JP 2021105862A
Authority
JP
Japan
Prior art keywords
dimensional data
region
similar
area
generation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019237077A
Other languages
Japanese (ja)
Other versions
JP7405607B2 (en
Inventor
澤源 孫
Zeyuan Sun
澤源 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019237077A priority Critical patent/JP7405607B2/en
Publication of JP2021105862A publication Critical patent/JP2021105862A/en
Application granted granted Critical
Publication of JP7405607B2 publication Critical patent/JP7405607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To interpolate a deficient area of three-dimensional data with high accuracy with few man-hours.SOLUTION: A three-dimensional data generation device 10 includes: an object area identification unit 12 for identifying object areas of three-dimensional data and two-dimensional data acquired from a sensor 11; a deficient area identification unit 13 for identifying a deficient area 41 within an object area 40 of the three-dimensional data; a similar area identification unit 14 for identifying one or more similar areas 42 within the object area 40 of the two-dimensional data; a similar area identification unit 15 for identifying a similar corresponding area 43 of the three-dimensional data corresponding to the similar area 42 of the two-dimensional data; and a three-dimensional data interpolation unit 16 for interpolating the three-dimensional data of the deficient area 41 on the basis of the similar corresponding area 43 of the three-dimensional data.SELECTED DRAWING: Figure 1

Description

本発明は、三次元データ生成装置及びロボットシステムに関し、特に三次元データを補間する三次元データ生成装置及びロボットシステムに関する。 The present invention relates to a three-dimensional data generator and a robot system, and more particularly to a three-dimensional data generator and a robot system that interpolate three-dimensional data.

対象空間の三次元データを生成する方法として、ステレオ法、TOF(time of flight)法といった種々の手法が知られている。ステレオ法では、複数台のカメラで取得した画像間でマッチング処理を行い画像間の視差に基づき三次元データを生成するパッシブステレオ法や、スリット光又はパターン光を被写体に投光してスリット光又はパターン光に基づき三次元データを生成するアクティブステレオ法等がある。またTOF法では、参照光を被写体に照射して参照光が戻ってくるまでの時間を直接計測して被写体の三次元データを生成する直接法や、参照光と対象空間からの反射光との間の位相差を検出して被写体の三次元データを生成する間接法等がある。しかしながら、対象空間に強反射領域や暗色領域を含む場合、ステレオ法では、物体の形状や模様、スリット光やパターン光といった特徴を取得できず、また、TOF法では、いわゆるサチュレーション、ハレーション、露光不足等が発生して、三次元データの欠損領域を生じることがある。斯かる三次元データの欠損領域を補間する技術としては、後述の文献が公知である。 Various methods such as a stereo method and a TOF (time of flight) method are known as methods for generating three-dimensional data in the target space. The stereo method is a passive stereo method in which matching processing is performed between images acquired by a plurality of cameras and three-dimensional data is generated based on the parallax between the images, or slit light or pattern light is projected onto the subject to perform slit light or There is an active stereo method that generates three-dimensional data based on pattern light. In the TOF method, the direct method of irradiating the subject with the reference light and directly measuring the time until the reference light returns to generate three-dimensional data of the subject, or the reference light and the reflected light from the target space are used. There is an indirect method that detects the phase difference between the two and generates three-dimensional data of the subject. However, when the target space includes a strong reflection area or a dark color area, the stereo method cannot acquire features such as the shape and pattern of an object, slit light, and pattern light, and the TOF method requires so-called saturation, halation, and underexposure. Etc. may occur, resulting in a missing area of three-dimensional data. As a technique for interpolating the missing region of such three-dimensional data, the documents described later are known.

特許文献1には、距離画像中の距離計測が行われなかった画素の距離データを、画素の近傍に位置する距離計測が行われた画素の距離データを参照して補間する方法であって、距離画像の撮像対象についてカラー画像も取得しておき、補間の対象となる着目画素に対応するカラー画像の画素の色と、参照画素に対応するカラー画像の画素の色とを用いて重み付け係数を算出し、算出された重み付け係数を参照画素の距離データに作用させて距離データを補間する方法が開示されている。 Patent Document 1 is a method of interpolating the distance data of a pixel whose distance measurement has not been performed in a distance image with reference to the distance data of a pixel whose distance measurement has been performed located in the vicinity of the pixel. A color image is also acquired for the image capture target of the distance image, and the weighting coefficient is calculated using the pixel color of the color image corresponding to the pixel of interest to be interpolated and the pixel color of the color image corresponding to the reference pixel. A method of calculating and interpolating the distance data by applying the calculated weighting coefficient to the distance data of the reference pixel is disclosed.

特許文献2には、ステレオ計測処理によってモデル計測点の三次元位置データを計測することで物体上のモデル構成点を生成し、そのモデル構成点の集合として三次元形状データを生成した後、データ欠損点についてその左右方向にモデル構成点があるかどうかを検査し、左右方向の双方にモデル構成点が存在する場合は、データ欠損点を補間対象点とし、補間対象点の高さデータを、先に検出した左右のモデル構成点の高さデータの平均によって求め、この高さデータとモデル計測点の位置から補間対象点の三次元位置を計算してモデル構成点を設定することで、データ欠損部のない三次元形状データを生成し、三次元形状モデルを構成することが開示されている。 In Patent Document 2, model constituent points on an object are generated by measuring three-dimensional position data of model measurement points by stereo measurement processing, and three-dimensional shape data is generated as a set of the model constituent points, and then the data. It is inspected whether there are model constituent points in the left-right direction of the missing points, and if there are model constituent points in both the left-right directions, the data missing points are set as the interpolation target points, and the height data of the interpolation target points is used. Data is obtained by averaging the height data of the left and right model constituent points detected earlier, and by calculating the three-dimensional position of the interpolation target point from this height data and the position of the model measurement point and setting the model constituent points. It is disclosed that three-dimensional shape data without a defect is generated to construct a three-dimensional shape model.

特許文献3には、複数台のカメラを同時に用いて多方向から得られる三次元形状データを実時間で合成することにより、カメラの死角によって生じたデータ欠損部分を相互に補間し、被計測物の全体的な三次元形状データを得る、三次元形状計測装置が開示されている。 In Patent Document 3, three-dimensional shape data obtained from multiple directions are synthesized in real time by using a plurality of cameras at the same time, and data loss portions caused by blind spots of the cameras are interpolated with each other to obtain an object to be measured. A three-dimensional shape measuring device for obtaining the overall three-dimensional shape data of the above is disclosed.

特許文献4には、コンピュータグラフィックスにおける三次元形状の物体について二次元平面に展開したデータとして画素を割り当て、そのデータにおいて画素が割り当てられていない欠損画素であるか否かを判断し、欠損画素の周辺に存在する複数の周辺画素の各々を含む各平面又は各接平面に対する法線方向の基準線に対する角度と、欠損画素を含む平面又は接平面に対する法線方向の基準線に対する角度との角度差に基づき、複数の周辺画像のうちの少なくとも2つの周辺画素を選択し、選択された少なくとも2つの周辺画素に基づき、欠損画素のデータ補間を行うことが開示されている。 In Patent Document 4, pixels are assigned as data developed on a two-dimensional plane for a three-dimensional object in computer graphics, and it is determined whether or not the data is a missing pixel to which a pixel is not assigned, and the missing pixel is determined. The angle between the reference line in the normal direction with respect to each plane or each tangent plane including each of the plurality of peripheral pixels existing around the pixel and the angle with respect to the reference line in the normal direction with respect to the plane including the missing pixels or the tangent plane. It is disclosed that at least two peripheral pixels of a plurality of peripheral images are selected based on the difference, and data interpolation of missing pixels is performed based on the selected at least two peripheral pixels.

特開2000−230809号公報Japanese Unexamined Patent Publication No. 2000-230809 特開2001−227926号公報Japanese Unexamined Patent Publication No. 2001-227926 特開2001−324313号公報Japanese Unexamined Patent Publication No. 2001-324313 特開2016−119041号公報Japanese Unexamined Patent Publication No. 2016-119041

三次元データの欠損領域に対する他の解決策として、露光時間、絞り、撮像モード等を調整する方法や、照明の強度又は対象物の姿勢を調整する方法も考えられる。しかしながら、最適化のために試行錯誤を必要とするため、多大な工数が掛かる。また、人間が物体と背景の範囲を教示して背景を除去し、二次元画像から物体の三次元構造を推定する方法もあるが、教師あり学習を用いない場合には、物体と背景の判断や凸面か凹面かの判断が難しく、人間による教示が必要となる。一方で、教師あり学習を用いる場合には、高精度の学習モデルを生成するために大量の訓練データが必要となり、推論の際にも大量の計算リソースが求められる。 As another solution to the missing region of the three-dimensional data, a method of adjusting the exposure time, the aperture, the imaging mode, etc., and a method of adjusting the intensity of illumination or the posture of the object can be considered. However, since trial and error is required for optimization, a large amount of man-hours are required. There is also a method in which a human teaches the range of an object and the background to remove the background and estimates the three-dimensional structure of the object from a two-dimensional image, but when supervised learning is not used, the object and the background are judged. It is difficult to judge whether it is convex or concave, and human teaching is required. On the other hand, when supervised learning is used, a large amount of training data is required to generate a highly accurate learning model, and a large amount of computational resources are also required for inference.

そこで、三次元データの欠損領域を少ない工数で精度良く補間する技術が求められている。 Therefore, there is a demand for a technique for accurately interpolating a missing region of three-dimensional data with a small number of man-hours.

本開示の一態様は、対象物を含む対象空間の三次元データ及び二次元データをセンサから取得する三次元データ生成装置であって、取得した三次元データ及び二次元データの対象物領域を特定する対象物領域特定部と、三次元データの対象物領域内の欠損領域を特定する欠損領域特定部と、二次元データの対象物領域内で1つ又は複数の類似領域を特定する類似領域特定部と、二次元データの類似領域に対応する三次元データの類似対応領域を特定する類似対応領域特定部と、三次元データの類似対応領域に基づいて欠損領域の三次元データを補間する三次元データ補間部と、を備える、三次元データ生成装置を提供する。
本開示の別の態様は、前述の三次元データ生成装置を備えたロボットシステムであって、三次元データ生成装置で補間した三次元データに基づいてロボットの動作指令を補正するロボット制御装置を備える、ロボットシステムを提供する。
One aspect of the present disclosure is a three-dimensional data generator that acquires three-dimensional data and two-dimensional data of an object space including an object from a sensor, and specifies an object area of the acquired three-dimensional data and two-dimensional data. Target area identification part to specify, defect area identification part to specify the missing area in the object area of the three-dimensional data, and similar area identification to specify one or more similar areas in the object area of the two-dimensional data. 3D that interpolates the 3D data of the missing area based on the part, the similarity correspondence area identification part that specifies the similarity correspondence area of the 3D data corresponding to the similarity area of the 2D data, and the similarity correspondence area of the 3D data. Provided is a three-dimensional data generation device including a data interpolation unit.
Another aspect of the present disclosure is a robot system including the above-mentioned three-dimensional data generation device, which includes a robot control device that corrects a robot operation command based on the three-dimensional data interpolated by the three-dimensional data generation device. , Provides robot systems.

本開示の一態様によれば、二次元データの対象物領域を考慮して三次元データの対象物領域内の欠損領域を補間するため、従来と比べて少ない工数で精度良く三次元データを補間できる。 According to one aspect of the present disclosure, since the missing area in the object area of the three-dimensional data is interpolated in consideration of the object area of the two-dimensional data, the three-dimensional data is interpolated accurately with less man-hours as compared with the conventional case. can.

一実施形態における三次元データ生成装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the 3D data generation apparatus in one Embodiment. センサで検出した三次元データ及び二次元データの一例を示す図である。It is a figure which shows an example of 3D data and 2D data detected by a sensor. 対象物領域を特定した三次元データ及び二次元データの一例を示す図である。It is a figure which shows an example of 3D data and 2D data which specified the object area. 欠損領域を特定した三次元データの一例を示す図である。It is a figure which shows an example of three-dimensional data which specified the missing area. 類似領域を特定した二次元データの一例を示す図である。It is a figure which shows an example of the 2D data which specified the similar region. 類似対応領域を特定した三次元データの一例を示す図である。It is a figure which shows an example of 3D data which specified the similarity correspondence area. 三次元データ生成装置を備えたロボットシステムの動作を示すフローチャートである。It is a flowchart which shows the operation of the robot system equipped with the 3D data generation apparatus. 三次元データ生成装置をロボット制御装置に組込んだロボットシステムの一例を示すブロック図である。It is a block diagram which shows an example of the robot system which incorporated the 3D data generation apparatus into a robot control apparatus.

以下、添付図面を参照して本開示の実施形態を詳細に説明する。各図面において、同一又は類似の構成要素には同一又は類似の符号が付与されている。また、以下に記載する実施形態は、特許請求の範囲に記載される発明の技術的範囲及び用語の意義を限定するものではない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In each drawing, the same or similar components are given the same or similar reference numerals. In addition, the embodiments described below do not limit the technical scope of the invention and the meaning of the terms described in the claims.

図1は、本実施形態における三次元データ生成装置10の概略構成を示している。三次元データ生成装置10は、CPU(central processing unit)等のプロセッサを備えたコンピュータ装置(例えばPC(personal computer))でよいが、FPGA(field-programmable gate array)、ASIC(application specific integrated circuit)等の他のプロセッサを備えたコンピュータ装置でもよい。三次元データ生成装置10は、対象物を含む対象空間の三次元データ及び二次元データをセンサ11から取得し、二次元データの対象物領域を考慮して三次元データの対象物領域内の欠損領域を補間する。対象物は、ロボットの作業対象となるワークでよい。三次元データ生成装置10は、対象物領域特定部12と、欠損領域特定部13と、類似領域特定部14と、類似対応領域特定部15と、三次元データ補間部16と、を備えている。 FIG. 1 shows a schematic configuration of the three-dimensional data generation device 10 in the present embodiment. The three-dimensional data generation device 10 may be a computer device (for example, a personal computer) provided with a processor such as a CPU (central processing unit), but an FPGA (field-programmable gate array) or an ASIC (application specific integrated circuit). It may be a personal computer device provided with other processors such as. The three-dimensional data generation device 10 acquires three-dimensional data and two-dimensional data of the object space including the object from the sensor 11, and considers the object area of the two-dimensional data and deletes the three-dimensional data in the object area. Interpolate the area. The object may be a work to be worked on by the robot. The three-dimensional data generation device 10 includes an object area identification unit 12, a missing area identification unit 13, a similar area identification unit 14, a similarity correspondence area identification unit 15, and a three-dimensional data interpolation unit 16. ..

図2は、センサ11で検出した三次元データ及び二次元データの一例を示している。センサ11は、例えばステレオカメラ、TOFセンサ等のセンサでよい。センサ11は、三次元データ及び二次元データの双方を検出するが、三次元データのみを検出する三次元センサでもよい。この場合、センサ11とは別にカメラ等の二次元センサを設け、二次元センサから二次元データを検出してもよい。但し、後続の処理を容易にするため、検出された三次元データと検出された二次元データとの間で対象空間の画角が一致するようにするとよい。三次元データは、例えば三次元位置(例えばXYZ座標)を表す点群データでよいが、センサ11からの距離(又は深度)を表す距離画像(深度画像)でもよい。点群データの場合、後続の処理を容易にするため、距離画像に変換するとよい。また、二次元データは、例えば白から黒までの光強度を表すグレースケール画像でよいが、光の三原色(RGB)の光強度を表すカラー画像でもよい。 FIG. 2 shows an example of three-dimensional data and two-dimensional data detected by the sensor 11. The sensor 11 may be, for example, a sensor such as a stereo camera or a TOF sensor. The sensor 11 detects both three-dimensional data and two-dimensional data, but may be a three-dimensional sensor that detects only three-dimensional data. In this case, a two-dimensional sensor such as a camera may be provided separately from the sensor 11, and the two-dimensional data may be detected from the two-dimensional sensor. However, in order to facilitate the subsequent processing, it is preferable that the angles of view of the target space match between the detected three-dimensional data and the detected two-dimensional data. The three-dimensional data may be, for example, point cloud data representing a three-dimensional position (for example, XYZ coordinates), or may be a distance image (depth image) representing a distance (or depth) from the sensor 11. In the case of point cloud data, it is preferable to convert it into a distance image in order to facilitate subsequent processing. Further, the two-dimensional data may be, for example, a grayscale image showing the light intensity from white to black, but may also be a color image showing the light intensity of the three primary colors (RGB) of light.

図3は、対象物領域40を特定した三次元データ及び二次元データの一例を示している。対象物領域特定部12は、センサ11から取得した三次元データ及び二次元データの対象物領域40を特定する。例えば、ユーザの教示に応じて対象物領域40と対象物領域40以外の背景領域を特定してもよいが、マッチング処理、ブロブ解析、及びこれらを組み合わせた処理等を行うことによって対象物領域40を自動的に特定するとよい。 FIG. 3 shows an example of three-dimensional data and two-dimensional data in which the object region 40 is specified. The object area specifying unit 12 identifies the object area 40 of the three-dimensional data and the two-dimensional data acquired from the sensor 11. For example, the object area 40 and the background area other than the object area 40 may be specified according to the instruction of the user, but the object area 40 may be performed by performing matching processing, blob analysis, and processing combining these. Should be specified automatically.

マッチング処理では、例えば対象物のデータ(二次元でも三次元でもよい。)を予め用意しておき、予め用意した対象物のデータの位置姿勢を変化させながら、取得した三次元データ及び取得した二次元データの少なくとも一方との間でマッチング処理を行うことによって対象物領域40を特定するとよい。三次元データの欠損領域が多い場合、予め用意した対象物のデータと取得したデータとの間の類似度が低くなるため、二次元データのみでマッチング処理を行って対象物領域40を特定し、特定した対象物領域40に対応する三次元データの対象物対応領域を特定してもよい。類似度を算出する評価関数としては、例えばSAD(sum of absolute difference)、SDD(sum of squared difference)、NCC(normalized cross-correlation)、ZNCC(zero-means normalized cross-correlation)等を利用できる。 In the matching process, for example, the data of the object (which may be two-dimensional or three-dimensional) is prepared in advance, and the acquired three-dimensional data and the acquired two are changed while changing the position and orientation of the data of the object prepared in advance. The object region 40 may be specified by performing a matching process with at least one of the dimensional data. When there are many missing areas in the three-dimensional data, the similarity between the data of the object prepared in advance and the acquired data becomes low. Therefore, the matching process is performed only with the two-dimensional data to identify the object area 40. The object corresponding area of the three-dimensional data corresponding to the specified object area 40 may be specified. As the evaluation function for calculating the similarity, for example, SAD (sum of absolute difference), SDD (sum of squared difference), NCC (normalized cross-correlation), ZNCC (zero-means normalized cross-correlation) and the like can be used.

ブロブ解析では、例えば取得した二次元データについて種々の画像処理フィルタを適用し、エッジ検出、モルフォロジー処理等を行うことによって対象物領域40を特定するとよい。誤って背景領域のエッジが検出されることがあるため、背景領域に特徴が少ない場合にブロブ解析は有効である。以上のように対象物領域40を特定した後は、対象物領域40のみを対象として後続の処理を行うとよい。これにより、誤って背景領域の三次元データに基づき欠損領域を補間するといった二次的エラーを回避できることになる。 In the blob analysis, for example, the object region 40 may be specified by applying various image processing filters to the acquired two-dimensional data and performing edge detection, morphology processing, and the like. Blob analysis is useful when the background area has few features, as edges in the background area may be detected erroneously. After the object area 40 is specified as described above, it is preferable to perform the subsequent processing only on the object area 40. This makes it possible to avoid secondary errors such as accidentally interpolating the missing area based on the three-dimensional data of the background area.

図4は、欠損領域41を特定した三次元データの一例を示している。欠損領域特定部13は、三次元データの対象物領域40内で欠損領域41を特定する。例えば、対象物領域40以外の背景領域(欠損領域を含む。)のデータを除去してもよいし、又は別のデータで置換してもよい。 FIG. 4 shows an example of three-dimensional data in which the missing region 41 is specified. The defective region identification unit 13 identifies the defective region 41 within the object region 40 of the three-dimensional data. For example, the data in the background region (including the defective region) other than the object region 40 may be removed, or may be replaced with other data.

図5は、類似領域42を特定した二次元データの一例を示している。類似領域特定部14は、二次元データの対象物領域40内で1つ又は複数の類似領域42を特定する。類似領域42とは、センサ11からの距離(又は深度)が同一又は類似している領域として定義される。例えば、取得した二次元データの光強度に基づいて類似領域42を特定してもよいし、又は取得した二次元データがカラー画像の場合、RGBの各光強度に基づいて類似領域42を特定してもよい。但し、色が同一又は類似でもセンサ11からの距離(又は深度)が異なる場合があるため、取得した二次元データ(光強度)に加えて、取得した三次元データ(距離)を加味して類似領域42を特定するとよい。これにより、誤って特定された類似領域42の三次元データに基づいて欠損領域を補間するといった二次的エラーを回避できることになる。 FIG. 5 shows an example of two-dimensional data in which the similar region 42 is specified. The similar area identification unit 14 identifies one or more similar areas 42 in the object area 40 of the two-dimensional data. The similar region 42 is defined as a region in which the distance (or depth) from the sensor 11 is the same or similar. For example, the similar region 42 may be specified based on the light intensity of the acquired two-dimensional data, or when the acquired two-dimensional data is a color image, the similar region 42 may be specified based on each light intensity of RGB. You may. However, even if the colors are the same or similar, the distance (or depth) from the sensor 11 may be different. Therefore, in addition to the acquired two-dimensional data (light intensity), the acquired three-dimensional data (distance) is added and similar. The region 42 may be specified. As a result, it is possible to avoid a secondary error such as interpolating the missing area based on the three-dimensional data of the similar area 42 specified by mistake.

類似領域42を特定する方法としては、例えばクラスタリング、マッチング処理、ブロブ解析、及びこれらの組み合わせ等を使用できる。即ち、対象物領域40をクラスタリングして得られたクラスタ領域を類似領域42として特定してもよいし、又は対象物領域40をマッチング処理して得られたマッチング領域を類似領域42として特定してもよいし、又は対象物領域40をブロブ解析して得られた解析領域を類似領域42として特定してもよい。 As a method for identifying the similar region 42, for example, clustering, matching processing, blob analysis, and a combination thereof can be used. That is, the cluster area obtained by clustering the object area 40 may be specified as the similar area 42, or the matching area obtained by matching the object area 40 may be specified as the similar area 42. Alternatively, the analysis region obtained by blob-analyzing the object region 40 may be specified as the similar region 42.

クラスタリングでは、類似領域42の数が多くなる程(即ち、クラスタ数が多くなる程)、欠損領域41の補間精度が向上するため、クラスタ数が多くても比較的少ない計算リソースで実行可能な非階層クラスタリングが好ましい。但し、対象物が無地で単純形状(例えば直方体形状)の場合には、対象物の特徴が少なく、クラスタ数が少なくなるため、比較的多くの計算リソースを必要とするものの分類精度の高い階層クラスタリングを利用してもよい。 In clustering, as the number of similar regions 42 increases (that is, as the number of clusters increases), the interpolation accuracy of the missing region 41 improves, so that even if the number of clusters is large, it can be executed with a relatively small number of computational resources. Hierarchical clustering is preferred. However, when the object is plain and has a simple shape (for example, a rectangular parallelepiped shape), the features of the object are small and the number of clusters is small. May be used.

非階層クラスタリングの手法としては、例えばk-means法、x-means法等を利用できる。k-means法では、クラスタ数kを予め定めておき、クラスタ領域を構成するデータ(光強度、距離等の多次元データでよい。以下同じ。)の初期平均値をk個用意しておく。取得した各データについて最も近い初期平均値を選択することによって各データが所属するクラスタ領域を決定する。次に、各クラスタ領域を構成するデータに基づいて平均値を更新し、各データについて最も近い平均値を選択することによって各データが所属するクラスタ領域を更新する。平均値が更新されなくなるか又はループの上限回数に達するまで、このような処理を繰返し、最終的なクラスタ領域を決定する。図5では、1つの対象物領域40においてクラスタ数kを7個に設定した例が示されている。また、x-means法を用いてクラスタ数を自動的に推定してもよいし、又はエルボー法、シルエット分析等によってクラスタ数を評価して最終的なクラスタ領域を決定してもよい。 As a non-hierarchical clustering method, for example, a k-means method, an x-means method, or the like can be used. In the k-means method, the number of clusters k is determined in advance, and k initial average values of data constituting the cluster area (multidimensional data such as light intensity and distance; the same applies hereinafter) are prepared. The cluster area to which each data belongs is determined by selecting the closest initial average value for each acquired data. Next, the average value is updated based on the data constituting each cluster area, and the cluster area to which each data belongs is updated by selecting the closest average value for each data. This process is repeated until the average value is not updated or the maximum number of loops is reached to determine the final cluster area. FIG. 5 shows an example in which the number of clusters k is set to 7 in one object region 40. Further, the number of clusters may be estimated automatically by using the x-means method, or the number of clusters may be evaluated by the elbow method, silhouette analysis, or the like to determine the final cluster area.

マッチング処理では、例えば類似領域42を構成するデータのサンプルデータ(光強度、距離等の多次元データでよい。以下同じ。)を複数個用意しておき、予め用意したサンプルデータと取得した各データとの間でマッチング処理を行うことによってマッチング領域を特定するとよい。類似度を算出する評価関数としては、前述のSAD、SDD、NCC、ZNCC等を利用できる。また、クラスタ領域にマッチング領域を加算することによって最終的な類似領域42を特定してもよい。 In the matching process, for example, a plurality of sample data (multidimensional data such as light intensity and distance may be used; the same applies hereinafter) of data constituting the similar region 42 are prepared, and the sample data prepared in advance and each acquired data are prepared. It is advisable to specify the matching area by performing a matching process with and. As the evaluation function for calculating the similarity, the above-mentioned SAD, SDD, NCC, ZNCC and the like can be used. Further, the final similar region 42 may be specified by adding the matching region to the cluster region.

ブロブ解析では、例えば取得した二次元データの対象物領域40と、取得した三次元データの対象物領域40との双方について、種々の画像処理フィルタを適用し、エッジ検出、モルフォロジー処理等を行い、双方の処理結果を加算することによって解析領域を特定するとよい。また、クラスタ領域とマッチング領域の少なくとも一方に解析領域を加算することによって最終的な類似領域42を特定してもよい。 In the blob analysis, for example, various image processing filters are applied to both the object area 40 of the acquired two-dimensional data and the object area 40 of the acquired three-dimensional data, and edge detection, morphology processing, and the like are performed. The analysis area may be specified by adding the processing results of both. Further, the final similar region 42 may be specified by adding the analysis region to at least one of the cluster region and the matching region.

図6は、類似対応領域43を特定した三次元データの一例を示している。類似対応領域特定部15は、二次元データの類似領域42に対応する三次元データの類似対応領域43を特定する。そして、三次元データ補間部16は、三次元データの類似対応領域43に基づいて欠損領域41の三次元データを補間する。例えば、欠損領域41の注目画素が所属している類似対応領域43の三次元データで注目画素の三次元データを補間するとよい。このとき、注目画素から最も近くある類似対応領域43の参照画素の三次元データで注目画素の三次元データを補間してもよいし、又は注目画素が所属している類似対応領域43の複数の三次元データを平均化して注目画素の三次元データを補間してもよい。 FIG. 6 shows an example of three-dimensional data in which the similarity corresponding region 43 is specified. The similarity correspondence area identification unit 15 identifies the similarity correspondence area 43 of the three-dimensional data corresponding to the similarity area 42 of the two-dimensional data. Then, the three-dimensional data interpolation unit 16 interpolates the three-dimensional data of the missing region 41 based on the similarity corresponding region 43 of the three-dimensional data. For example, the three-dimensional data of the pixel of interest may be interpolated with the three-dimensional data of the similar corresponding region 43 to which the pixel of interest of the missing region 41 belongs. At this time, the three-dimensional data of the reference pixel of the reference pixel of the similarity correspondence region 43 closest to the attention pixel may be interpolated with the three-dimensional data of the attention pixel, or a plurality of similarity correspondence regions 43 to which the attention pixel belongs may be interpolated. The three-dimensional data may be averaged and the three-dimensional data of the pixel of interest may be interpolated.

但し、欠損領域41の注目画素が所属する類似対応領域43が存在しない場合があり、この場合、注目画素の三次元データを補間できなくなる。しかし、対象空間に対象物が複数存在する場合、三次元データ補間部16は、対象物領域40に類似する別の対象物領域40内の類似対応領域43の三次元データで注目画素の三次元データを補間してもよい。以上のような処理によれば、対象物領域40内の二次元データ(光強度、距離等)を考慮して対象物領域40内の三次元データの欠損領域41を補間するため、従来と比べて少ない工数で精度良く補間できることになる。 However, there is a case where the similar corresponding region 43 to which the attention pixel of the missing region 41 belongs does not exist, and in this case, the three-dimensional data of the attention pixel cannot be interpolated. However, when a plurality of objects exist in the target space, the three-dimensional data interpolation unit 16 uses the three-dimensional data of the similarity corresponding region 43 in another target region 40 similar to the target region 40 to provide three-dimensional data of the pixel of interest. Data may be interpolated. According to the above processing, the missing area 41 of the three-dimensional data in the object area 40 is interpolated in consideration of the two-dimensional data (light intensity, distance, etc.) in the object area 40. It is possible to perform interpolation with high accuracy with a small number of man-hours.

図1を再び参照すると、本発明は、三次元データ生成装置10を備えたロボットシステム1にも適用できる。ロボットシステム1は、三次元データ生成装置によって補間された三次元データに基づき、ロボット30及びツール31の少なくとも一方の動作指令を補正するロボット制御装置20を備えているとよい。ロボット制御装置20は、一台ではなく、複数台あってもよく、複数台の場合には、三次元データ生成装置10に対して無線又は有線を介して多対一で接続することになる。即ち、ロボットシステム1は、サーバシステム又はクラウドシステムでもよい。ロボット制御装置20は、例えばCPU(central processing unit)等のプロセッサを備えたコンピュータ装置であり、動作プログラムを記憶する記憶部21と、動作プログラムに従ってロボット30及びツール31の少なくとも一方の動作指令を生成する動作制御部22と、を備えている。動作制御部22は、補間された三次元データに基づき、ロボット30及びツール31の少なくとも一方の動作指令を補正する。ロボット制御装置20は、補正された動作指令に基づいて、ロボット駆動モータ32を駆動するロボット駆動部23と、ツール駆動モータ33を駆動するツール駆動部24と、を備えている。ロボット30及びツール31は、ロボット制御装置20と同様に、一台ではなく、複数台あってもよい。 With reference to FIG. 1 again, the present invention can also be applied to a robot system 1 provided with a three-dimensional data generation device 10. The robot system 1 may include a robot control device 20 that corrects an operation command of at least one of the robot 30 and the tool 31 based on the three-dimensional data interpolated by the three-dimensional data generation device. There may be a plurality of robot control devices 20 instead of one, and in the case of a plurality of robot control devices 20, they are connected to the three-dimensional data generation device 10 in a many-to-one manner via wireless or wired. That is, the robot system 1 may be a server system or a cloud system. The robot control device 20 is a computer device including a processor such as a CPU (central processing unit), and generates an operation command of at least one of the robot 30 and the tool 31 according to the operation program and the storage unit 21 that stores the operation program. The operation control unit 22 is provided. The motion control unit 22 corrects at least one motion command of the robot 30 and the tool 31 based on the interpolated three-dimensional data. The robot control device 20 includes a robot drive unit 23 that drives the robot drive motor 32 and a tool drive unit 24 that drives the tool drive motor 33 based on the corrected operation command. Similar to the robot control device 20, there may be a plurality of robots 30 and tools 31 instead of one.

図7は、三次元データ生成装置10を備えたロボットシステム1の動作を示している。ステップS10では、マッチング処理、ブロブ解析、及びこれらを組み合わせた処理等を行うことにより、センサ11から取得した三次元データ及び二次元データの対象物領域40を特定する。ステップS11では、対象物領域40以外の背景領域を除去するか又は別のデータで置換することによって、三次元データの対象物領域40内の欠損領域41を特定する。 FIG. 7 shows the operation of the robot system 1 provided with the three-dimensional data generation device 10. In step S10, the object region 40 of the three-dimensional data and the two-dimensional data acquired from the sensor 11 is specified by performing matching processing, blob analysis, processing combining these, and the like. In step S11, the missing area 41 in the object area 40 of the three-dimensional data is specified by removing the background area other than the object area 40 or replacing it with another data.

ステップS12では、光強度、距離等の多次元データに基づいて、クラスタリング、マッチング処理、ブロブ解析、及びこれらを組み合わせた処理等を行うことにより、二次元データの対象物領域40内で1つ又は複数の類似領域42を特定する。ステップS13では、二次元データの類似領域42に対応する三次元データの類似対応領域43を特定する。 In step S12, by performing clustering, matching processing, blob analysis, and processing combining these based on multidimensional data such as light intensity and distance, one or one of the two-dimensional data is performed in the object region 40. Identify a plurality of similar regions 42. In step S13, the similarity corresponding region 43 of the three-dimensional data corresponding to the similarity region 42 of the two-dimensional data is specified.

ステップS14では、類似対応領域43に基づいて欠損領域41の三次元データを補間する。このとき、欠損領域41の注目画素から最も近くある類似対応領域43の参照画素の三次元データで注目画素の三次元データを補間してもよいし、又は欠損領域41の注目画素が所属している類似対応領域43の三次元データを平均化して注目画素の三次元データを補間してもよい。また、対象空間に対象物が複数存在する場合には、対象物領域40に類似する別の対象物領域40内の類似対応領域43の三次元データで注目画素の三次元データを補間してもよい。ステップS15では、補間された三次元データに基づいてロボット30及びツール31の少なくとも一方の動作指令を補正する。 In step S14, the three-dimensional data of the missing region 41 is interpolated based on the similarity corresponding region 43. At this time, the three-dimensional data of the reference pixel of the similarity corresponding region 43 closest to the attention pixel of the missing region 41 may be interpolated with the three-dimensional data of the attention pixel, or the attention pixel of the missing region 41 belongs to the three-dimensional data. The three-dimensional data of the similar corresponding region 43 may be averaged and the three-dimensional data of the pixel of interest may be interpolated. Further, when a plurality of objects exist in the target space, the three-dimensional data of the pixel of interest may be interpolated with the three-dimensional data of the similarity corresponding region 43 in another object region 40 similar to the target region 40. good. In step S15, the operation command of at least one of the robot 30 and the tool 31 is corrected based on the interpolated three-dimensional data.

図8は、三次元データ生成装置10をロボット制御装置20に組込んだロボットシステム1の一例を示している。本例のロボットシステム1は、三次元データ生成装置10の構成要素のうち少なくとも一つをロボット制御装置20に組込んでいる。即ち、ロボットシステム1は、スタンドアロンシステムでもよい。 FIG. 8 shows an example of a robot system 1 in which the three-dimensional data generation device 10 is incorporated in the robot control device 20. In the robot system 1 of this example, at least one of the components of the three-dimensional data generation device 10 is incorporated in the robot control device 20. That is, the robot system 1 may be a stand-alone system.

以上の実施形態によれば、対象物領域40内の二次元データを考慮して対象物領域40内の三次元データの欠損領域41を補間するため、従来と比べて少ない工数で精度良く三次元データを補間できることになる。 According to the above embodiment, since the missing area 41 of the three-dimensional data in the object area 40 is interpolated in consideration of the two-dimensional data in the object area 40, the three-dimensional area can be accurately three-dimensionalized with less man-hours as compared with the conventional case. The data can be interpolated.

前述のプロセッサによって実行されるプログラムは、コンピュータ読取り可能な非一時的記録媒体、例えばCD−ROM等に記録して提供してもよいし、或いは有線又は無線を介してWAN(wide area network)又はLAN(local area network)上のサーバ装置から配信して提供してもよい。 The program executed by the processor described above may be recorded and provided on a computer-readable non-temporary recording medium such as a CD-ROM, or may be provided via a wired or wireless LAN (wide area network) or. It may be distributed and provided from a server device on a LAN (local area network).

本明細書において種々の実施形態について説明したが、本発明は、前述の実施形態に限定されるものではなく、以下の特許請求の範囲に記載された範囲内において種々の変更を行えることを認識されたい。 Although various embodiments have been described herein, it is recognized that the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims below. I want to be.

1 ロボットシステム
10 三次元データ生成装置
11 センサ
12 対象物領域特定部
13 欠損領域特定部
14 類似領域特定部
15 類似対応領域特定部
16 三次元データ補間部
20 ロボット制御装置
21 記憶部
22 動作制御部
23 ロボット駆動部
24 ツール駆動部
30 ロボット
31 ツール
32 ロボット駆動モータ
33 ツール駆動モータ
40 対象物領域
41 欠損領域
42 類似領域
43 類似対応領域
1 Robot system 10 Three-dimensional data generator 11 Sensor 12 Object area identification unit 13 Missing area identification unit 14 Similar area identification unit 15 Similar correspondence area identification unit 16 Three-dimensional data interpolation unit 20 Robot control device 21 Storage unit 22 Motion control unit 23 Robot drive unit 24 Tool drive unit 30 Robot 31 Tool 32 Robot drive motor 33 Tool drive motor 40 Object area 41 Missing area 42 Similar area 43 Similar correspondence area

Claims (10)

対象物を含む対象空間の三次元データ及び二次元データをセンサから取得する三次元データ生成装置であって、
取得した前記三次元データ及び前記二次元データの対象物領域を特定する対象物領域特定部と、
前記三次元データの前記対象物領域内の欠損領域を特定する欠損領域特定部と、
前記二次元データの前記対象物領域内で1つ又は複数の類似領域を特定する類似領域特定部と、
前記二次元データの前記類似領域に対応する前記三次元データの類似対応領域を特定する類似対応領域特定部と、
前記三次元データの前記類似対応領域に基づいて前記欠損領域の前記三次元データを補間する三次元データ補間部と、
を備える、三次元データ生成装置。
A three-dimensional data generator that acquires three-dimensional data and two-dimensional data of the target space including an object from a sensor.
An object area specifying unit that specifies the object area of the acquired three-dimensional data and the two-dimensional data, and
A defect region identification portion that identifies a defect region in the object region of the three-dimensional data, and a defect region identification portion.
A similar area identification unit that specifies one or more similar areas in the object area of the two-dimensional data,
A similarity corresponding area specifying unit that specifies a similar corresponding area of the three-dimensional data corresponding to the similar area of the two-dimensional data, and a similar corresponding area specifying unit.
A three-dimensional data interpolation unit that interpolates the three-dimensional data of the missing region based on the similarity corresponding region of the three-dimensional data, and a three-dimensional data interpolation unit.
A three-dimensional data generator equipped with.
前記二次元データが光の三原色の光強度を含み、前記類似領域特定部は前記対象物領域内の前記三原色の光強度に基づいて前記類似領域を特定する、請求項1に記載の三次元データ生成装置。 The three-dimensional data according to claim 1, wherein the two-dimensional data includes light intensities of the three primary colors of light, and the similar region specifying portion identifies the similar region based on the light intensities of the three primary colors in the object region. Generator. 前記類似領域特定部は、前記二次元データに加えて前記対象物領域内の前記三次元データを加味して前記類似領域を特定する、請求項1又は2に記載の三次元データ生成装置。 The three-dimensional data generation device according to claim 1 or 2, wherein the similar region specifying unit identifies the similar region by adding the three-dimensional data in the object region in addition to the two-dimensional data. 前記類似領域特定部は、前記対象物領域をクラスタリングして得られたクラスタ領域を前記類似領域として特定する、請求項1から3のいずれか一項に記載の三次元データ生成装置。 The three-dimensional data generation device according to any one of claims 1 to 3, wherein the similar region specifying unit specifies a cluster region obtained by clustering the object region as the similar region. 前記類似領域特定部は、前記対象物領域をマッチング処理して得られたマッチング領域を前記類似領域として特定する、請求項1から4のいずれか一項に記載の三次元データ生成装置。 The three-dimensional data generation device according to any one of claims 1 to 4, wherein the similar region specifying unit specifies a matching region obtained by matching the object region as the similar region. 前記類似領域特定部は、前記対象物領域をブロブ解析して得られた解析領域を前記類似領域として特定する、請求項1から5のいずれか一項に記載の三次元データ生成装置。 The three-dimensional data generation device according to any one of claims 1 to 5, wherein the similar region specifying unit identifies an analysis region obtained by blob-analyzing the object region as the similar region. 前記三次元データ補間部は、前記欠損領域の注目画素が所属している前記類似対応領域の複数の前記三次元データを平均化して前記注目画素の前記三次元データを補間する、請求項1から6のいずれか一項に記載の三次元データ生成装置。 From claim 1, the three-dimensional data interpolation unit averages a plurality of the three-dimensional data of the similar corresponding region to which the attention pixel of the missing region belongs and interpolates the three-dimensional data of the attention pixel. The three-dimensional data generator according to any one of 6. 前記対象空間に前記対象物が複数存在する場合、前記三次元データ補間部は、前記対象物領域に類似する別の対象物領域内の前記類似対応領域の前記三次元データに基づいて前記欠損領域の前記三次元データを補間する、請求項1から7のいずれか一項に記載の三次元データ生成装置。 When a plurality of the objects exist in the target space, the three-dimensional data interpolation unit uses the missing area based on the three-dimensional data of the similar corresponding area in another object area similar to the object area. The three-dimensional data generation device according to any one of claims 1 to 7, which interpolates the three-dimensional data of the above. 請求項1から8のいずれか一項に記載の三次元データ生成装置を備えたロボットシステムであって、前記三次元データ生成装置で補間した前記三次元データに基づいてロボットの動作指令を補正するロボット制御装置を備える、ロボットシステム。 A robot system including the three-dimensional data generation device according to any one of claims 1 to 8, and corrects a robot operation command based on the three-dimensional data interpolated by the three-dimensional data generation device. A robot system equipped with a robot control device. 前記三次元データ生成装置を前記ロボット制御装置に組込んだ、請求項9に記載のロボットシステム。 The robot system according to claim 9, wherein the three-dimensional data generation device is incorporated in the robot control device.
JP2019237077A 2019-12-26 2019-12-26 3D data generation device and robot system that interpolates 3D data Active JP7405607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019237077A JP7405607B2 (en) 2019-12-26 2019-12-26 3D data generation device and robot system that interpolates 3D data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019237077A JP7405607B2 (en) 2019-12-26 2019-12-26 3D data generation device and robot system that interpolates 3D data

Publications (2)

Publication Number Publication Date
JP2021105862A true JP2021105862A (en) 2021-07-26
JP7405607B2 JP7405607B2 (en) 2023-12-26

Family

ID=76919455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019237077A Active JP7405607B2 (en) 2019-12-26 2019-12-26 3D data generation device and robot system that interpolates 3D data

Country Status (1)

Country Link
JP (1) JP7405607B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230809A (en) * 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd Interpolating method for distance data, and method and device for color image hierarchical constitution
JP2000339498A (en) * 1999-05-31 2000-12-08 Minolta Co Ltd Three-dimensional shape data processor
JP2011174891A (en) * 2010-02-25 2011-09-08 Canon Inc Device and method for measuring position and attitude, and program
JP2015147256A (en) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 Robot, robot system, control device, and control method
JP2017084065A (en) * 2015-10-27 2017-05-18 株式会社東芝 Identity theft detection device
JP2018536236A (en) * 2015-11-16 2018-12-06 オービタル インサイト インコーポレイテッド Detection and analysis of moving vehicles using low resolution remote sensing images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230809A (en) * 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd Interpolating method for distance data, and method and device for color image hierarchical constitution
JP2000339498A (en) * 1999-05-31 2000-12-08 Minolta Co Ltd Three-dimensional shape data processor
JP2011174891A (en) * 2010-02-25 2011-09-08 Canon Inc Device and method for measuring position and attitude, and program
JP2015147256A (en) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 Robot, robot system, control device, and control method
JP2017084065A (en) * 2015-10-27 2017-05-18 株式会社東芝 Identity theft detection device
JP2018536236A (en) * 2015-11-16 2018-12-06 オービタル インサイト インコーポレイテッド Detection and analysis of moving vehicles using low resolution remote sensing images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
M. CAMPLANI ET AL.: ""Adaptive spatio-temporal filter for low-cost camera depth maps"", 2012 IEEE INTERNATIO NAL CONFERENCE ON EMERGING SIGNAL PROCESSING APPLICATIONS, JPN6023036035, January 2012 (2012-01-01), pages 33 - 36, ISSN: 0005143858 *
竹中晴香他: "KinectのためのBilateral Filteringを用いた距離画像とカラー画像の整合法", 情報処理学会研究報告 2012(平成24)年度(5) [CD−ROM], JPN6023036034, 15 February 2013 (2013-02-15), JP, ISSN: 0005143857 *

Also Published As

Publication number Publication date
JP7405607B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
US9672630B2 (en) Contour line measurement apparatus and robot system
JP6506731B2 (en) System and method for scoring clutter used for 3D point cloud matching in vision system
CN105818167B (en) The method that hinged end effector is calibrated using long distance digital camera
JP7339316B2 (en) System and method for simultaneous consideration of edges and normals in image features by a vision system
JP6363863B2 (en) Information processing apparatus and information processing method
JP4885584B2 (en) Rangefinder calibration method and apparatus
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP6836561B2 (en) Image processing device and image processing method
US20130127998A1 (en) Measurement apparatus, information processing apparatus, information processing method, and storage medium
JP6503153B2 (en) System and method for automatically selecting a 3D alignment algorithm in a vision system
WO2019177539A1 (en) Method for visual inspection and apparatus thereof
JP6073858B2 (en) Face position detection
JP2008506953A (en) Method and apparatus for machine vision
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
US9942442B2 (en) Image reading apparatus, image reading method, and medium
JP2006343859A (en) Image processing system and image processing method
JP4379626B2 (en) Three-dimensional shape measuring method and apparatus
CN111684458A (en) Target detection method, target detection device and unmanned aerial vehicle
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization
JP7298687B2 (en) Object recognition device and object recognition method
WO2019016879A1 (en) Object detection device and object detection method
JPWO2020153264A1 (en) Calibration method and calibration equipment
JP2006227739A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231214

R150 Certificate of patent or registration of utility model

Ref document number: 7405607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150