JP6658054B2 - 車体部品の施工部位判定システム及び施工部位判定方法 - Google Patents

車体部品の施工部位判定システム及び施工部位判定方法 Download PDF

Info

Publication number
JP6658054B2
JP6658054B2 JP2016027110A JP2016027110A JP6658054B2 JP 6658054 B2 JP6658054 B2 JP 6658054B2 JP 2016027110 A JP2016027110 A JP 2016027110A JP 2016027110 A JP2016027110 A JP 2016027110A JP 6658054 B2 JP6658054 B2 JP 6658054B2
Authority
JP
Japan
Prior art keywords
dimensional image
construction site
construction
image data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016027110A
Other languages
English (en)
Other versions
JP2017144454A (ja
Inventor
克秀 有元
克秀 有元
貴夫 水野
貴夫 水野
雄太 横道
雄太 横道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Auto Body Co Ltd
Original Assignee
Toyota Auto Body Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Auto Body Co Ltd filed Critical Toyota Auto Body Co Ltd
Priority to JP2016027110A priority Critical patent/JP6658054B2/ja
Priority to PCT/JP2016/077317 priority patent/WO2017141475A1/ja
Publication of JP2017144454A publication Critical patent/JP2017144454A/ja
Priority to US15/807,764 priority patent/US10507550B2/en
Application granted granted Critical
Publication of JP6658054B2 publication Critical patent/JP6658054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K11/00Resistance welding; Severing by resistance heating
    • B23K11/10Spot welding; Stitch welding
    • B23K11/11Spot welding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、車体部品の施工部位を判定する技術に関する。
自動車の製造工程においては、種々の車体部品に対してスポット溶接が施工された後、このスポット溶接が予め作成された工法書に従って適正になされているか否かが検査される。従来、この検査は、スポット溶接によって形成された打点を作業者が目視で確認する視覚的検査として行われていた。例えば、作業者は、スポット溶接が施工された車体部品について、スポット溶接によって形成された打点の数と位置を目視によって確認する。その後、作業者は、その検査結果をチェックシート等に手書きで記入する。ところが、このような検査手法は、作業者本人の判断のみによるため人為的な誤判定の原因になり得る。
そこで、視覚的検査による検査手法の問題点を解消するべく、下記特許文献1には、カメラを用いて打点の判定を行う検査システムが開示されている。この検査システムでは、車体部品における打点を指し示す指示具と、指示具に設けられた識別部に向けて配置されるカメラと、が使用される。カメラを車体部品に対して固定位置に配置した後、このカメラによって車体部品を撮影することによってカメラからの撮像信号に基づいて打点の位置を検出する。そして、検出した打点の位置を予め登録された打点の位置と照合することによって、検出した打点の位置が適正であるか否かを判定する。
特開2007−152371号公報
しかしながら、上記特許文献1に開示の検査システムを用いる場合、カメラを車体部品に対して決まった位置に固定配置する必要がある。従って、準備作業に時間及び工数がかかる。また、カメラとは別に、該カメラを固定する固定部材、及び打点を指し示す指示具を少なくとも準備する必要があり、検査に要するコストが高い。
そこで、この種のシステムの設計に際しては、車体部品の施工部位を簡単に且つ低コストで判定できる技術が求められている。また、この技術では、スポット溶接の打点が形成された施工部位のみならず、車体部品に開口形成された開口穴、車体部品に溶接されたボルト、ナット、座金などの施工部位についても同様に判定できるのが好ましい。
本発明は、かかる課題に鑑みてなされたものであり、車体部品の施工部位を簡単に且つ低コストで判定するのに有効な技術を提供しようとするものである。
本発明の一態様は、
車体部品の3次元画像を記録する撮影装置と、
上記撮影装置によって記録された上記車体部品の3次元画像に基づいて、上記車体部品の施工部位を判定する処理を行う処理装置と、を備え、
上記処理装置は、
上記3次元画像を3次元画像データに変換する画像処理部と、
上記3次元画像データと上記車体部品の設計に用いられる3次元設計データとの双方からそれぞれ、上記施工部位と上記車体部品において上記施工部位と異なる基準部位とを抽出する抽出部と、
上記基準部位を位置合わせ基準にして上記3次元画像データの座標系と上記3次元設計データの座標系とを合わせることにより、上記3次元画像データ及び上記3次元設計データの位置合わせを行う位置合わせ部と、
上記位置合わせ部によって位置合わせされた上記3次元画像データ及び上記3次元設計データについて、上記抽出部によって上記3次元画像データから抽出された上記施工部位と上記抽出部によって上記3次元設計データから抽出された上記施工部位との関係を判定する判定部と、を備える、車体部品の施工部位判定システムにある。
本発明の他の態様は、
車体部品の施工部位を判定する、車体部品の施工部位判定方法であって、
上記車体部品の3次元画像を記録する撮影装置を準備し、
上記撮影装置によって記録された上記車体部品の3次元画像を3次元画像データに変換し、
変換した上記3次元画像データと上記車体部品の設計に用いられる3次元設計データとの双方からそれぞれ、上記施工部位と上記車体部品において上記施工部位と異なる基準部位とを抽出し、
抽出した上記基準部位を位置合わせ基準にして上記3次元画像データの座標系と上記3次元設計データの座標系とを合わせることにより、上記3次元画像データ及び上記3次元設計データの位置合わせを行い、
位置合わせした上記3次元画像データ及び上記3次元設計データについて、上記3次元画像データから抽出した上記施工部位と上記3次元設計データから抽出した上記施工部位との関係を判定する、車体部品の施工部位判定方法にある。
上記の、車体部品の施工部位判定システム、及び車体部品の施工部位判定方法によれば、3次元画像データから基準部位を抽出し、且つこの基準部位を基準にして3次元画像データと3次元設計データとの位置合わせを行うことができる。このため、撮影装置を車体部品に対して決まった位置に固定配置する必要がない。従って、可搬式の3Dカメラのような比較的安価な撮影装置を使用することができる。また、作業者は撮影環境(車体部品に対する角度、明るさ、距離など)を気にすることなく、撮影装置によって車体部品を簡単に撮影することができる。更に、施工部位についての判定が視覚的な判定によらない場合には、作業に要する時間及び工数を低く抑えることができ、また人為的な誤判定が生じるのを阻止できる。
以上のごとく、上記の車体部品の施工部位判定システム、及び車体部品の施工部位判定方法によれば、車体部品の施工部位を簡単に且つ低コストで判定することが可能になる。
本実施形態の、車体部品の施工部位判定システムの概要を示す図。 図1中の処理装置におけるデータ確認画面の表示例を示す図。 図1中の処理装置による処理フローを示す図。 図3の処理フローの第1ステップにおける処理を模式的に示す図。 図3の処理フローの第2ステップにおける、施工部位についてのデータの抽出を模式的に示す図。 図3の処理フローの第2ステップにおける、基準部位についてのデータの抽出を模式的に示す図。 図3の処理フローの第3ステップにおける、施工部位についてのデータの抽出を模式的に示す図。 図3の処理フローの第3ステップにおける、基準部位についてのデータの抽出を模式的に示す図。 第3ステップで用いる抽出ロジックを説明するための図。 3次元設計データと3次元画像データとの座標系の相違を説明するための図。 座標系の変換ロジックを説明するための図。 3次元設計データと3次元画像データとを同一の座標系で重ね合わせた状態の図。 帳票の記載例を示す図。
本実施形態において、「施工部位」とは、車体を構成する車体部品において所定の施工がなされた部位、若しくは所定の施工が予定された部位をいう。従って、施工部位の判定によって、施工部位に実際になされている施工結果が設計通りのものであるか否かが判定され、若しくは施工部位に予定通り施工されているか否かが判定される。
また、上記の車体部品の施工部位判定システムにおいて、上記処理装置の上記抽出部は、上記施工部位及び上記基準部位のそれぞれの形状の特徴を識別するように予め機械学習がなされた分類器を有し、上記分類器によって上記施工部位及び上記基準部位のそれぞれを抽出するのが好ましい。これにより、抽出部が施工部位及び基準部位のそれぞれを抽出する精度を高めることができる。
また、上記の車体部品の施工部位判定システムにおいて、上記処理装置の上記位置合わせ部は、上記抽出部によって抽出された上記基準部位を基準にして上記3次元画像データの座標系と上記3次元設計データの座標系とを合わせることにより、上記3次元画像データ及び上記3次元設計データの位置合わせを行うのが好ましい。これにより、位置合わせ部における3次元画像データと3次元設計データとの位置合わせの精度を高めることができる。
また、上記の車体部品の施工部位判定システムにおいて、上記処理装置の上記判定部は、上記3次元画像データから上記施工部位が抽出され且つ該施工部位と上記3次元設計データから抽出された上記施工部位との間の距離が予め設定された許容値を下回る場合に、上記関係として上記車体部品における上記施工部位に設計通りの施工がなされていると判定するのが好ましい。これにより、判定部による適正な判定が可能になる。
また、上記の車体部品の施工部位判定システムにおいて、上記車体部品における上記施工部位は、スポット溶接による打点が形成される部位であるのが好ましい。これにより、スポット溶接による打点について、3次元画像データにおける打点と3次元設計データにおける打点との関係を判定することができる。
また、上記の車体部品の施工部位判定システムは、上記処理装置の上記判定部による判定結果を出力する出力装置を備えるのが好ましい。これにより、出力装置によって出力された判定結果を複数の人でチェックできる。その結果、人為的な誤判定を起こりにくくすることができる。
また、上記の車体部品の施工部位判定システムにおいて、上記出力装置は、上記判定結果とともに上記施工部位の3次元画像を表示するのが好ましい。これにより、作業者若しくは確認者は、施工部位の3次元画像に着目することによって、施工部位に設計通りの施工がなされているか否かを一目で確認できる。
以下、本実施形態の車体部品の施工部位判定システム及び施工部位判定方法について、図面を参照しつつ説明する。
図1に示されるように、施工部位判定システム1は、車体部品Wの施工部位を判定するシステムである。この施工部位判定システム1は、撮影装置10、処理装置20、出力装置30、サーバ40及びLAN50を含む。この施工部位判定システム1を、「施工部位判定装置」ということもできる。車体部品Wとして、自動車の車体を構成する各種の製品を対象とすることができる。この車体部品Wには、施工部位P及び基準部位Qが含まれている。
撮影装置10は、車体部品Wの撮影によってこの車体部品Wの3次元画像を記録する機能を有する。この撮影装置10は、処理装置20に接続されることによって、処理装置20との間でのデータの送受信が可能になる。この撮影装置10は、車体部品Wの撮影時に処理装置20に接続された状態であってもよいし、或いは処理装置20から分離された状態であってもよい。
本実施形態では、この撮影装置10が3Dカメラによって構成されている。3Dカメラとして、2つのレンズのそれぞれで撮影された画像を合成することによって3次元画像を得る複眼式のカメラや、1つのレンズで角度を変えて2回撮影された画像を合成することによって3次元画像を得る単眼式のカメラを用いることができる。この3Dカメラとして、可搬式の小型カメラや、特定の位置に設置される大型の定点カメラを用いることができる。処理装置20による後述の処理についての要求精度が高くない場合には、コストメリットの高い安価な可搬式の小型カメラを用いるのが好ましい。
処理装置20は、撮影装置10によって記録された車体部品Wの3次元画像に基づいて、車体部品Wの施工部位Pを判定する処理を行う機能を有する。この処理装置20は、画像処理部21、記憶部22、入出力部23及び演算部24を備えている。この処理装置20は、モニター(表示手段)、キーボード(入力手段)、マウス(選択手段)、CPU、ROM、RAM等を有する、デスクトップ型若しくはノート型のパーソナルコンピュータ(PC)によって構成されている。
出力装置30は、データを印字によって出力するプリンター、データを表示によって出力するモニター、データを音声によって出力するスピーカーのうちの少なくとも1つによって構成されている。
サーバ40は、LAN50を介して送信された入力データを記憶する一方で、記憶しているデータを要求先からの制御信号に応じて読み出して要求先に送信する機能を有する。このサーバ40は、上記の入力データとして、複数の車体部品Wのそれぞれについての3次元設計データ(「3次元CADデータ」ともいう。)を記憶するように構成されている。この3次元設計データは、車体部品Wの設計上の3次元の点群データであり、車体部品Wの要求仕様書(工法書)に基づいて作製されている。
画像処理部21は、撮影装置10によって撮影された車体部品Wの3次元画像を、直交座標(X,Y,Z)で表現される3次元の点群データ、即ち3次元画像データ(「3次元製品データ」ともいう。)に変換する機能を有する。この画像処理部21によって得られた、車体部品Wの3次元画像データは、記憶部22に送信される。
この画像処理部21は、所定の処理開始信号に応じて3次元画像を3次元画像データに変更する変換処理を実行するように構成されている。一方で、この画像処理部21は、撮影装置10と処理装置20との接続時にこの変換処理を自動的に実行するように構成されてもよい。
記憶部22は、撮影装置10から送信された3次元画像、画像処理部21から送信された3次元画像データ、及びサーバ40から入出力部23を経由して送信された3次元設計データを記憶(格納)する機能を有する。この記憶部22は、画像処理部21、入出力部23及び演算部24のそれぞれとの間でデータの送受信が可能になっている。
入出力部23は、外部機器との間でデータの送受信を行う機能を有する。この外部機器は、上記の出力装置30、サーバ40及びLAN50のそれぞれに接続された複数のOA端末等によって構成されている。
演算部24は、記憶部22或いは入出力部23から入力された情報を処理する機能を有し、抽出部25、位置合わせ部26、判定部27を備えている。
抽出部25は、画像処理部21によって変換された3次元画像データと、車体部品Wの設計に用いられる3次元設計データとのそれぞれを記憶部22から読み出して、これら3次元画像データ及び3次元設計データとの双方からそれぞれ、施工部位及び基準部位を抽出する機能を有する。
本実施形態の場合、車体部品Wの施工部位Pは、スポット溶接によるスポット溶接打点(以下、単に「打点」ともいう。)が形成される部位として予め設定されている。また、車体部品Wの基準部位Qは、開口穴が開口形成された部位として予め設定されている。
位置合わせ部26は、抽出部25によって抽出された基準部位Qa,Qbを基準にして3次元画像データ及び3次元設計データの位置合わせを行う機能を有する。基準部位Qaは、抽出部25によって3次元設計データから抽出される。基準部位Qbは、抽出部25によって3次元画像データから抽出される。
判定部27は、位置合わせ部26によって位置合わせされた3次元画像データ及び3次元設計データについて、抽出部25によって3次元設計データから抽出された施工部位Paと抽出部25によって3次元画像データから抽出された施工部位Pbとの関係を判定する。具体的には、実際に施工がなされる予定の施工部位Pに対応した施工部位Pbの状態が、要求仕様書に係る施工部位Paの通りであるか否か、即ち施工部位Pに設計通りの施工がなされているか否かが、この判定部27によって判定される。
この判定において、施工部位Pに実際に施工がなされているか否かは問わない。施工部位Pに実際に施工がなされている場合には、施工部位Paと施工部位Pbとの対比によって、施工部位Pになされている施工結果(数及び位置)が設計通りのものであるか否かが判定される。これに対して、施工部位Pに実際に施工がなされていない場合には、施工部位Paと施工部位Pbとの対比によって、施工部位Pに予定通り施工されているか否かが判定される。
撮影装置10によって記録された車体部品Wの3次元画像dは、例えば、処理装置20のモニターに表示されるデータ確認画面(図2参照)上で登録される。このデータ確認画面には、登録情報をプルダウンリストから選択可能な複数の入力欄61が表示される。入力欄61における登録情報には、車体部品Wにスポット溶接が施工されたロボットの管理番号等が含まれている。また、このデータ確認画面の表示部62には、複数の入力欄61の登録情報によって特定される、車体部品Wの3次元設計データd1が表示される。更に、このデータ確認画面の表示部64には、ファイル欄63において指定されたファイル先に保存されている、車体部品Wの3次元画像dが表示される。
なお、処理装置20において処理を実行する前の準備作業として、作業者は、撮影装置10を使用して車体部品Wを撮影する。このとき、車体部品Wの施工部位P及び基準部位Qの双方が写るように撮影される必要がある。これにより、処理装置20の処理で使用される、車体部品Wの3次元画像dが得られる。
表示部64に表示された3次元画像dは、「処理対象に追加」と表示された表示領域65がクリックされることによって、3次元設計データd1に紐付けされた情報として記憶部12に記憶される。「判定処理実行」と表示された表示領域66がクリックされると、所定の処理開始信号によって処理装置20による処理が自動的に実行される。この処理について、以下に図3〜13を参照しつつ説明する。
処理装置20による処理には、図3中のステップS101からステップS105までのステップが含まれている。これらのステップに対して、必要に応じて1または複数のステップが追加されてもよい。
ステップS101は、指定された車体部品Wについて、その3次元画像dを3次元画像データd2に変換するステップ(第1ステップ)である。このステップS101は、処理装置20の画像処理部21によって実行される。このステップS101によれば、車体部品Wの3次元画像dが記憶部22から読み出され、直交座標(X,Y,Z)で表現される3次元の点群データである3次元画像データd2に変換される。このステップS101で得られた3次元画像データd2は、記憶部22に記憶される。
なお、処理装置20における処理精度を高めるためには、図4が参照されるように、車体部品Wが異なる角度で撮影された複数種類の3次元画像d(図4では、3次元画像daと3次元画像dbとの2種類について記載)を使用するのが好ましい。
ステップS102は、指定された車体部品Wについて、3次元設計データd1の特徴点である施工部位Pa及び基準部位Qaのそれぞれの取り込みを行うステップ(第2ステップ)である。このステップS102は、処理装置20の抽出部25によって実行される。このステップS102によれば、記憶部22から3次元設計データd1が読み出され、この3次元設計データd1から施工部位Paについてのデータが取り込まれる(抽出される)。
図5に示されるように、この施工部位Paには、車体部品Wにスポット溶接によって形成される予定の5つの打点A1,B1,C1,D1,E1が含まれている。同様に、3次元設計データd1から基準部位Qaについてのデータが取り込まれる(抽出される)。図6に示されるように、この基準部位Qaには、車体部品Wに設けられる予定の3つの開口穴L1,M1,N1が含まれている。
ステップS103は、指定された車体部品Wについて、3次元画像データd2の特徴点である施工部位Pb及び基準部位Qbのそれぞれの検出を行うステップ(第3ステップ)である。このステップS103は、処理装置20の抽出部25によって実行される。このステップS103は、ステップS102と同時並行的に実行されてもよいし、或いはステップS102よりも前に実行されてもよいし、或いはステップS102に引き続いて実行されてもよい。
このステップS103によれば、記憶部22から3次元画像データd2が読み出され、この3次元画像データd2から施工部位Pbについてのデータが検出(抽出される)。図7に示されるように、この施工部位Pbには、車体部品Wにスポット溶接によって形成されていると想定される5つの打点A2,B2,C2,D2,E2が含まれている。同様に、3次元画像データd2から基準部位Qbについてのデータが検出(抽出される)。図8に示されるように、この基準部位Qbには、車体部品Wに設けられている3つの開口穴L2,M2,N2が含まれている。
本実施形態では、ステップS102における施工部位Pa及び基準部位Qaや、ステップS103における施工部位Pb及び基準部位Qbを精度良く抽出するために、図9に示される抽出ロジックを用いている。この抽出ロジックを実行するために、処理装置20の抽出部25は分類器DCを備えている。
図9に示されるように、例えば施工部位Pbに含まれる打点A2を抽出する場合、分類器DCは、打点A2の形状の特徴を識別するように予め機械学習がなされている。この場合、打点A2が含まれる複数のサンプル画像データSaと、打点A2とは異なる形状A3が含まれる複数のサンプル画像データSbと、を準備する。そして、これらの複数のサンプル画像データSa,Sbを分類器DCに入力して、サンプル画像データSaに含まれる打点A2の形状の特徴を学習させる。これにより、打点A2の形状、若しくは打点A2の形状に近い形状を有する識別対象を識別可能な分類器DCを作成できる。この分類器DCによれば、入力画像データScに打点A2及び形状A3の双方が含まれる場合、この入力画像データScに含まれる情報から識別対象としての打点A2を識別できる。
その他の打点や、基準点についても、この打点A2の場合と同様の抽出ロジックを使用した抽出が可能である。
なお、分類器DCの具体的な作成手法については、例えば、Haar−Likeアルゴリズムによる分類器作成についてリンクhttp://gihyo.jp/dev/feature/01/opencv/0003に記載されている説明、LBPアルゴリズムによる分類器作成についてリンクhttp://compsci.world.coocan.jp/OUJ/2012PR/pr_15_a.pdfに記載されている説明、HOGアルゴリズムによる分類器作成についてリンクhttp://www.vision.cs.chubu.ac.jp/joint_hog/pdf/HOG+Boosting_LN.pdfに記載されている説明等を参考にすることができる。
ステップS104は、抽出部25によって抽出された基準部位Qa,Qbを基準にして3次元設計データd1及び3次元画像データd2の位置合わせを行うステップ(第4ステップ)である。このステップS104は、ステップS102及びステップS103の終了後に、処理装置20の位置合わせ部26によって実行される。
ここで、3次元画像データの座標系は、人による撮影位置等に応じて撮影毎に変わる(1つに定まらない)ため、3次元設計データの座標系と異なる。従って、図10が参照されるように、3次元画像データd2の座標系は3次元設計データd1の座標系と相違する。そこで、この位置合わせ部26によれば、基準部位Qaと基準部位Qbとを互いに合わせることによって、3次元画像データd2の座標系を3次元設計データd1の座標系に合わせることができる。
具体的には、図11の座標系の変換ロジックが参照されるように、3次元設計データd1の基準部位Qaに含まれる3つの開口穴L1,M1,N1を頂点とした三角形T1と、3次元画像データd2の基準部位Qbに含まれる3つの開口穴L2,M2,N2を頂点とした三角形T2とを対比する。そして、開口穴L2を開口穴L1に合わせ、且つ開口穴M2を開口穴M1に合わせ、且つ開口穴N2を開口穴N1に合わせるように、3次元画像データd2の座標系を変換する。
その結果、図12に示されるように、3次元設計データd1及び3次元画像データd2は、同一の座標系で且つ基準部位Qaと基準部位Qbとが一致するように互いに重ね合わせられた状態で表示される。この変換ロジックでは、異なる座標系を互いに合わせるために、開口穴のような基準点が少なくとも3つ必要になる。
ステップS105は、3次元画像データd2から抽出された施工部位Pbと3次元設計データd1から抽出された施工部位Paとの関係を判定するステップである。このステップS105は、ステップS104の終了後に、処理装置20の判定部27によって実行される。このステップS105によれば、図12が参照されるように、3次元設計データd1(図中の実線参照)における施工部位Pa(打点A1,B1,C1,D1,E1)と、3次元画像データd2(図中の二点鎖線参照)における施工部位Pb(打点A2,B2,C2,D2,E2)との関係が判定される。
具体的には、3次元画像データd2を3次元設計データd1と対比することによって、3次元画像データd2に3次元設計データd1の各打点に対応した打点が有るか否かが判定される(第1の判定)。図12では、互いに重ね合わせられた3次元設計データd1及び3次元画像データd2について、3次元設計データd1に含まれている打点が「△」で示され、3次元画像データd2に含まれている打点が「□」で示されている。この第1の判定によれば、車体部品Wに実際に施工された打点の数(Number)を確認できる。
第1の判定において、3次元画像データd2に3次元設計データd1の打点に対応した打点が有ると判定された場合(第1の判定結果が「YES」の場合)、更に、3次元設計データd1の打点に対する3次元画像データd2の打点の位置ずれ(以下、「誤差」という。)が予め設定された許容値を下回るか否かが判定される(第2の判定)。この場合、誤差は、比較する2つの打点間の距離として算出される。この第2の判定によれば、車体部品Wに実際に施工された打点の位置(Position)を確認できる。
そして、第1の判定結果が「YES」であり、且つ第2の判定結果が「YES」の場合に、判定に係る打点が合格(OK)であり、打点が設計通り形成されていると判定される。そして、判定対象である全打点について合格(OK)である場合に、車体部品Wの施工部位Pに設計通りの施工がなされていると判定される。
図13に示されるように、本実施形態では、上記の判定部27による判定結果を示す帳票70が上記の出力装置30によって印字出力される。帳票70には、車体部品Wの3次元画像dを表示する欄71と、施工部位Pの打点のチェック結果(3次元画像データd2における施工部位Pbの判定結果)を示すチェック結果一覧72と、が記載されている。チェック結果一覧72には、施工部位Pの各打点を示す打点番号の欄73、打点画像の欄74、誤差の欄75及び結果の欄76が含まれている。
なお、欄71に3次元画像dに代えて3次元画像データd2が表示されてもよい。また、帳票70の印字に代えて或いは加えて、帳票70の記載の内容がモニター(図示省略)に表示されてもよい。
誤差の欄75において、誤差e1は、打点A1と打点A2との間の距離として算出されている。誤差e2は、打点B1と打点B2との間の距離として算出されている。誤差e3は、打点C1と打点C2との間の距離として算出されている。誤差e4は、打点D1と打点D2との間の距離として算出されている。誤差e5は、打点E1と打点E2との間の距離として算出されている。
作業者若しくは確認者は、結果の欄76を視認することによって、各打点のチェック結果が合格(OK)であるか否かを確認できる。これにより、車体部品Wに実際に施工されている打点の数及び位置のチェック(NPチェック)を容易に行うことができる。
また、本実施形態では、打点画像の欄74に、車体部品Wに実際に施工された打点の3次元画像が表示されるように設定されている。このため、スポット溶接が実際に施工されている場合には、打点画像の欄74に打点の3次元画像が母材の3次元画像とともに表示される。一方で、スポット溶接が実際に施工されていない場合には、打点画像の欄74に打点の3次元画像は表示されずに母材の3次元画像のみが表示される。従って、作業者若しくは確認者は、この打点画像の欄74を視認することによって、スポット溶接が予定された部位に実際に打点が形成されているか否かを一目で確認できる。
なお、処理装置20の抽出部25によって3次元画像データd2から抽出された打点の数の合計値や、3次元設計データd1から抽出された打点の数の合計値が帳票70に記載されるようにしてもよい。
上記の実施形態によれば、以下のような作用効果が得られる。
上記の施工部位判定システム1、及び施工部位判定システム1を使用した判定方法によれば、3次元画像データd2から基準部位Qbを抽出し、且つこの基準部位Qbを基準にして3次元画像データd2と3次元設計データd1との位置合わせを行うことができる。このため、撮影装置10を車体部品Wに対して決まった位置に固定配置する必要がない。従って、可搬式の3Dカメラのような比較的安価な撮影装置10を使用することができる。また、作業者は撮影環境(車体部品Wに対する角度、明るさ、距離など)を気にすることなく、撮影装置10によって車体部品Wを簡単に撮影することができる。更に、施工部位Pについての判定が処理装置20によって自動的に実行され、当該判定が視覚的な判定によらないため、作業に要する時間及び工数を低く抑えることができ、また人為的な誤判定が生じるのを阻止できる。その結果、車体部品Wの施工部位Pの状態を簡単に且つ低コストで判定することが可能になる。
また、処理装置20の抽出部25が分類器DCを備えているため、抽出部25が施工部位Pa,Pb及び基準部位Qa,Qbのそれぞれを抽出する精度を高めることができる。
また、処理装置20の位置合わせ部26は、基準部位Qa,Qbを基準にして3次元画像データd2の座標系と3次元設計データd1の座標系とを合わせるため、3次元画像データd2と3次元設計データd1との位置合わせの精度を高めることができる。
また、処理装置20の判定部27による判定結果を出力する出力装置30が用いられるため、この出力装置30によって出力された判定結果を複数の人でチェックできる。その結果、人為的な誤判定を起こりにくくすることができる。また、この出力装置30による出力情報には、処理装置20の判定部27による判定結果とともに施工部位Pの3次元画像が含まれている。このため、作業者若しくは確認者は、施工部位Pの3次元画像に着目することによって、施工部位Pに設計通りの施工がなされているか否かを一目で確認できる。
本発明は、上記の典型的な実施形態のみに限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の応用や変形が考えられる。例えば、上記の実施形態を応用した次の各形態を実施することもできる。
上記の実施形態では、溶接スポット溶接によって打点が形成される部位を車体部品Wの施工部位Pとする場合について例示したが、その他の部位を施工部位Pとすることもできる。その他の部位として、典型的には、車体部品Wに開口穴が開口形成された部位や、車体部品Wにボルト、ナット、座金などが接合された部位などが挙げられる。
上記の実施形態では、開口穴が形成された部位を車体部品Wの基準部位Qとする場合について例示したが、その他の部位を基準部位Qとすることもできる。その他の部位として、典型的には、車体部品Wにボルト、ナット、座金などが接合された部位や、溶接スポット溶接による打点が形成される部位などが挙げられる。参考例では、施工部位と同一の部位を基準部位にすることもできる。
上記の実施形態では、撮影装置10として3Dカメラを用いる場合について例示したが、3Dカメラに代えて、該3Dカメラと同様の機能を備えた装置、例えばタブレット型の端末を用いることもできる。
1 施工部位判定システム
10 撮影装置
20 処理装置
21 画像処理部
25 抽出部
26 位置合わせ部
27 判定部
30 出力装置
d,da,db 3次元画像
d1 3次元設計データ
d2 3次元画像データ
DC 分類器
P,Pa,Pb 施工部位
Q,Qa,Qb 基準部位
W 車体部品

Claims (7)

  1. 車体部品の3次元画像を記録する撮影装置と、
    上記撮影装置によって記録された上記車体部品の3次元画像に基づいて、上記車体部品の施工部位を判定する処理を行う処理装置と、を備え、
    上記処理装置は、
    上記3次元画像を3次元画像データに変換する画像処理部と、
    上記3次元画像データと上記車体部品の設計に用いられる3次元設計データとの双方からそれぞれ、上記施工部位と上記車体部品において上記施工部位と異なる基準部位とを抽出する抽出部と、
    上記基準部位を位置合わせ基準にして上記3次元画像データの座標系と上記3次元設計データの座標系とを合わせることにより、上記3次元画像データ及び上記3次元設計データの位置合わせを行う位置合わせ部と、
    上記位置合わせ部によって位置合わせされた上記3次元画像データ及び上記3次元設計データについて、上記抽出部によって上記3次元画像データから抽出された上記施工部位と上記抽出部によって上記3次元設計データから抽出された上記施工部位との関係を判定する判定部と、を備える、車体部品の施工部位判定システム。
  2. 上記処理装置の上記抽出部は、上記施工部位及び上記基準部位のそれぞれの形状の特徴を識別するように予め機械学習がなされた分類器を有し、上記分類器によって上記施工部位及び上記基準部位のそれぞれを抽出する、請求項1に記載の、車体部品の施工部位判定システム。
  3. 上記処理装置の上記判定部は、上記3次元画像データから上記施工部位が抽出され且つ該施工部位と上記3次元設計データから抽出された上記施工部位との間の距離が予め設定された許容値を下回る場合に、上記関係として上記車体部品における上記施工部位に設計通りの施工がなされていると判定する、請求項1または2に記載の、車体部品の施工部位判定システム。
  4. 上記車体部品における上記施工部位は、スポット溶接による打点が形成される部位である、請求項1〜のいずれか一項に記載の、車体部品の施工部位判定システム。
  5. 上記処理装置の上記判定部による判定結果を出力する出力装置を備える、請求項1〜のいずれか一項に記載の、車体部品の施工部位判定システム。
  6. 上記出力装置は、上記判定結果とともに上記施工部位の3次元画像を表示する、請求項に記載の、車体部品の施工部位判定システム。
  7. 車体部品の施工部位を判定する、車体部品の施工部位判定方法であって、
    上記車体部品の3次元画像を記録する撮影装置を準備し、
    上記撮影装置によって記録された上記車体部品の3次元画像を3次元画像データに変換し、
    変換した上記3次元画像データと上記車体部品の設計に用いられる3次元設計データとの双方からそれぞれ、上記施工部位と上記車体部品において上記施工部位と異なる基準部位とを抽出し、
    抽出した上記基準部位を位置合わせ基準にして上記3次元画像データの座標系と上記3次元設計データの座標系とを合わせることにより、上記3次元画像データ及び上記3次元設計データの位置合わせを行い、
    位置合わせした上記3次元画像データ及び上記3次元設計データについて、上記3次元画像データから抽出した上記施工部位と上記3次元設計データから抽出した上記施工部位との関係を判定する、車体部品の施工部位判定方法。
JP2016027110A 2016-02-16 2016-02-16 車体部品の施工部位判定システム及び施工部位判定方法 Active JP6658054B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016027110A JP6658054B2 (ja) 2016-02-16 2016-02-16 車体部品の施工部位判定システム及び施工部位判定方法
PCT/JP2016/077317 WO2017141475A1 (ja) 2016-02-16 2016-09-15 車体部品の施工部位判定システム及び施工部位判定方法
US15/807,764 US10507550B2 (en) 2016-02-16 2017-11-09 Evaluation system for work region of vehicle body component and evaluation method for the work region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016027110A JP6658054B2 (ja) 2016-02-16 2016-02-16 車体部品の施工部位判定システム及び施工部位判定方法

Publications (2)

Publication Number Publication Date
JP2017144454A JP2017144454A (ja) 2017-08-24
JP6658054B2 true JP6658054B2 (ja) 2020-03-04

Family

ID=59624950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016027110A Active JP6658054B2 (ja) 2016-02-16 2016-02-16 車体部品の施工部位判定システム及び施工部位判定方法

Country Status (3)

Country Link
US (1) US10507550B2 (ja)
JP (1) JP6658054B2 (ja)
WO (1) WO2017141475A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6669714B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 教示操作盤およびロボット制御システム
CN109186457B (zh) * 2018-09-14 2021-02-12 天津玛特检测设备有限公司 一种双目的零件识别方法和装置及使用该装置的生产线
US12002192B2 (en) * 2021-11-16 2024-06-04 Solera Holdings, Llc Transfer of damage markers from images to 3D vehicle models for damage assessment

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0631683B1 (en) * 1992-03-20 2001-08-01 Commonwealth Scientific And Industrial Research Organisation An object monitoring system
US5809658A (en) * 1993-09-29 1998-09-22 Snap-On Technologies, Inc. Method and apparatus for calibrating cameras used in the alignment of motor vehicle wheels
US6963661B1 (en) * 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
JP3849505B2 (ja) * 2001-11-26 2006-11-22 株式会社デンソー 障害物監視装置及びプログラム
US20050264472A1 (en) * 2002-09-23 2005-12-01 Rast Rodger H Display methods and systems
JP2004078987A (ja) * 2003-10-20 2004-03-11 Jutaku Shizai Ryutsu Center:Kk 建築物の施工状況確認方法
US8275193B2 (en) * 2004-08-04 2012-09-25 America Gnc Corporation Miniaturized GPS/MEMS IMU integrated board
JP2006088160A (ja) * 2004-09-21 2006-04-06 Toyota Auto Body Co Ltd 溶接位置検査装置および溶接位置検査プログラム
DE102005056665B4 (de) * 2004-11-30 2011-03-17 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
US7966127B2 (en) * 2004-12-28 2011-06-21 Kabushiki Kaisha Toyota Chuo Kenkyusho Vehicle motion control device
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
JP2007152371A (ja) * 2005-12-01 2007-06-21 Kanto Auto Works Ltd 溶接打点位置検査システム
JP2008261749A (ja) * 2007-04-12 2008-10-30 Takata Corp 乗員検出装置、作動装置制御システム、シートベルトシステム、車両
WO2009016925A1 (ja) * 2007-07-31 2009-02-05 Kabushiki Kaisha Toyota Jidoshokki 駐車支援装置、駐車支援装置の車両側装置、駐車支援方法及び駐車支援プログラム
JP4975592B2 (ja) * 2007-11-19 2012-07-11 アルプス電気株式会社 撮像装置
JP5293994B2 (ja) * 2008-01-21 2013-09-18 トヨタ車体株式会社 溶接検査方法、溶接検査装置、溶接検査プログラム
JP2010025615A (ja) * 2008-07-16 2010-02-04 Central Motor Co Ltd 自動スポット溶接検査システム
JP5112998B2 (ja) * 2008-09-16 2013-01-09 本田技研工業株式会社 車両周囲監視装置
JP5190712B2 (ja) * 2009-03-24 2013-04-24 アイシン精機株式会社 障害物検出装置
EP2416292A4 (en) * 2009-03-31 2014-09-03 Konica Minolta Holdings Inc IMAGE INTEGRATION UNIT AND IMAGE INTEGRATION PROCESS
JP5272891B2 (ja) * 2009-05-21 2013-08-28 トヨタ車体株式会社 スポット溶接の打点位置電子化装置、スポット溶接の打点位置電子化方法、及びスポット溶接の打点位置電子化プログラム
JP5740241B2 (ja) * 2011-08-03 2015-06-24 株式会社東芝 車両検出装置
JP5840909B2 (ja) * 2011-10-14 2016-01-06 日立Geニュークリア・エナジー株式会社 検査装置及び方法
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
US9591274B2 (en) * 2012-07-27 2017-03-07 Nissan Motor Co., Ltd. Three-dimensional object detection device, and three-dimensional object detection method
US9721169B2 (en) * 2012-07-27 2017-08-01 Clarion Co., Ltd. Image processing device for detecting vehicle in consideration of sun position
JP6282157B2 (ja) * 2014-03-31 2018-02-21 ダイハツ工業株式会社 形状認識装置
JP6565148B2 (ja) * 2014-09-05 2019-08-28 アイシン精機株式会社 画像表示制御装置および画像表示システム
JP2017146228A (ja) * 2016-02-18 2017-08-24 トヨタ自動車株式会社 溶接位置検査システム

Also Published As

Publication number Publication date
US20180065211A1 (en) 2018-03-08
US10507550B2 (en) 2019-12-17
JP2017144454A (ja) 2017-08-24
WO2017141475A1 (ja) 2017-08-24

Similar Documents

Publication Publication Date Title
JP5713159B2 (ja) ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
US8659660B2 (en) Calibration apparatus and calibration method
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
US11654571B2 (en) Three-dimensional data generation device and robot control system
US11094120B2 (en) Inspection processing system, inspection processing method, and inspection processing program
US20130063570A1 (en) System and Method for Remote Full Field Three-Dimensional Displacement and Strain Measurements
US20190033074A1 (en) Inspection processing system, inspection processing method, and inspection processing program
JP6658054B2 (ja) 車体部品の施工部位判定システム及び施工部位判定方法
EP3239931A1 (en) Image processing apparatus and image processing method
CN110926330B (zh) 图像处理装置和图像处理方法
JP5334237B2 (ja) 埋金設置位置照合方法および埋金設置位置照合システム
JP2008235504A (ja) 組立品検査装置
WO2011118476A1 (ja) 3次元距離計測装置及びその方法
JP2015005181A (ja) 情報処理装置、判定方法および判定プログラム
WO2017115620A1 (ja) 変形加工支援システムおよび変形加工支援方法
JP2018092636A (ja) 複数のカメラに対する複数部品コレスポンダ
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
KR101892740B1 (ko) 통합 이미지 마커 생성 방법 및 그 방법을 수행하는 시스템
JP2009289046A (ja) 3次元データを用いた作業支援装置及び方法
JP5574551B2 (ja) 画像処理装置および画像処理方法
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP2013170831A (ja) ひずみ計測装置及びひずみ計測方法
JP7336253B2 (ja) 据付物の施工方法
WO2022107548A1 (ja) 3次元骨格検出方法及び3次元骨格検出装置
JP2019185448A (ja) 部品管理データベース、部品管理システム、および部品管理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6658054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250