JP7414540B2 - 確率取得装置及び確率取得方法 - Google Patents

確率取得装置及び確率取得方法 Download PDF

Info

Publication number
JP7414540B2
JP7414540B2 JP2020004590A JP2020004590A JP7414540B2 JP 7414540 B2 JP7414540 B2 JP 7414540B2 JP 2020004590 A JP2020004590 A JP 2020004590A JP 2020004590 A JP2020004590 A JP 2020004590A JP 7414540 B2 JP7414540 B2 JP 7414540B2
Authority
JP
Japan
Prior art keywords
image
zebra
processing
predetermined
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020004590A
Other languages
English (en)
Other versions
JP2021111275A (ja
Inventor
亮 中岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020004590A priority Critical patent/JP7414540B2/ja
Priority to US17/141,626 priority patent/US11640535B2/en
Publication of JP2021111275A publication Critical patent/JP2021111275A/ja
Application granted granted Critical
Publication of JP7414540B2 publication Critical patent/JP7414540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物の2つの3次元画像間における一致及び不一致の確率を取得する確率取得装置などに関する。
従来、特許文献1に記載された画像監視装置が知られている。この画像監視装置は、所定空間における人や不審物の存在を監視するものであり、監視カメラ及び画像処理部などを備えている。この画像処理部では、監視空間の3次元の実画像を監視カメラによって撮影し、この実画像に対してエッジ処理が実行される。
また、メモリ内の3次元モデルなどを用いて監視空間の模擬画像を作成し、この摸擬画像に対してエッジ処理が実行される。そして、エッジ処理済みの実画像及び摸擬画像を比較することにより、実画像の摸擬画像に対する相違画素を取得し、この相違画素に基づいて、物体の検知などが実行される。
特許第6548686号公報
近年、自動車などの3次元の対象物を設計する際、クレイモデルなどの試作品を作成し、所定の3D-CADソフトウエアを用いて、この試作品の摸擬画像である3D-CAD画像を作成することが実施されている。この場合、3D-CAD画像は、試作品の外観形状に対して可能な限り近い精度が要求されるので、試作品を測定又は撮影したデータから実画像を作成した場合、3D-CAD画像をこの実画像に可能な限り近づける必要性がある。これを実現するには、3D-CAD画像と実画像の間における一致及び不一致の確率を精度よく取得する必要がある。
これに対して、前述した特許文献1の手法によって、上記の3D-CAD画像と実画像の間における一致及び不一致の確率を取得しようとした際、この確率を精度よく取得できないという問題がある。この問題は、3D-CAD画像に限らず、他のソフトウエアを用いて作成された摸擬画像と実画像の間における一致及び不一致の確率を取得する際にも発生する。また、これらの摸擬画像と実画像の間に限らず、対象物の3次元の摸擬画像と、対象物を測定又は撮影したデータから取得した3次元画像との間における一致及び不一致の確率を精度よく取得することが望まれている。
本発明は、上記課題を解決するためになされたもので、対象物の2つの3次元画像を用いて、両者の一致及び不一致の確率を精度よく取得することができる確率取得装置などを提供することを目的とする。
上記目的を達成するために、請求項1に係る確率取得装置1は、対象物を測定又は撮影したデータに基づき、対象物の3次元画像である第1画像を取得する第1画像取得部11と、対象物の3次元の模擬画像である第2画像を取得する第2画像取得部12と、第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同一縦横サイズの画像として取得するゼブラ画像取得部13と、第1ゼブラ画像から対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより、第1選択画像を取得するとともに、第2ゼブラ画像から第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより、第2選択画像を取得する選択画像取得部14と、第1選択画像及び第2選択画像を所定の機械学習モデルに入力することにより、所定の機械学習モデルの出力として、第1選択画像及び第2選択画像の間における一致及び不一致の確率を取得する確率取得部15,150と、を備え、所定の第1画像処理では、第1ゼブラ画像から選択した一部の画像領域に対して、所定のノイズ除去処理が施され、所定の第2画像処理では、第2ゼブラ画像から選択した同一部分の画像領域に対して、所定の特徴量抽出処理が施されることを特徴とする。
この確率取得装置によれば、対象物を実際に測定又は撮影したデータに基づき、対象物の3次元の第1画像が取得され、対象物の3次元の模擬画像である第2画像が取得される。さらに、第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とが、同一アングル、同一縮尺及び同一縦横サイズの画像として取得される。
さらに、第1ゼブラ画像から対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより、第1選択画像が取得されるとともに、第2ゼブラ画像から第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより、第2選択画像が取得される。そして、第1選択画像及び第2選択画像を所定の機械学習モデルに入力することにより、所定の機械学習モデルの出力として、第1選択画像及び第2選択画像の間における一致及び不一致の確率が取得される。したがって、この所定の機械学習モデルとして、モデルパラメータが十分に学習されたものを用いることにより、第1選択画像及び第2選択画像の間における一致及び不一致の確率を精度よく取得することができる。
この確率取得装置によれば、第1ゼブラ画像から選択した一部の画像領域に対して、所定のノイズ除去処理を施すことにより、第1選択画像が取得されるので、第1ゼブラ画像におけるノイズの影響を抑制しながら、第1選択画像を取得することができる。また、第2ゼブラ画像から選択した第1選択画像と同一部分の画像領域に対して、所定の特徴量抽出処理を施すことにより、第2選択画像が取得されるので、選択部分の画像領域の特徴をより反映させながら、第2選択画像を取得することができる。以上により、第1選択画像及び第2選択画像の間における一致及び不一致の確率を取得する際、その取得精度を向上させることができる。
請求項に係る発明は、請求項に記載の確率取得装置1において、所定のノイズ除去処理は、メディアンフィルタ処理及び縮小・膨張処理の一方であることを特徴とする。
この確率取得装置によれば、第1ゼブラ画像から選択した一部の画像領域に対して、メディアンフィルタ処理及び縮小・膨張処理の一方が施されるので、この画像領域に含まれるノイズの影響を抑制しながら、第1選択画像を取得することができる。
請求項に係る発明は、請求項1又は2に記載の確率取得装置1において、所定の特徴量抽出処理は、Sobelフィルタ処理、CANNY法及びskelton法の1つであることを特徴とする。
この確率取得装置によれば、Sobelフィルタ処理、CANNY法及びskelton法の1つを用いて、第2ゼブラ画像から選択した部分の画像における特徴量を適切に抽出しながら、第2選択画像を取得することができる。
請求項に係る発明は、請求項1ないしのいずれかに記載の確率取得装置1において、ゼブラ画像取得部13は、第1ゼブラ画像及び第2ゼブラ画像をいずれもグレースケール画像として取得することを特徴とする。
この確率取得装置によれば、第1ゼブラ画像及び第2ゼブラ画像がいずれもグレースケール画像として取得されるので、第1ゼブラ画像及び第2ゼブラ画像としてカラー画像を用いた場合と比べて、画像処理時の演算負荷を低減できるとともに、着色状態に起因する誤差の発生を抑制することができる。
上記目的を達成するために、請求項5に係る確率取得装置1は、対象物を測定又は撮影したデータに基づき、対象物の3次元画像である第1画像を取得する第1画像取得部11と、対象物の3次元の模擬画像である第2画像を取得する第2画像取得部12と、第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同一縦横サイズの画像として取得するゼブラ画像取得部13と、第1ゼブラ画像から対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより、第1選択画像を取得するとともに、第2ゼブラ画像から第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより、第2選択画像を取得する選択画像取得部14と、第1選択画像及び第2選択画像を所定の機械学習モデルに入力することにより、所定の機械学習モデルの出力として、第1選択画像及び第2選択画像の間における一致及び不一致の確率を取得する確率取得部15,150と、を備え、所定の機械学習モデルは、CNN15bであり、選択画像取得部14は、第1選択画像及び第2選択画像を縦横比が1:1の画像として取得し、確率取得部15は、第1選択画像及び第2選択画像を互いに重畳した1つの重畳画像としてCNN15bに入力することを特徴とする。
この確率取得装置によれば、所定の機械学習モデルとして、モデルパラメータが十分に学習されたものを用いることにより、第1選択画像及び第2選択画像の間における一致及び不一致の確率を精度よく取得することができる。一般に、機械学習モデルがCNN(畳み込みニューラルネットワーク)である場合、これに入力する画像の縦横比が1:1の画像でないときには、縦横比を1:1にするための何らかの画像処理工程が必要になる。これに対して、この確率取得装置によれば、第1選択画像及び第2選択画像は、縦横比が1:1の画像として取得され、互いに重畳した1つの重畳画像としてCNNに入力されるので、CNNのモデルパラメータの学習を実行する際、その学習作業を容易に実行することができる。
さらに、前述した目的を達成するために、請求項に係る確率取得方法は、対象物を測定又は撮影したデータに基づき、対象物の3次元画像である第1画像を取得し、対象物の3次元の模擬画像である第2画像を取得し、第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同一縦横サイズの画像として取得し、第1ゼブラ画像から対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより第1選択画像を取得し、第2ゼブラ画像から第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより第2選択画像を取得し、第1選択画像及び第2選択画像を所定の機械学習モデルに入力することにより、第1選択画像及び第2選択画像の間における一致及び不一致の確率を取得し、所定の第1画像処理では、第1ゼブラ画像から選択した一部の画像領域に対して、所定のノイズ除去処理が施され、所定の第2画像処理では、第2ゼブラ画像から選択した同一部分の画像領域に対して、所定の特徴量抽出処理が施されることを特徴とする。
また、前述した目的を達成するために、請求項7に係る確率取得方法は、対象物を測定又は撮影したデータに基づき、対象物の3次元画像である第1画像を取得し、対象物の3次元の模擬画像である第2画像を取得し、第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同一縦横サイズの画像として取得し、第1ゼブラ画像から対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより第1選択画像を縦横比が1:1の画像として取得し、第2ゼブラ画像から第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより第2選択画像を取得し、第1選択画像及び第2選択画像を互いに重畳した1つの重畳画像としてCNNに入力することにより、第1選択画像及び第2選択画像の間における一致及び不一致の確率を取得することを特徴とする。
本発明の一実施形態に係る確率取得装置としてのパーソナルコンピュータを示す図である。 確率取得装置の機能的な構成を示すブロック図である。 ゼブラ画像取得部の機能的な構成を示すブロック図である。 第1ゼブラ画像の一例を示す図である。 第2ゼブラ画像の一例を示す図である。 選択画像取得部の機能的な構成を示すブロック図である。 第1選択画像の一例を示す図である。 第2選択画像の一例を示す図である。 確率取得部の機能的な構成を示すブロック図である。 第1ゼブラ画像の他の一例を示す図である。 第2ゼブラ画像の他の一例を示す図である。 ヒートマップの一例を示す図である。 第1選択画像及び第2選択画像が一致しているときのディスプレイの表示例を示す図である。 第1選択画像及び第2選択画像が不一致であるときのディスプレイの表示例を示す図である。 ノイズ除去済みの第1ゼブラ画像の一例を示す図である。 図12の画像からトリミングした第1選択画像の一例を示す図である。 図12の画像からトリミングした第1選択画像の他の一例を示す図である。 図12の画像からトリミングした第1選択画像のさらに他の一例を示す図である。
以下、図面を参照しながら、本発明の一実施形態に係る確率取得装置について説明する。本実施形態の確率取得装置では、以下に述べるように、対象物としての自動車のクレイモデル(図示せず)に基づいて作成された3次元画像と、3D-CADソフトを用いて作成された3次元画像とを比較することにより、両者の一致及び不一致の確率などが取得される。
図1に示すように、本実施形態の確率取得装置1は、パーソナルコンピュータタイプのものであり、ディスプレイ1a、装置本体1b及び入力インターフェース1cなどを備えている。装置本体1bは、HDDなどのストレージ、プロセッサ及びメモリ(RAM、E2PROM、ROMなど)などを備えている(いずれも図示せず)。
この装置本体1bのストレージには、3次元CADソフト及び後述する各種処理を実行するためのアプリケーションソフトがインストールされている。また、入力インターフェース1cは、確率取得装置1を操作するためのキーボード及びマウスなどで構成されている。
次に、図2を参照しながら、本実施形態の確率取得装置1の機能的な構成について説明する。同図に示すように、確率取得装置1は、第1画像取得部11、第2画像取得部12、ゼブラ画像取得部13、選択画像取得部14及び確率取得部15を備えている。
この第1画像取得部11では、以下に述べる手法によって、第1画像が3次元画像として自動車のクレイモデルから取得される。まず、図示しない3次元スキャナによって、自動車のクレイモデルをスキャニングすることにより、点群データを取得し、この点群データに対してポリゴンメッシュ処理を施すことにより、ポリゴンメッシュデータが取得される。
次いで、このポリゴンメッシュデータをシェーディング表示した画像として、第1画像が取得される。以上のように取得された第1画像は、ゼブラ画像取得部13に入力される。
また、第2画像取得部12では、上記のポリゴンメッシュデータを、装置本体1bのストレージ内のCADソフトで読み込んだ後、CADソフトによって、ポリゴンメッシュデータからサーフェースデータを作成し、これをシェーディング表示した摸擬画像として、第2画像が取得される。この第2画像は、第1画像と同一部位の3次元画像であって、同一アングル、同一縮尺及び同一縦横サイズの画像として取得される。以上のように取得された第2画像は、ゼブラ画像取得部13に入力される。
次に、前述したゼブラ画像取得部13について説明する。このゼブラ画像取得部13では、以下に述べるように、上述した第1画像及び第2画像から、第1ゼブラ画像及び第2ゼブラ画像が取得される。
図3に示すように、ゼブラ画像取得部13は、ゼブラシェーディング部13a及びグレースケール変換部13bを備えている。このゼブラシェーディング部13aでは、上述した第1画像及び第2画像に対して、ゼブラシェーディング処理が施される。
また、グレースケール変換部13bでは、ゼブラシェーディング処理済みの第1画像及び第2画像をグレースケール変換することにより、第1ゼブラ画像及び第2ゼブラ画像が作成される。
例えば、第1ゼブラ画像は、図4Aに示すように作成され、第2ゼブラ画像は、図4Bに示すように作成される。両図に示すように、第1ゼブラ画像及び第2ゼブラ画像は、両者が同一アングル、同一縮尺及び同一縦横サイズ(同一の画素数)の画像として作成される。以上のように作成された第1ゼブラ画像及び第2ゼブラ画像は、選択画像取得部14に入力される。
次に、前述した選択画像取得部14について説明する。この選択画像取得部14では、以下に述べるように、上述した第1ゼブラ画像及び第2ゼブラ画像から、第1選択画像及び第2選択画像が取得される。
図5に示すように、選択画像取得部14は、ノイズ除去部14a、特徴量抽出部14b及びトリミング部14cを備えている。この選択画像取得部14では、第1ゼブラ画像がノイズ除去部14aに入力され、第2ゼブラ画像が特徴量抽出部14bに入力される。
このノイズ除去部14aでは、メディアンフィルタ処理により、第1ゼブラ画像のノイズが除去される。なお、本実施形態では、メディアンフィルタ処理及びトリミング処理が所定の第1画像処理に相当し、メディアンフィルタ処理が所定のノイズ除去処理に相当する。その後、ノイズ除去済みの第1ゼブラ画像は、トリミング部14cに入力される。
また、特徴量抽出部14bでは、Sobelフィルタ処理により、第2ゼブラ画像の特徴量が抽出される。なお、本実施形態では、Sobelフィルタ処理及びトリミング処理が所定の第2画像処理に相当し、Sobelフィルタ処理が所定の特徴量抽出処理に相当する。その後、特徴量抽出済みの第2ゼブラ画像は、トリミング部14cに入力される。
一方、トリミング部14cでは、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像から、トリミング処理により、1つの第1選択画像及び1つの第2選択画像を1組として、n(nは正の整数)組の第1選択画像及び第2選択画像が取得される。
この場合、各組の第1選択画像及び第2選択画像は、互いに同一の領域の部分であって、正方形の画像すなわち縦横比が1:1の画像として取得される。これは、以下の理由による。すなわち、後述するように、第1選択画像及び第2選択画像を互いに重畳することにより、重畳画像が作成され、これがCNNに入力される関係上、第1選択画像及び第2選択画像が縦横比が1:1の画像でない場合には、何らかの画像処理工程により、これらを縦横比が1:1の画像にする必要がある。したがって、このような画像処理工程を不要とするために、各組の第1選択画像及び第2選択画像は、縦横比が1:1の画像として取得される。
例えば、図6Aに示すように、正方形の領域の第1選択画像がノイズ除去済みの第1ゼブラ画像からトリミングされた場合、図6Bに示すように、正方形の領域の第2選択画像が、特徴量抽出済みの第2ゼブラ画像からトリミングされる。本実施形態の場合、以上のように、トリミング部14cでのトリミング手法が実施される。なお、トリミング部14cでのトリミング手法は以上の手法に限らず、後述するような手法を用いてもよい。
また、n組の第1選択画像及び第2選択画像は、正方形の画像として取得されるものであればよく、各組の第1選択画像及び第2選択画像のサイズが異なるように取得されてもよい。例えば、1組の第1選択画像及び第2選択画像と、他の1組の第1選択画像及び第2選択画像とが異なるサイズで取得されるように構成してもよい。さらに、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像がいずれも正方形の画像である場合には、第1ゼブラ画像全体を第1選択画像とし、第2ゼブラ画像全体を第2選択画像として取得してもよい。
本実施形態では、n組の第1選択画像及び第2選択画像が選択画像取得部14において以上のように取得された後、確率取得部15に入力される。
次に、確率取得部15について説明する。この確立取得部15では、以下に述べるように、n組の第1選択画像及び第2選択画像において、各組の第1選択画像及び第2選択画像の間における一致及び不一致の判定などが実行される。
図7に示すように、確率取得部15は、重畳画像作成部15a、CNN15b、可否判定部15c及びヒートマップ作成部15dを備えている。
この重畳画像作成部15aでは、各組の第1選択画像及び第2選択画像を互いに重畳することにより、n個の重畳画像が作成される。すなわち、重畳画像は、その縦横のサイズが第1選択画像及び第2選択画像と同じものとして作成される。以上のように作成されたn個の重畳画像は、1個ずつ、CNN(畳み込みニューラルネットワーク)15bに入力される。
CNN15bでは、上記の重畳画像が入力された場合、重畳画像に含まれる第1選択画像及び第2選択画像の「一致」及び「不一致」をラベルとして、一致ラベル及び不一致ラベルの確率が出力される。この場合、一致ラベルの確率は、値0~1の範囲内の値として出力され、不一致ラベルの確率は、値1から一致ラベルの確率を減算した値として出力される。
このCNN15bの場合、そのモデルパラメータ(重み及びバイアス)は、以下に述べるように学習されている。まず、学習用データとして、一致データ及び不一致データが作成される。この一致データは、互いに一致している第1選択画像及び第2選択画像を重畳するとともに、「一致」のラベルを付与したデータとして作成される。
また、不一致データは、互いに不一致の第1選択画像及び第2選択画像を重畳するとともに、「不一致」のラベルを付与したデータとして作成される。
そして、一致データをCNN15bに入力した際には、値「1」とCNN15bから出力される一致ラベルの確率との損失関数(例えば平均2乗和誤差)を用いて、バックプロパゲーション法などにより、CNN15bのモデルパラメータの学習が実行される。
これと同様に、不一致データをCNN15bに入力した際には、値「1」とCNN15bから出力される不一致ラベルの確率との損失関数(例えば平均2乗和誤差)を用いて、バックプロパゲーション法などにより、CNN15bのモデルパラメータの学習が実行される。
本実施形態のCNN15bの場合、以上の手法によりモデルパラメータが十分に学習されている。それにより、上記の重畳画像がCNN15bに入力された場合、一致ラベル及び不一致ラベルの確率が出力されるとともに、その一致ラベルの確率が可否判定部15cに入力される。この一致ラベルの確率は、入力された重畳画像における第1選択画像及び第2選択画像の一致の確率を表すものである。
この可否判定部15cでは、一致ラベルの確率を百分率のスコアに変換した場合において、そのスコアが所定値(例えば50%)以上であるときには、重畳画像における1組の第1選択画像及び第2選択画像が一致していると判定され、スコアが所定値(例えば50%)未満であるときには、1組の第1選択画像及び第2選択画像が不一致であると判定される。
この可否判定部15cの場合、以上の第1選択画像及び第2選択画像の一致/不一致の判定が、n個の重畳画像の全てに対して実施される。そして、後述するように、n個の重畳画像の各々における判定結果及びスコアが、ディスプレイ1aに表示可能に構成されているとともに、n個の重畳画像全体に対する判定結果及びスコアも、ディスプレイ1aに表示可能に構成されている。
この場合、n個の重畳画像全体のスコアは、n個の重畳画像の各々におけるスコアの平均値として算出される。それにより、このn個の重畳画像全体のスコアは、第1ゼブラ画像と第2ゼブラ画像が全体として一致しているか否かを表す値となる。
また、ヒートマップ作成部15dでは、可否判定部15cにおいて、第1ゼブラ画像と第2ゼブラ画像が全体として不一致であると判定された場合、すなわち、n個の重畳画像全体のスコアが所定値未満である場合には、Grad-CAM++手法を用い、ヒートマップが重畳画像から作成される。例えば、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像として、図8A及び図8Bに示す画像をそれぞれ用いた場合、図9に示すように、ヒートマップが作成される。
このヒートマップは、n個の重畳画像における第1選択画像及び第2選択画像の一致及び不一致を判定した結果に基づいて作成される。この図9のヒートマップにおいて、色の濃い部分がCNN15bの最終層において反応の強かった箇所、すなわち第1選択画像及び第2選択画像の間で不一致の度合が大きかった箇所に相当する。
以上のように構成された確率取得部15の場合、ユーザが1組の第1選択画像及び第2選択画像の一致及び不一致の判定結果を参照する際、ユーザによる入力インターフェース1cの操作により、可否判定部15cの判定結果がディスプレイ1aに表示される。
例えば、可否判定部15cにおいて、1組の第1選択画像及び第2選択画像が一致していると判定された場合には、その判定結果が図10に示すように表示される。すなわち、ディスプレイ1aの画面の上部には、「判定結果:一致」の文字と「スコア:数値(図10では76.89)」の文字が表示され、その下方には、第2選択画像と、第1選択画像及び第2選択画像が一致していることを示すチェックマークが表示される。
また、ユーザが、第1ゼブラ画像及び第2ゼブラ画像が全体として一致しているか否かを参照する際にも、上記と同様の操作により、可否判定部15cの判定結果がディスプレイ1aに表示される。
例えば、可否判定部15cにおいて、第1ゼブラ画像及び第2ゼブラ画像が全体として不一致であると判定され、ヒートマップ作成部15dにおいて、ヒートマップが作成された場合、図11に示すように、それらの判定結果及びヒートマップがディスプレイ1aに表示される。すなわち、ディスプレイ1aの画面の上部には、「判定結果:不一致」の文字と「スコア:数値(図11では3.63)」の文字が表示され、その下方には、ヒートマップが表示される。
以上のように、本実施形態の確率取得装置1によれば、自動車のクレイモデルを3次元スキャナによってスキャニングすることにより、点群データが取得され、この点群データにポリゴンメッシュ処理などを施すことにより、ポリゴンメッシュデータが取得されるとともに、このポリゴンメッシュデータをシェーディング表示した画像として、3次元の第1画像が取得される。
また、CADソフトによって、ポリゴンメッシュデータからサーフェースデータが作成され、これをシェーディング表示した摸擬画像として、第2画像が取得される。この第2画像は、第1画像と同一部位の3次元画像であって、同一アングル、同一縮尺及び同一縦横サイズの画像として取得される。
さらに、第1ゼブラ画像に対して、メディアンフィルタ処理及びトリミング処理を施すことにより、第1選択画像が取得されるので、第1ゼブラ画像におけるノイズの影響を抑制しながら、第1選択画像を取得することができる。一方、第2ゼブラ画像に対して、Sobelフィルタ処理及びトリミング処理を施すことにより、第2選択画像が第1選択画像と同一部分の画像領域として取得されるので、第2ゼブラ画像から選択された画像領域の特徴をより反映させながら、第2選択画像を取得することができる。
そして、第1選択画像及び第2選択画像を互いに重畳することにより、重畳画像が作成され、これがCNN15bに入力されることにより、第1選択画像及び第2選択画像の間における一致及び不一致の確率が取得される。
このCNN15bの場合、前述したように、バックプロパゲーション法などによりモデルパラメータが十分に学習されているので、そのようなCNN15bを用いることによって、第1選択画像及び第2選択画像の間における一致及び不一致の確率を精度よく取得することができる。
さらに、n組の第1選択画像及び第2選択画像が取得されるので、第1ゼブラ画像及び第2ゼブラ画像において、不一致度合が大きい部分、一致度合の大きい部分、第1ゼブラ画像及び第2ゼブラ画像の間における全体としての一致/不一致度合を容易に判定することができる。これに加えて、第1選択画像及び第2選択画像の間において不一致の度合が高い場合、その要因となった箇所をヒートマップにより容易に特定することができる。
また、第1ゼブラ画像及び第2ゼブラ画像がいずれもグレースケール変換した画像として取得されるので、第1ゼブラ画像及び第2ゼブラ画像としてカラー画像を用いた場合と比べて、画像処理時の演算負荷を低減できるとともに、着色状態に起因する誤差の発生を抑制することができる。
なお、前述したトリミング部14cでのトリミング手法は、前述した画像の一部を正方形に切り出す手法に限らず、以下に述べる手法を用いてもよい。例えば、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像として、図12に示す横長の画像がトリミング部14cに入力された場合には、図12の画像を図13に示すような正方形の画像にリサイズする手法を用いてもよい。この場合には、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像から、1組の第1選択画像及び第2選択画像が取得されることになる。
また、図12の画像を、図14に示すように正方形の複数の画像に分割する手法を用いてもよい。この場合には、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像から、複数組の第1選択画像及び第2選択画像が取得されることになる。さらに、図12に示す横長の画像を、図15に示すように、正方形の画像の中央にスケーリングする手法を用いてよい。この場合には、ノイズ除去済みの第1ゼブラ画像及び特徴量抽出済みの第2ゼブラ画像から、1組の第1選択画像及び第2選択画像が取得されることになる。
なお、実施形態は、対象物として、自動車のクレイモデルを用いた例であるが、本発明の対象物は、これに限らず、他の物体を対象物としてもよい。例えば、ドライヤー又はアイロンを対象物としてもよく、これら以外の産業機器を対象物としてもよい。
また、実施形態は、3Dスキャナによって取得した対象物の点群データをポリゴンメッシュデータに変換した後、これをシェーディング表示した画像として第1画像を取得した例であるが、本発明の第1画像は、これに限らず、対象物を測定又は撮影したデータに基づいて取得された3次元画像であればよい。例えば、高精度デジタルカメラによって対象物を撮影した撮影データから3次元画像を作成し、これを第1画像として用いてもよい。
さらに、実施形態は、3Dスキャナによって取得した対象物の点群データをポリゴンメッシュデータに変換した後、CADソフトによって、このポリゴンメッシュデータからサーフェースデータを作成し、これをシェーディング表示した摸擬画像として、第2画像を取得した例であるが、本発明の第2画像は、これに限らず、対象物の3次元の模擬画像であればよい。例えば、第2画像として、CADソフト以外の、3Dレンダリング手法によって、ポリゴンメッシュデータから作成した摸擬画像を用いてもよい。
一方、実施形態は、所定の機械学習モデルとして、CNNを用いた例であるが、本発明の所定の機械学習モデルは、これに限らず、第1選択画像及び第2選択画像が入力されたときに、第1選択画像及び第2選択画像の間における一致及び不一致の確率を出力するものであればよい。例えば、所定の機械学習モデルとして、DNN(深層ニューラルネットワーク)又はRNN(再帰型ニューラルネットワーク)などを用いてもよい。
また、実施形態は、所定の第1画像処理として、メディアンフィルタ処理及びトリミング処理を用いた例であるが、本発明の所定の第1画像処理は、これらに限らず、第1ゼブラ画像から選択した一部の画像領域に対して、所定の第1画像処理を施すことにより、第1選択画像が取得されるものであればよい。例えば、所定の第1画像処理として、平滑化フィルタ処理及びトリミング処理を用いてもよい。
さらに、実施形態は、所定のノイズ除去処理として、メディアンフィルタ処理を用いた例であるが、これに代えて、縮小・膨張処理を用いてもよい。
一方、実施形態は、所定の第2画像処理として、所定の特徴量抽出処理及びトリミング処理を用いた例であるが、本発明の所定の第2画像処理は、これらに限らず、第2ゼブラ画像から選択した第1選択画像と同一部分の画像領域に対して、所定の第2画像処理を施すことにより、第2選択画像が取得されるものであればよい。例えば、所定の第2画像処理として、エッジ処理及びトリミング処理を用いてもよい。
また、実施形態は、所定の特徴量抽出処理として、Sobelフィルタ処理を用いた例であるが、これに代えて、CANNY法及びskelton法の一方を所定の特徴量抽出処理として用いてもよい。
さらに、実施形態は、第1ゼブラ画像及び第2ゼブラ画像として、グレースケール変換した画像を用いた例であるが、第1ゼブラ画像及び第2ゼブラ画像として、カラー画像を用いてもよい。このように、第1ゼブラ画像及び第2ゼブラ画像としてカラー画像を用いた場合、画像処理時の演算負荷が増大し、着色状態に起因する誤差が発生する関係上、これらの観点から、実施形態のように、グレースケール変換した画像を用いた方が有利である。
1 確率取得装置
11 第1画像取得部
12 第2画像取得部
13 ゼブラ画像取得部
14 選択画像取得部
15 確率取得部
15b CNN

Claims (7)

  1. 対象物を測定又は撮影したデータに基づき、前記対象物の3次元画像である第1画像を取得する第1画像取得部と、
    前記対象物の3次元の模擬画像である第2画像を取得する第2画像取得部と、
    前記第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、前記第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同一縦横サイズの画像として取得するゼブラ画像取得部と、
    前記第1ゼブラ画像から前記対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより、第1選択画像を取得するとともに、前記第2ゼブラ画像から当該第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより、第2選択画像を取得する選択画像取得部と、
    前記第1選択画像及び前記第2選択画像を所定の機械学習モデルに入力することにより、当該所定の機械学習モデルの出力として、前記第1選択画像及び前記第2選択画像の間における一致及び不一致の確率を取得する確率取得部と、
    を備え
    前記所定の第1画像処理では、前記第1ゼブラ画像から選択した前記一部の画像領域に対して、所定のノイズ除去処理が施され、前記所定の第2画像処理では、前記第2ゼブラ画像から選択した前記同一部分の画像領域に対して、所定の特徴量抽出処理が施されることを特徴とする確率取得装置。
  2. 請求項に記載の確率取得装置において、
    前記所定のノイズ除去処理は、メディアンフィルタ処理及び縮小・膨張処理の一方であることを特徴とする確率取得装置。
  3. 請求項1又は2に記載の確率取得装置において、
    前記所定の特徴量抽出処理は、Sobelフィルタ処理、CANNY法及びskelton法の1つであることを特徴とする確率取得装置。
  4. 請求項1ないし3のいずれかに記載の確率取得装置において、
    前記ゼブラ画像取得部は、前記第1ゼブラ画像及び前記第2ゼブラ画像をいずれもグレースケール画像として取得することを特徴とする確率取得装置。
  5. 対象物を測定又は撮影したデータに基づき、前記対象物の3次元画像である第1画像を取得する第1画像取得部と、
    前記対象物の3次元の模擬画像である第2画像を取得する第2画像取得部と、
    前記第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、前記第2画像にゼブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同一縦横サイズの画像として取得するゼブラ画像取得部と、
    前記第1ゼブラ画像から前記対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより、第1選択画像を取得するとともに、前記第2ゼブラ画像から当該第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより、第2選択画像を取得する選択画像取得部と、
    前記第1選択画像及び前記第2選択画像を所定の機械学習モデルに入力することにより、当該所定の機械学習モデルの出力として、前記第1選択画像及び前記第2選択画像の間における一致及び不一致の確率を取得する確率取得部と、
    を備え、
    前記所定の機械学習モデルは、CNNであり、
    前記選択画像取得部は、前記第1選択画像及び前記第2選択画像を縦横比が1:1の画像として取得し、
    前記確率取得部は、前記第1選択画像及び前記第2選択画像を互いに重畳した1つの重畳画像として前記CNNに入力することを特徴とする確率取得装置。
  6. 対象物を測定又は撮影したデータに基づき、前記対象物の3次元画像である第1画像を取得し、
    前記対象物の3次元の模擬画像である第2画像を取得し、
    前記第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、前記第2画像にブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同縦横サイズの画像として取得し、
    前記第1ゼブラ画像から前記対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより第1選択画像を取得し、
    前記第2ゼブラ画像から当該第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより第2選択画像を取得し、
    前記第1選択画像及び前記第2選択画像を所定の機械学習モデルに入力することにより、前記第1選択画像及び前記第2選択画像の間における一致及び不一致の確率を取得し、
    前記所定の第1画像処理では、前記第1ゼブラ画像から選択した前記一部の画像領域に対して、所定のノイズ除去処理が施され、
    前記所定の第2画像処理では、前記第2ゼブラ画像から選択した前記同一部分の画像領域に対して、所定の特徴量抽出処理が施されることを特徴とする確率取得方法。
  7. 対象物を測定又は撮影したデータに基づき、前記対象物の3次元画像である第1画像を取得し、
    前記対象物の3次元の模擬画像である第2画像を取得し、
    前記第1画像にゼブラシェーディング処理を施した第1ゼブラ画像と、前記第2画像にブラシェーディング処理を施した第2ゼブラ画像とを、同一アングル、同一縮尺及び同縦横サイズの画像として取得し、
    前記第1ゼブラ画像から前記対象物の少なくとも一部の画像領域を選択して所定の第1画像処理を施すことにより第1選択画像を縦横比が1:1の画像として取得し、
    前記第2ゼブラ画像から当該第1選択画像と同一部分の画像領域を選択して所定の第2画像処理を施すことにより第2選択画像を縦横比が1:1の画像として取得し、
    前記第1選択画像及び前記第2選択画像を互いに重畳した1つの重畳画像としてCNNに入力することにより、前記第1選択画像及び前記第2選択画像の間における一致及び不一致の確率を取得することを特徴とする確率取得方法。
JP2020004590A 2020-01-15 2020-01-15 確率取得装置及び確率取得方法 Active JP7414540B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020004590A JP7414540B2 (ja) 2020-01-15 2020-01-15 確率取得装置及び確率取得方法
US17/141,626 US11640535B2 (en) 2020-01-15 2021-01-05 Probability acquisition apparatus and probability acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020004590A JP7414540B2 (ja) 2020-01-15 2020-01-15 確率取得装置及び確率取得方法

Publications (2)

Publication Number Publication Date
JP2021111275A JP2021111275A (ja) 2021-08-02
JP7414540B2 true JP7414540B2 (ja) 2024-01-16

Family

ID=76763166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004590A Active JP7414540B2 (ja) 2020-01-15 2020-01-15 確率取得装置及び確率取得方法

Country Status (2)

Country Link
US (1) US11640535B2 (ja)
JP (1) JP7414540B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099762A (ja) 1998-09-25 2000-04-07 Honda Motor Co Ltd 3次元cadモデルに対する陰影処理方法およびその装置
JP2014224803A (ja) 2013-04-26 2014-12-04 本田技研工業株式会社 ワーク品質判定方法及びワーク品質判定システム
US20170372127A1 (en) 2016-06-24 2017-12-28 Skusub LLC System and Method for Part Identification Using 3D Imaging

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6548686B2 (ja) 2017-03-30 2019-07-24 セコム株式会社 画像比較装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099762A (ja) 1998-09-25 2000-04-07 Honda Motor Co Ltd 3次元cadモデルに対する陰影処理方法およびその装置
JP2014224803A (ja) 2013-04-26 2014-12-04 本田技研工業株式会社 ワーク品質判定方法及びワーク品質判定システム
US20170372127A1 (en) 2016-06-24 2017-12-28 Skusub LLC System and Method for Part Identification Using 3D Imaging

Also Published As

Publication number Publication date
JP2021111275A (ja) 2021-08-02
US11640535B2 (en) 2023-05-02
US20210216748A1 (en) 2021-07-15

Similar Documents

Publication Publication Date Title
JP4926116B2 (ja) 画像検査装置
JP5777367B2 (ja) パターン識別装置、パターン識別方法及びプログラム
CN112184585B (zh) 一种基于语义边缘融合的图像补全方法及系统
CN113409461B (zh) 构建地貌地图的方法、装置、电子设备和可读存储介质
CN111696196A (zh) 一种三维人脸模型重建方法及装置
CN112581370A (zh) 人脸图像的超分辨率重建模型的训练及重建方法
CN110909615A (zh) 基于多尺度输入混合感知神经网络的目标检测方法
CN115908988B (zh) 一种缺陷检测模型生成方法、装置、设备以及存储介质
CN112884669A (zh) 基于多尺度内容注意力机制的图像修复方法、存储介质和终端
CN113077419A (zh) 用于髋关节ct影像识别的信息处理方法及装置
CN113744142B (zh) 图像修复方法、电子设备及存储介质
CN109448093B (zh) 一种风格图像生成方法及装置
CN113569896A (zh) 基于图像和深度数据进行对象3d定位的计算机实现方法
JP5295044B2 (ja) マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2023003763A (ja) 学習装置、画像処理装置、学習処理方法、及びプログラム
JP7414540B2 (ja) 確率取得装置及び確率取得方法
JP2003141567A (ja) 3次元都市モデル生成装置及び3次元都市モデル生成方法
CN111383054A (zh) 广告检验方法和装置
CN112116561B (zh) 基于图像处理融合网络权值的电网传输线检测方法及装置
JP3897306B2 (ja) 地理画像間変化領域の抽出の支援方法及び地理画像間変化領域の抽出を支援可能なプログラム
JP2775122B2 (ja) イラストデータの自動輪郭抽出ベクトル化処理方法,及びそれに使用する処理装置
JP6962662B2 (ja) 検出装置及びプログラム
CN114219757A (zh) 一种基于改进Mask R-CNN的车辆智能定损方法
CN113344838A (zh) 图像融合方法、装置、电子设备及可读存储介质
KR101117045B1 (ko) 부재 검색을 위한 3차원 데이터의 평활화를 위한 노이즈 제거 시스템 및 그 제거 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7414540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150