JP2023045749A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2023045749A
JP2023045749A JP2021154311A JP2021154311A JP2023045749A JP 2023045749 A JP2023045749 A JP 2023045749A JP 2021154311 A JP2021154311 A JP 2021154311A JP 2021154311 A JP2021154311 A JP 2021154311A JP 2023045749 A JP2023045749 A JP 2023045749A
Authority
JP
Japan
Prior art keywords
unit
image
information processing
imaging unit
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021154311A
Other languages
English (en)
Other versions
JP7317913B2 (ja
Inventor
秉哲 ▲裴▼
Byung-Chull Bae
翔太 斎藤
Shota Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021154311A priority Critical patent/JP7317913B2/ja
Publication of JP2023045749A publication Critical patent/JP2023045749A/ja
Application granted granted Critical
Publication of JP7317913B2 publication Critical patent/JP7317913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Figure 2023045749000001
【課題】製品の検定を柔軟かつ高精度に行うこと。
【解決手段】情報処理装置10の撮影部12は移動可能である。特定部161は、撮影部12によって撮影された画像に写るAR(Augmented Reality)マーカを基準に、空間における撮影部12の位置及び向きを特定する。抽出部163は、撮影部12によって撮影された画像から物体の所定の部分が写った領域を抽出する。検定部164は、抽出部163によって抽出された領域の画像、及び特定部161によって特定された撮影部12の位置及び向きを基に、部分があらかじめ定められた態様であるかどうかを検定する。
【選択図】図2

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
従来、CAD(Computer Aided Design)の情報を利用し、製品が設計通りに製造されているかどうかを検定する方法が知られている。
例えば、特許文献1には、押出成形品をスライスし金属サッシにはめ込んだワークを読み取った画像とCAD図面画像との重ね合わせを行い、指定部位について寸法計測を行い自動的に押出成形品の良否を判定する技術が記載されている。
また、例えば、特許文献2には、CAD情報を参照して基板画像中のスルーホールの存在範囲を大まかに特定した後、その存在範囲の中から画像認識処理によってスルーホールの詳細位置を特定する技術が記載されている。
特開2002-283439号公報 特開2006-105777号公報
しかしながら、従来の技術では、製品の検定を柔軟かつ高精度に行うことが難しい場合があるという問題がある。
例えば、特許文献1に記載の技術は、スライスされ金属サッシにはめ込まれた状態の製品の読み取り画像を使って検定を行うものである。このため、例えば読み取り位置を変更して検定を行う場合、再び製品のスライス及び金属サッシへのはめ込みという作業が必要になるため、柔軟な検定を行うことは難しい。
また、特許文献1及び特許文献2に記載の技術は、いずれも画像を使って平面的な検定を行うものであり、例えば奥行きを考慮した高精度な検定を行うことは困難である。
実施形態の情報処理装置は、移動可能な撮影部と、撮影部によって撮影された画像に写るAR(Augmented Reality)マーカを基準に、空間における撮影部の位置及び向きを特定する特定部と、撮影部によって撮影された画像から物体の所定の部分が写った領域を抽出する抽出部と、抽出部によって抽出された領域の画像、及び特定部によって特定された撮影部の位置及び向きを基に、部分があらかじめ定められた態様であるかどうかを検定する検定部と、を有することを特徴とする。
図1は、第1の実施形態に係る情報処理装置の使用方法の例を示す図である。 図2は、第1の実施形態に係る情報処理装置の構成例を示す図である。 図3は、3Dモデルの重畳について説明する図である。 図4は、撮影部の向きによる写り方の違いを説明する図である。 図5は、画像全体を走査して画像認識を行う方法を説明する図である。 図6は、抽出する位置を特定する方法を説明する図である。 図7は、検定対象を包含するオブジェクトについて説明する図である。 図8は、互いに類似する画像の例を示す図である。 図9は、互いに類似しない画像の例を示す図である。 図10は、位置及び向きを示唆するオブジェクトの例を示す図である。 図11は、設計との差分を表示する方法を説明する図である。 図12は、第1の実施形態に係る情報処理装置の処理の流れを示すフローチャートである。
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
(第1の実施形態)
図1は、第1の実施形態に係る情報処理装置の使用方法の例を示す図である。図1に示すように、ユーザは情報処理装置10を手に持ち、製品を撮影する。情報処理装置10には画像を撮影する撮影部(カメラ)と画面を表示する表示部(ディスプレイ)が備えられているものとする。例えば、情報処理装置10は、スマートフォン及びタブレット型端末である。
情報処理装置10は、製品が設計通りに製造されているかどうかを画像により検定する。例えば、画像のテンプレートマッチング又はディープラーニングを利用した画像認識等により検定を行う。例えば、情報処理は、溶接打点、ボルト穴、塗装等について検定を行う。
情報処理装置10は、製品の全数について検定を行うものであってもよいし、製品の一部をサンプリングして検定を行うものであってもよい。実施形態によれば、検定に要する時間を短縮し、単位時間で実施可能な件数を増加させることができる。
また、製品は、複数の部品を組み合わせたものであってもよいし、単一の部品であってもよい。また、製品は、完成品であってもよいし、製造工程の途中のものであってもよい。
情報処理装置10は、撮影した画像を用いて検定を行う。また、情報処理装置10は、検定の結果をユーザに通知したり、ユーザに撮影部の移動を促したりすることができる。
また、ユーザは、情報処理装置10を手に持ち空間における任意の方向へ移動させることができる。なお、情報処理装置10が移動すると、情報処理装置10と一体化した撮影部が移動する。
情報処理装置10はAR(Augmented Reality)機能を有する。例えば、情報処理装置10によれば、撮影した画像内の指定した場所にARオブジェクトを配置することができる。さらに、情報処理装置10は、撮影した画像にARオブジェクトを重畳させて表示することができる。
図2は、第1の実施形態に係る情報処理装置の構成例を示す図である。図2に示すように、情報処理装置10は、通信部11、撮影部12、表示部13、入力部14、記憶部15及び制御部16を有する。
通信部11は、ネットワークを介して、他の装置との間で有線又は無線によるデータ通信を行う。例えば、通信部11はNIC(Network Interface Card)である。
撮影部12は、画像を撮像する。例えば、撮影部12は、レンズ及び光学センサを備えたカメラである。撮影部12は、タブレット型端末である情報処理装置10と一体に構成されたものであってもよい。
また、撮影部12は移動可能であるものとする。撮影部12は、ユーザの手によって移動するものであってもよいし、アーム等により移動するものであってもよい。撮影部12は、移動可能であるため、物体を様々な位置及び向きで撮影することができる。
表示部13は、画面の表示を行うディスプレイ等の表示装置である。
入力部14は、ユーザからのデータの入力を受け付ける。入力部14は、例えば、マウスやキーボード等の入力装置である。なお、表示部13及び入力部14は、タッチパネルディスプレイであってもよい。
記憶部15は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等の記憶装置である。
記憶部15は、情報処理装置10で実行されるOS(Operating System)やプログラムを記憶する。さらに、記憶部15は、プログラムの実行で用いられる各種情報を記憶する。例えば、記憶部15は、AR情報151、オブジェクト情報152及び検定情報153を記憶する。
AR情報151は、ARマーカの情報である。例えば、AR情報151は、ARマーカとして機能する図形等の画像である。
オブジェクト情報152は、AR機能を使って配置されるオブジェクトの情報である。例えば、オブジェクト情報152は、検定対象の製品の3DCADデータである。
検定情報153は、検定対象ごとの検定の状況を示す情報である。例えば、検定情報153は、物体の部分ごとの検定を行った回数及び検定結果が含まれる。
なお、部分は、検定を行うための単位であり、1つの溶接打点、板の上に設けられた突起物、くぼみ、所定の範囲の塗装領域等である。
制御部16は、情報処理装置10を制御する。制御部16は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等である。例えば、制御部16は、特定部161、表示制御部162、抽出部163及び検定部164として機能する。
特定部161は、ARマーカの位置を原点とした場合の情報処理装置10の相対的な位置を特定することができる。また、ARマーカは、AR情報151として記憶部15に記憶されているものとする。
特定部161は、撮影部12によって撮影された画像に写るARマーカを基準に、空間における撮影部12の位置及び向きを特定することができる。
表示制御部162は、表示部13に画像を表示させる。表示制御部162は、撮影部12によって撮影された画像を表示部13に表示させる。また、表示制御部162は、生成した画面を表示部13に表示させる。
抽出部163は、撮影部12によって撮影された画像から物体の所定の部分が写った領域を抽出する。例えば、抽出部163は、Yoloのようなディープラーニングの手法を使って画像認識を実行する。
検定部164は、抽出部163によって抽出された領域の画像、及び特定部161によって特定された撮影部12の位置及び向きを基に、部分があらかじめ定められた態様であるかどうかを検定する。
例えば、抽出部163は、撮影部12によって撮影された画像から、金属板に設けられた溶接打点が写る矩形の領域を抽出する。そして、検定部164は、抽出部163によって抽出された領域に写る溶接打点の規定の位置又は大きさからのかい離度により検定を行う。
ここで、抽出部163は、領域ごとに認識対象の溶接打点(部分の一例)が存在する確率に応じたスコア(例えば、確信度又は信頼度)を出力する画像認識モデルを用いて抽出を行うものとする。また、画像認識モデルの学習には、規定の位置に既定の大きさで設けられた溶接打点の画像(教師データ)が用いられる。
この場合、抽出部163によって抽出された溶接打点が写る領域の画像とともに出力されたスコアが一定値以上である場合、当該溶接打点があらかじめ定められた態様にあるということができる。なお、教師データの画像と、撮影部12によって撮影された画像との類似度が大きいほど、スコアは大きくなる傾向があるものとする。
ここで、情報処理装置10は、ARに関する機能を使って柔軟かつ高精度な検定を実現することができる。以下の実施例において、検定の際に用いられる情報処理装置10の機能を説明する。なお、以降の説明における物体には、製品が含まれる。また、以下の各実施例は単独で実施されてもよいし、組み合わされて実施されてもよい。
(実施例1:3Dモデルを重畳表示)
表示制御部162は、物体又は部分を模した3Dモデルを、撮影部12によって撮影された画像に、ARマーカを基準に重畳させた画像を表示部13に表示させることができる。
図3は、3Dモデルの重畳について説明する図である。図3の画像200は、撮影部12によって撮影された物体20の画像である。
また、3Dモデル31は、製品である物体20の設計段階で3DCADによって作成され、オブジェクト情報152として記憶部15に格納されているものとする。
3Dモデル31には、あらかじめ打点311、打点312、打点313、打点314、打点315、打点316、ARマーカ321が備えられている。
表示制御部162は、AR機能により、画像200からARマーカを読み取り、3Dモデル31を画像200に重畳した画像400を生成する。そして、表示制御部162は、生成した画像400を表示部13に表示させる。
ユーザは、重畳表示された3Dモデル31を参照しながら撮影部12を所望の位置に移動させることができるため、柔軟な検定が可能になる。
(実施例2:効率的な画像取得)
情報処理装置10は、AR機能により、検定対象に対する撮影部12の相対的な位置及び向きを取得することができる。情報処理装置10は、取得した位置及び向きに応じて画像の抽出及び検定を行うことで、処理を効率化することができる。
なお、抽出部163及び検定部164が処理対象の画像を取得することは、撮影部12に所定のタイミングで静止画像を撮影させることによって実現されてもよいし、撮影部12が撮影する動画像から所定のフレームを抜き出すことによって実現されてもよい。
例えば、検定部164は、撮影部12の向きが所定の範囲にあるときに撮影された画像から、抽出部163によって抽出された領域の画像を基に、部分があらかじめ定められた態様であるかどうかを検定する。
図4に示すように、画像210a及び画像210bは、物体20の領域210の画像であるが、それぞれ撮影時の撮影部12の向きが異なる。このように、撮影部12の向きによって画像における検定対象の写り方が異なる。図4は、撮影部の向きによる写り方の違いを説明する図である。
例えば、撮影部12と検定対象が正対しているほど画像認識の精度が向上すると考えられる。そこで、検定部164は、撮影部12が矩形の領域210に対して垂直に近い向き(例えば80°~100°)にあるときに撮影された画像を用いて検定を行う。
画像210aは、撮影部12が、矩形の領域210に対して垂直に近い向き(例えば90°程度)であるときに撮影された画像から抽出された領域210の画像であるものとする。
一方、画像210bは、撮影部12が、矩形の領域210に対して垂直から遠い向き(例えば45°程度)であるときに撮影された画像から抽出された領域210の画像であるものとする。
この場合、検定部164は、画像210bを用いることなく、画像210aを用いて検定を行う。
画像認識においては、認識対象が画像に大きく写っている場合及び小さく写っている場合であっても、画像の縮小又は拡大により、認識対象を一定の大きさにした上で認識を行うことができる。
一方で、もともと一定のサイズで認識対象が撮影されている方が、画像認識の精度は向上する。
そこで、検定部164は、撮影部12と物体との間の距離が所定の範囲にあるときに撮影された画像から、抽出部163によって抽出された領域の画像を基に、部分があらかじめ定められた態様であるかどうかを検定する。
これにより、検定部164が、画像に写る検定対象の大きさを一定の大きさに揃えた上で検定を行うことができる。
また、従来の画像認識においては、図5に示すように、矩形の領域201を画像200の左上から全体を走査させながら処理を行う必要があった。この場合、検定と関係ない領域に対しても画像認識に関する処理が行われる。図5は、画像全体を走査して画像認識を行う方法を説明する図である。
一方、検定部164は、撮影部12の位置が所定の範囲にあるときに撮影された画像から、抽出部163によって抽出された領域の画像を基に、部分があらかじめ定められた態様であるかどうかを検定する。
図6に示すように、抽出部163は、AR機能を使い、検定対象の領域をARマーカ321からの相対的な位置により特定することができる。そして、抽出部163は、特定した領域について画像認識を行う。図6は、抽出する位置を特定する方法を説明する図である。
抽出部163は、オブジェクト情報152を参照し、あらかじめ記憶されたARマーカ321に対する打点312の位置を特定する。例えば、位置は空間の座標で表される。そして、抽出部163は、撮影部12が打点312を撮影可能な位置にあるときに撮影された画像を使って画像認識を行う。
これにより、画像全体を走査する必要が無くなり、処理量が削減でき、さらに正答率の低下につながるノイズを除去することができる。
(実施例3:検定対象のトラッキング)
情報処理装置10は、AR機能により、画像(フレーム)において認識された検知対象の空間における位置を保持しておくことができる。
検定部164は、検定を行った部分について、ARマーカに対する相対的な位置及び検定を行った回数を、検定情報153として記憶部15に記憶させる。
表示制御部162は、検定情報153を参照し、部分を包含するオブジェクトを、撮影部12によって撮影された画像における部分に重畳させて、部分の回数に応じた表示態様により表示部13に表示させる。表示態様は、色、パターン、形状、大きさ等である。
図7は、検定対象を包含するオブジェクトについて説明する図である。図7に示すように、表示制御部162は、検定が行われた部分に球のオブジェクトを表示させる。
図7の例では、表示制御部162は、球401、球402、球403、球404、球405、球406を、それぞれ打点311、打点312、打点313、打点314、打点315、打点316の近傍に表示させる。
例えば、球404及び球406の表示態様は、検定が行われた回数が1回であることを意味している。また、例えば、球403及び球405の表示態様は、検定が行われた回数が2回であることを意味している。また、例えば、球401及び球402の表示態様は、検定が行われた回数が3回であることを意味している。
また、例えば、抽出部163が同じ部分について複数の画像から領域を抽出する場合、複数の画像は互いに類似していない方が検定の精度が向上すると考えられる。
そこで、抽出部163は、検定情報153を参照し、撮影部12によって撮影された複数の画像であって、撮影時における撮影部12の位置及び向きの互いの相違の度合いが所定の閾値を超えている複数の画像から、部分が写った領域を抽出する。
図8は、互いに類似する画像の例を示す図である。また、図9は、互いに類似しない画像の例を示す図である。図8の画像411a、画像411b、画像411c、及び図9の画像421a、画像421b、画像421cは、いずれも撮影部12によって撮影された画像の打点314の近傍の領域を拡大したものである。
図8の画像411a、画像411b、画像411cは、撮影時の撮影部12の位置及び向きの互いの相違度が小さい。一方、図9の画像421a、画像421b、画像421cは、位置及び向きの互いの相違度が大きい。
具体的には、抽出部163は、撮影時の撮影部12の移動量の差(Δt)が閾値以上、又は撮影部12の角度差(ΔR)が閾値以上である複数の画像から領域を抽出する。
また、表示制御部162は、記憶部15を参照し、検定部164による検定が行われていない物体の部分を撮影できる撮影部12の位置及び向きを示唆するオブジェクトを表示部13に表示させる。
図10は、位置及び向きを示唆するオブジェクトの例を示す図である。図10の例では、矢印と吹き出しにより検定が行われていない部分の場所及び数が示唆されている。これにより、ユーザによる撮影部12の移動を誘導し、検定を効率化することができる。
(その他の機能)
図11に示すように、情報処理装置10は、3Dモデルの一部を画像に重畳させるともに、製造された部分ごとの設計との差分を表示することができる。図11は、設計との差分を表示する方法を説明する図である。
図11の例では、表示制御部162は、3Dモデルの打点315と、製造において実際に設けられた打点との間の距離が7mmであることを逆投影により表示部13に表示させている。
さらに、抽出部163は、撮影部12によって撮影された画像の画質が所定の条件を満たす場合に、画像から部分が写った領域を抽出する。
例えば、抽出部163は、AR機能により撮影部12の加速度を推定することができる。抽出部163は、撮影部12の加速度が小さくなり、静止状態に近いと判断できるときに撮影された画像から領域を抽出する。
これにより、ブレの少ない高い画質の画像を利用して検定を行うことが可能になる。なお、抽出部163は、情報処理装置10に備えられたジャイロセンサのセンサ値をさらに考慮して加速度を推定してもよい。
また、従来の画像認識では、オクルージョンを考慮しないため、認識対象の部分が死角になっている場合(例えば、板の裏側に隠れている場合)であっても、そのまま処理を実行する。その結果、死角になっている部分の検定結果が、設計通りでないという結果になることがある。
そこで、抽出部163は、物体を模した3Dモデルの法線情報及びARマーカを基に、部分が撮影部12によって撮影された画像に写っていると判定された場合に、画像から部分が写った領域を抽出する。
すなわち、抽出部163は、検定対象の部分が画像に写っていると判定できない場合、当該画像からは領域を抽出しない。これにより、オクルージョンを考慮した画像認識による検定が可能になる。
(第1の実施形態の処理)
図12は、第1の実施形態に係る情報処理装置の処理の流れを示すフローチャートである。まず、情報処理装置10は、物体を撮影する(ステップS101)。例えば、情報処理装置10は、ユーザの操作によって撮影を行う。
次に、情報処理装置10は、撮影した画像からARマーカを特定する(ステップS102)。
そして、情報処理装置10は、撮影した画像に物体の3Dモデルを重畳表示する(ステップS103)。情報処理装置10は、特定したARマーカを基準に3Dモデルを配置する。
続いて、情報処理装置10は、検定済みの部分に、検定の回数によって表示態様が異なるオブジェクトを重畳表示する(ステップS104)。例えば、情報処理装置10は、検定の回数によって色が異なる球のオブジェクトを重畳表示する。
また、情報処理装置10は、未検定の部分を撮影できる撮影部の位置及び向きを示唆するオブジェクトを表示する(ステップS105)。例えば、情報処理装置10は、未検定の部分の方向を示す矢印、及び当該部分の数を示す吹き出しを重畳表示する。
ここで、前回の検定時の画像との撮影部の移動量の差分(Δt)及び角度の差分(ΔR)がいずれも閾値以上でない場合(ステップS106、No)、情報処理装置10は、ステップS104に戻り引き続き待機する。
ここで、前回の検定時の画像との撮影部の移動量の差分(Δt)又は角度の差分(ΔR)が閾値以上である場合(ステップS106、Yes)、情報処理装置10は、画像から検定対象の部分が写った領域を抽出する(ステップS107)。
そして、情報処理装置10は、抽出された領域により検定対象の部分が設計通りであるかどうかを検定する(ステップS108)。
(第1の実施形態の効果)
これまで説明してきたように、情報処理装置10の撮影部12は移動可能である。特定部161は、撮影部12によって撮影された画像に写るAR(Augmented Reality)マーカを基準に、空間における撮影部12の位置及び向きを特定する。抽出部163は、撮影部12によって撮影された画像から物体の所定の部分が写った領域を抽出する。検定部164は、抽出部163によって抽出された領域の画像、及び特定部161によって特定された撮影部12の位置及び向きを基に、部分があらかじめ定められた態様であるかどうかを検定する。
ユーザは、撮影部12を移動させつつ製品(物体)を撮影し、検定を行うことができる。また、ユーザは、情報処理装置10のAR機能を利用することもできる。これにより、実施形態によれば、製品の検定を柔軟かつ高精度に行うことが可能になる。
表示制御部162は、物体又は部分を模した3Dモデルを、撮影部12によって撮影された画像に、ARマーカを基準に重畳させた画像を表示部13に表示させる。これにより、ユーザは、物体の検定の対象の部分を直感的に把握することができる。
検定部164は、撮影部12の向きが所定の範囲にあるときに撮影された画像から、抽出部163によって抽出された領域の画像を基に、部分があらかじめ定められた態様であるかどうかを検定する。これにより、撮影部12が検定対象に対して適切な向きにあるときに撮影された画像を用いて検定を行うことができ、検定の精度が向上する。
検定部164は、撮影部12と物体との間の距離が所定の範囲にあるときに撮影された画像から、抽出部163によって抽出された領域の画像を基に、部分があらかじめ定められた態様であるかどうかを検定する。これにより、適切なスケールの画像を用いて検定を行うことができ、検定の精度が向上する。
検定部164は、撮影部12の位置が所定の範囲にあるときに撮影された画像から、抽出部163によって抽出された領域の画像を基に、部分があらかじめ定められた態様であるかどうかを検定する。これにより、検定の対象の部分が写る画像をピンポイントで取得でき、画像全体を走査する場合と比べて処理の効率が向上する。
検定部164は、検定を行った部分について、ARマーカに対する相対的な位置及び検定を行った回数を記憶部15に記憶させる。これにより、同じ検定対象を除外したり、逆に同じ対象を複数回検定するといった柔軟な対応が可能になる。
表示制御部162は、記憶部15を参照し、部分を包含するオブジェクトを、撮影部12によって撮影された画像における部分に重畳させて、部分の回数に応じた表示態様により表示部13に表示させる。これにより、ユーザは検定の進行状況を直感的に把握することができるようになる。
抽出部163は、記憶部15を参照し、撮影部12によって撮影された複数の画像であって、撮影時における撮影部12の位置及び向きの互いの相違の度合いが所定の閾値を超えている複数の画像から、部分が写った領域を抽出する。これにより、類似しない複数の画像を使って検定を行うことができるようになる。
表示制御部162は、記憶部15を参照し、検定部164による検定が行われていない物体の部分を撮影できる撮影部12の位置及び向きを示唆するオブジェクトを表示部13に表示させる。これにより、ユーザは効率的に撮影部12を移動させることができる。
抽出部163は、撮影部12によって撮影された画像の画質が所定の条件を満たす場合に、画像から部分が写った領域を抽出する。これにより、より検定の精度が向上するような画像を得ることができる。
抽出部163は、物体を模した3Dモデルの法線情報及びARマーカを基に、部分が撮影部12によって撮影された画像に写っていると判定された場合に、画像から部分が写った領域を抽出する。これにより、オクルージョンを考慮した画像認識及び検定が可能になる。
なお、本実施形態の情報処理装置10で実行されるプログラムは、ROM等にあらかじめ組み込まれて提供される。本実施形態の情報処理装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでコンピュータにより読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、本実施形態の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の情報処理装置10で実行されるプログラムをインターネット等のネットワーク経由で提供又は配布するように構成してもよい。
本実施形態の情報処理装置10で実行されるプログラムは、上述した各部(特定部161、表示制御部162、抽出部163及び検定部164)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、特定部161、表示制御部162、抽出部163及び検定部164が主記憶装置上に生成されるようになっている。
本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 情報処理装置
11 通信部
12 撮影部
13 表示部
14 入力部
15 記憶部
16 制御部
20 物体
31 3Dモデル
151 AR情報
152 オブジェクト情報
153 検定情報
161 特定部
162 表示制御部
163 抽出部
164 検定部
200、210a、210b、400、411a、411b、411c、421a、421b、421c 画像
201、210 領域
311、312、313、314、315、316 打点
321 ARマーカ
401、402、403、404、405、406 球

Claims (13)

  1. 移動可能な撮影部と、
    前記撮影部によって撮影された画像に写るAR(Augmented Reality)マーカを基準に、空間における前記撮影部の位置及び向きを特定する特定部と、
    前記撮影部によって撮影された画像から物体の所定の部分が写った領域を抽出する抽出部と、
    前記抽出部によって抽出された領域の画像、及び前記特定部によって特定された前記撮影部の位置及び向きを基に、前記部分があらかじめ定められた態様であるかどうかを検定する検定部と、
    を有することを特徴とする情報処理装置。
  2. 前記物体又は前記部分を模した3Dモデルを、前記撮影部によって撮影された画像に、前記ARマーカを基準に重畳させた画像を表示部に表示させる表示制御部をさらに有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記検定部は、前記撮影部の向きが所定の範囲にあるときに撮影された画像から、前記抽出部によって抽出された領域の画像を基に、前記部分があらかじめ定められた態様であるかどうかを検定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記検定部は、前記撮影部と前記物体との間の距離が所定の範囲にあるときに撮影された画像から、前記抽出部によって抽出された領域の画像を基に、前記部分があらかじめ定められた態様であるかどうかを検定することを特徴とする請求項1又は2に記載の情報処理装置。
  5. 前記検定部は、前記撮影部の位置が所定の範囲にあるときに撮影された画像から、前記抽出部によって抽出された領域の画像を基に、前記部分があらかじめ定められた態様であるかどうかを検定することを特徴とする請求項1又は2に記載の情報処理装置。
  6. 前記検定部は、検定を行った前記部分について、前記ARマーカに対する相対的な位置及び検定を行った回数を記憶部に記憶させることを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記記憶部を参照し、前記部分を包含するオブジェクトを、前記撮影部によって撮影された画像における前記部分に重畳させて、前記部分の前記回数に応じた表示態様により表示部に表示させる表示制御部をさらに有することを特徴とする請求項6に記載の情報処理装置。
  8. 前記抽出部は、前記記憶部を参照し、前記撮影部によって撮影された複数の画像であって、撮影時における前記撮影部の位置及び向きの互いの相違の度合いが所定の閾値を超えている複数の画像から、前記部分が写った領域を抽出することを特徴とする請求項6に記載の情報処理装置。
  9. 前記記憶部を参照し、
    前記検定部による検定が行われていない前記物体の部分を撮影できる前記撮影部の位置及び向きを示唆するオブジェクトを表示部に表示させる表示制御部をさらに有することを特徴とする請求項6に記載の情報処理装置。
  10. 前記抽出部は、前記撮影部によって撮影された画像の画質が所定の条件を満たす場合に、前記画像から前記部分が写った領域を抽出することを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
  11. 前記抽出部は、前記物体を模した3Dモデルの法線情報及び前記ARマーカを基に、前記部分が前記撮影部によって撮影された画像に写っていると判定された場合に、前記画像から前記部分が写った領域を抽出することを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  12. 情報処理装置によって実行される情報処理方法であって、
    移動可能な撮影部によって撮影された画像に写るAR(Augmented Reality)マーカを基準に、空間における前記撮影部の位置及び向きを特定する特定工程と、
    前記撮影部によって撮影された画像から物体の所定の部分が写った領域を抽出する抽出工程と、
    前記抽出工程によって抽出された領域の画像、及び前記特定工程によって特定された前記撮影部の位置及び向きを基に、前記部分があらかじめ定められた態様であるかどうかを検定する検定工程と、
    を含むことを特徴とする情報処理方法。
  13. コンピュータを、
    移動可能な撮影部によって撮影された画像に写るAR(Augmented Reality)マーカを基準に、空間における前記撮影部の位置及び向きを特定する特定手段と、
    前記撮影部によって撮影された画像から物体の所定の部分が写った領域を抽出する抽出手段と、
    前記抽出手段によって抽出された領域の画像、及び前記特定手段によって特定された前記撮影部の位置及び向きを基に、前記部分があらかじめ定められた態様であるかどうかを検定する検定手段と、
    として機能させることを特徴とする情報処理プログラム。
JP2021154311A 2021-09-22 2021-09-22 情報処理装置、情報処理方法及び情報処理プログラム Active JP7317913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021154311A JP7317913B2 (ja) 2021-09-22 2021-09-22 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021154311A JP7317913B2 (ja) 2021-09-22 2021-09-22 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2023045749A true JP2023045749A (ja) 2023-04-03
JP7317913B2 JP7317913B2 (ja) 2023-07-31

Family

ID=85777006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021154311A Active JP7317913B2 (ja) 2021-09-22 2021-09-22 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7317913B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057298A (ja) * 2018-10-04 2020-04-09 東芝インフォメーションシステムズ株式会社 判定装置、判定方法及び判定プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057298A (ja) * 2018-10-04 2020-04-09 東芝インフォメーションシステムズ株式会社 判定装置、判定方法及び判定プログラム

Also Published As

Publication number Publication date
JP7317913B2 (ja) 2023-07-31

Similar Documents

Publication Publication Date Title
US11164001B2 (en) Method, apparatus, and system for automatically annotating a target object in images
CN109426835B (zh) 信息处理装置、信息处理装置的控制方法和存储介质
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
JP4537104B2 (ja) マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
US10304206B2 (en) Selecting feature patterns and corresponding layout positions for viewpoint measurement
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
EP3239931A1 (en) Image processing apparatus and image processing method
CN109247068A (zh) 用于滚动快门补偿的方法和设备
WO2014045508A1 (ja) 検査装置、検査方法、および検査プログラム
CN112884743B (zh) 检测方法及装置、检测设备和存储介质
US20090010496A1 (en) Image information processing apparatus, judging method, and computer program
CN105718931A (zh) 用于确定采集图像中的杂斑的系统和方法
US20210093227A1 (en) Image processing system and control method thereof
CN110288040A (zh) 一种基于拓扑验证的图像相似评判方法及设备
JP7317913B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US11989928B2 (en) Image processing system
US7899236B2 (en) Evaluation of optical distortion in a transparency
JP2002140713A (ja) 画像処理方法およびその装置
CN110309074B (zh) 一种测试方法及装置
JP4333349B2 (ja) 実装外観検査方法及び実装外観検査装置
JP2007010419A (ja) 対象物の3次元形状検証システム。
JP2008014857A (ja) プリント板の検査用座標取得装置、検査用座標取得方法、及び検査用座標取得プログラム
JP2005045194A (ja) 針痕読取装置および針痕読取方法
KR102542505B1 (ko) 학습데이터 생성 방법, 장치, 프로그램 및 이를 이용한 이물질 검출 방법
CN116735613B (zh) 一种基于ccd相机的产品定位及量测系统与使用方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230719

R150 Certificate of patent or registration of utility model

Ref document number: 7317913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150