JP2021021577A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2021021577A
JP2021021577A JP2019136504A JP2019136504A JP2021021577A JP 2021021577 A JP2021021577 A JP 2021021577A JP 2019136504 A JP2019136504 A JP 2019136504A JP 2019136504 A JP2019136504 A JP 2019136504A JP 2021021577 A JP2021021577 A JP 2021021577A
Authority
JP
Japan
Prior art keywords
image
line
viewpoint
feature
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019136504A
Other languages
English (en)
Other versions
JP7230722B2 (ja
Inventor
厚憲 茂木
Atsunori Mogi
厚憲 茂木
優 石川
Masaru Ishikawa
優 石川
吉武 敏幸
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019136504A priority Critical patent/JP7230722B2/ja
Priority to US16/918,433 priority patent/US11145048B2/en
Publication of JP2021021577A publication Critical patent/JP2021021577A/ja
Application granted granted Critical
Publication of JP7230722B2 publication Critical patent/JP7230722B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】物体を撮影した画像を用いて物体の3次元線分を復元する際に、適切な撮影位置を提示する画像処理装置を提供する。【解決手段】記憶部311は、物体の形状を表す複数の線分を含む形状情報321を記憶する。検出部312は、第1の撮影位置から撮影した第1画像から、複数の特徴線を検出する。特定部313は、複数の線分それぞれを第1画像上に投影して生成される複数の投影線と、複数の特徴線との位置関係に基づいて、複数の特徴線のうち、物体の形状の不良部分を表す特徴線を特定する。計算部314は、第2画像を撮影する第2の撮影位置の候補である複数の候補位置を、第1の撮影位置に基づいて設定するとともに、複数の候補位置それぞれの評価値を計算する。決定部315は、複数の候補位置それぞれの評価値に基づいて、複数の候補位置のうち、いずれかの候補位置を決定する。出力部316は、決定した候補位置を認知可能な情報を出力する。【選択図】図3

Description

本発明は、画像処理装置及び画像処理方法に関する。
近年、拡張現実(Augmented Reality,AR)技術を用いて画像を表示するシステムが普及してきている。AR技術の一例では、パーソナルコンピュータ(Personal Computer,PC)、携帯端末装置等に搭載したカメラを用いて物体が撮影され、物体の画像から3次元空間内におけるカメラの位置及び姿勢が推定される。そして、決定されたカメラの位置及び姿勢を基準にして、画像中の任意の位置にコンテンツ情報が重畳表示される。
製品を製造する現場において、製品の検査は、熟練作業者によって、専用の治具を用いて時間をかけて実施されることが多い。しかし、熟練作業者以外の作業者でも容易に検査を実施することができるようになれば、検査コストを削減することが可能になる。
製品の検査に関連して、対象物を複数のカメラで撮像して得られる画像データから3次元情報を取得し、取得した3次元情報を3次元モデルデータと照合することで、対象物について3次元認識を行う技術が知られている(例えば、特許文献1を参照)。
物体の形状情報に含まれる候補線を画像上に投影した投影線と、画像から検出した特徴線とを対応付けた、所定数の組み合わせを用いて、撮像装置の位置を推定する技術も知られている(例えば、特許文献2を参照)。
撮像画像に写っている対象物の姿勢に類似する姿勢の物体が観察される視点の位置に基づいて、物体の形状情報から得られる線分を絞り込む技術も知られている(例えば、特許文献3を参照)。物体の形状情報に含まれる所定数の候補線と画像から検出した所定数の特徴線とを対応付けた、所定数の組み合わせを表す対応付け情報を複数個生成し、各対応付け情報の誤差に基づいて対応付け結果を決定する技術も知られている(例えば、特許文献4を参照)。
ワーク画像のエッジ位置とそのエッジ位置に対応するマスター画像上の位置との変位量を示す誤差の統計情報を、エッジ位置に沿って表示する技術も知られている(例えば、特許文献5を参照)。
カメラキャリブレーション、線分検出、立体の機械知覚、及び直線対応付けによる姿勢推定等の技術も知られている(例えば、非特許文献1〜非特許文献4を参照)。
特開2011−185650号公報 特開2017−182302号公報 特開2019−70898号公報 特開2018−55199号公報 特開2012−32344号公報
Z. Zhang,"A Flexible New Technique for Camera Calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, No.11, pp.1330-1334, November 2000 R. G. Gioi et al.,"LSD: a Line Segment Detector", Image Processing On Line, 2 (2012), pp.35-55, March 2012 L. G. Roberts,"Machine perception of three-dimensional solids", MIT Lincoln Lab. Rep., TR3315, pp.1-82, May 1963 C. Xu et al.,"Pose Estimation from Line Correspondences: A Complete Analysis and a Series of Solutions", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.39, No.6, pp.1209-1222, June 2017
AR技術の応用として、現場で製造した製品の3次元形状を表すCAD(Computer-Aided Design)データを、その製品の画像に重畳表示することで、製造診断が行われることがある。この場合、CADデータが表す形状と、製品の形状との間のずれ量を精度良く推定するために、物体を2つの異なる視点から撮影して、それぞれの視点において撮影された画像から特徴線を検出し、検出された特徴線から物体の稜線を復元することが望ましい。
しかしながら、ユーザが技術に詳しくない場合、適切な視点の位置を特定することは困難である。
なお、かかる問題は、CADデータを用いて製品の製造診断を行う場合に限らず、他の形状情報を用いて物体の形状を検査する場合においても生ずるものである。
1つの側面において、本発明は、物体を撮影した画像を用いて物体の3次元線分を復元する際に、適切な撮影位置を提示することを目的とする。
1つの案では、画像処理装置は、記憶部、検出部、特定部、計算部、決定部、及び出力部を含む。記憶部は、物体の形状を表す複数の線分を含む形状情報を記憶する。
検出部は、第1の撮影位置から撮像装置によって撮影した物体を含む第1画像から、複数の特徴線を検出する。特定部は、複数の線分それぞれを第1画像上に投影することにより生成される複数の投影線と、複数の特徴線との位置関係に基づいて、複数の特徴線のうち、物体の形状の不良部分を表す特徴線を特定する。
計算部は、物体を含む第2画像を撮像装置によって撮影する第2の撮影位置の候補である複数の候補位置を、第1の撮影位置に基づいて設定するとともに、複数の候補位置それぞれの評価値を計算する。決定部は、複数の候補位置それぞれの評価値に基づいて、複数の候補位置のうち、いずれかの候補位置を決定する。出力部は、決定した候補位置を認知可能な情報を出力する。
実施形態によれば、物体を撮影した画像を用いて物体の3次元線分を復元する際に、適切な撮影位置を提示することができる。
物体の画像上に投影された3D線分を示す図である。 復元処理を示す図である。 画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理装置の第1の具体例を示す機能的構成図である。 CADデータを示す図である。 画面上に表示された画像を示す図である。 対応ペア集合を示す図である。 面積に基づく誤差の計算方法を示す図である。 距離に基づく誤差の計算方法を示す図である。 第2視点の候補位置を示す図である。 物体形状画像を示す図である。 モデル座標系とカメラ座標系を示す図である。 第2視点の候補位置の設定方法を示す図である。 モデル座標系とカメラ座標系との間の角度を示す図である。 評価値Qの関数形を示す図である。 第1視点における画像と物体形状画像を示す図である。 第2視点における特徴線を追加した対応ペア集合を示す図である。 ずれ量の計算方法を示す図である。 ずれ量を追加した対応ペア集合を示す図である。 第1視点における画像処理のフローチャートである。 第2視点における画像処理のフローチャートである。 第3視点の推奨位置から観察される物体形状画像を示す図である。 第3視点におけるカメラ座標系を示す図である。 第2視点における画像と物体形状画像を示す図である。 第3視点をユーザに提示する画像処理のフローチャートである。 画像処理装置の第2の具体例を示す機能的構成図である。 誘導情報を示す図である。 誘導情報を表示する画像処理のフローチャートである。 情報処理装置のハードウェア構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
製造診断では、単にCADデータを画像に重畳表示するだけでなく、CADデータが表す形状と一致しない、製品の製造不良部分を強調表示したり、CADデータが表す形状と製品の形状との間のずれ量を定量的に表示したりすることが望ましい。
そこで、特許文献2及び特許文献5の技術を組み合わせる方法が考えられる。この方法では、CADデータに含まれる3D線分を製品の画像上に投影した投影線の位置と、画像から検出した特徴線の位置との間の誤差が計算され、計算された誤差を3次元空間内の距離に変換することで、ずれ量が求められる。
しかしながら、3D線分を画像上に投影すると、画像の奥行き方向の情報が失われるため、CADデータが表す形状と製品の形状とがずれている部分を真正面から撮影しない限り、ずれ量の推定値は真のずれ量よりも小さくなる。
図1は、物体の画像上に投影された3D線分の例を示している。この例では、画像に写っている物体101の突出部111と、物体101に重畳されたCADデータ102の3D線分との間の真のずれ量は1mmである。しかし、CADデータ102を画像上に投影した投影線と、画像から検出した特徴線との間の誤差は、画素単位で求められ、画素単位の誤差を3次元空間内の距離に変換して得られるずれ量は、1mmよりも小さくなる。
この場合、ずれ量の推定精度を向上させるために、物体を2つの異なる視点から撮影して、それぞれの視点において撮影された画像から特徴線を検出し、検出された特徴線から物体の稜線を復元することが望ましい。CADデータの3D線分と、復元された稜線との間の3次元のずれ量を直接計算することで、真のずれ量に近い値を求めることができる。
図2は、物体の稜線を復元する復元処理の例を示している。カメラが視点O1から物体101を撮影した画像の画像平面211上には、物体101上の点Psを示す点p1sと、点Peを示す点p1eとが写っている。また、カメラが視点O2から物体101を撮影した画像の画像平面212上には、物体101上の点Psを示す点p2sと、点Peを示す点p2eとが写っている。視点O1及び視点O2は、カメラ中心(光学中心)に対応する。
画像平面211上のエピポールe1は、視点O2を画像平面211上に投影した点であり、画像平面212上のエピポールe2は、視点O1を画像平面212上に投影した点である。物体101上の点Psと点Peを結ぶ稜線201は、画像平面211上において、点p1sと点p1eを結ぶ特徴線221として検出され、画像平面212上において、点p2sと点p2eを結ぶ特徴線222として検出される。特徴線221及び特徴線222を用いた幾何学的計算によって、3次元の稜線201を復元することができる。
カメラを保持したユーザが視点O1から物体101を撮影した後に、視点O2まで移動する場合、ユーザの移動距離である視点O1と視点O2の距離が小さすぎると、稜線201の復元精度が低下する。一方、視点O1と視点O2の距離が大きすぎると、自己遮蔽によって視点O2から稜線201が観察されなくなったり、照明光の変動によって画像平面212上で特徴線222が検出されなくなったりする可能性がある。
しかしながら、ユーザが技術に詳しくない場合、適切な視点O2の位置が不明なため、不適切な視点O2から物体101を撮影することで、稜線201の復元に失敗することがある。稜線201の復元に失敗した後、再度移動して撮影を繰り返すと、ユーザの作業負荷が増加し、利便性が損なわれる。
図3は、実施形態の画像処理装置の機能的構成例を示している。図3の画像処理装置301は、記憶部311、検出部312、特定部313、計算部314、決定部315、及び出力部316を含む。記憶部311は、物体の形状を表す複数の線分を含む形状情報321を記憶する。検出部312、特定部313、計算部314、決定部315、及び出力部316は、形状情報321を用いて画像処理を行う。
図4は、図3の画像処理装置301が行う画像処理の例を示すフローチャートである。まず、検出部312は、第1の撮影位置から撮像装置によって撮影した物体を含む第1画像から、複数の特徴線を検出する(ステップ401)。次に、特定部313は、複数の線分それぞれを第1画像上に投影することにより生成される複数の投影線と、複数の特徴線との位置関係に基づいて、複数の特徴線のうち、物体の形状の不良部分を表す特徴線を特定する(ステップ402)。
次に、計算部314は、物体を含む第2画像を撮像装置によって撮影する第2の撮影位置の候補である複数の候補位置を、第1の撮影位置に基づいて設定する(ステップ403)。そして、計算部314は、複数の候補位置それぞれの評価値を計算する(ステップ404)。
次に、決定部315は、複数の候補位置それぞれの評価値に基づいて、複数の候補位置のうち、いずれかの候補位置を決定する(ステップ405)。そして、出力部316は、決定した候補位置を認知可能な情報を出力する(ステップ406)。
図3の画像処理装置301によれば、物体を撮影した画像を用いて物体の3次元線分を復元する際に、適切な撮影位置を提示することができる。
図5は、図3の画像処理装置301の第1の具体例を示している。図5の画像処理装置501は、記憶部511、画像取得部512、特徴線検出部513、線分検出部514、特定部515、計算部516、決定部517、画像生成部518、復元部519、及び表示部520を含む。
記憶部511、特徴線検出部513、特定部515、計算部516、決定部517、及び表示部520は、図3の記憶部311、検出部312、特定部313、計算部314、決定部315、及び出力部316にそれぞれ対応する。
例えば、画像処理装置501は、物体の形状情報を用いてその物体の形状を検査する形状検査において使用される。画像処理装置501は、タブレット、ノート型PC(Personal Computer)、スマートデバイス等の携帯端末装置であってもよい。
記憶部511は、CADデータ531を記憶している。CADデータ531は、図3の形状情報321に対応し、物体の3次元形状を表す複数の頂点の頂点情報と、複数の線分の線分情報とを含む。頂点情報は、物体の各頂点の3次元座標を含み、線分情報は、各線分の両端の頂点を示す識別情報、又は各線分の両端の頂点の3次元座標を含む。CADデータ531は、OBJ形式のデータであってもよい。
図6は、CADデータ531の例を示している。図6のCADデータ531は、ID、始点、及び終点を含む。IDは、線分の識別情報を表し、始点は、線分の一方の端点の3次元座標を表し、終点は、線分の他方の端点の3次元座標を表す。この例では、3次元座標の単位はmmである。
撮像装置502は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、携帯端末装置に搭載されていてもよい。ユーザは、撮像装置502を用いて、第1視点から、CADデータ531が表す物体の画像532を撮影する。画像取得部512は、撮像装置502から画像532を取得して、記憶部511に格納する。第1視点は、第1の撮影位置の一例であり、画像532は、第1画像の一例である。
特徴線検出部513は、エッジ検出処理を行って、画像532から複数のエッジ線を検出し、検出したエッジ線を特徴線533として記憶部511に格納する。特徴線検出部513は、例えば、非特許文献2の技術を用いて、画像532からエッジ線を検出することができる。線分検出部514は、CADデータ531に含まれる複数の線分を検出し、検出した複数の線分を複数の3D線分534として記憶部511に格納する。
特定部515は、3次元空間内における撮像装置502の初期位置及び初期姿勢を設定する。まず、特定部515は、CADデータ531が表す物体を画像532上に投影し、表示部520は、画像532及び物体の形状を画面上に表示する。
図7は、画面上に表示された画像532及び物体の形状の例を示している。画面中央には、画像532に写っている物体101が表示されており、物体101上には、物体101から検出された特徴線533が表示されている。また、物体101の左下には、CADデータ531から検出された3D線分534が投影されており、3D線分534の投影線を用いて、物体の形状701が表示されている。
ユーザは、形状701の位置及び姿勢が物体101と近似するように、画面上で形状701の位置及び姿勢を変更する操作を行う。画面上で形状701の位置及び姿勢を変更することで、画面に対する視点の位置及び姿勢が変化する。そこで、特定部515は、ユーザが決定した形状701の位置及び姿勢に対応する視点の位置及び姿勢を、撮像装置502の初期位置及び初期姿勢として用いる。
次に、特定部515は、形状701に含まれる3D線分のうち、視点から観察されない3D線分(隠線)を除去する。特定部515は、例えば、非特許文献3の技術を用いて、隠線を除去することができる。
特定部515は、特許文献3に記載された技術を用いて、撮像装置502の初期位置及び初期姿勢を自動的に決定することも可能である。この技術によれば、3次元空間内における複数の視点それぞれから観察される物体の位置及び姿勢を表す姿勢情報と、観察される物体の視点画像と、その視点画像から抽出された特徴量とが、関連付けて記憶部に格納される。そして、撮像装置によって撮影された画像の特徴量と各視点画像の特徴量との間の類似度が計算され、最大の類似度を有する視点画像の姿勢情報が、物体の初期位置及び初期姿勢に決定される。
初期位置及び初期姿勢は、仮の位置及び姿勢であり、第1視点における撮像装置502の位置及び姿勢と必ずしも一致しているとは限らない。
次に、ユーザは、画面上に表示されている、3D線分534の投影線及び特徴線533の中から、投影線と特徴線の組み合わせをk個(kは4以上の所定の整数)指定する。特定部515は、指定された投影線が表す3D線分と指定された特徴線との組み合わせ(対応ペア)の集合を、対応ペア集合535として記憶部511に格納する。
特定部515は、特許文献4に記載された技術を用いて、対応ペア集合535を自動的に決定することも可能である。この技術によれば、画像から検出された複数の特徴線の中から、所定の条件を満たす複数の特徴線が抽出される。次に、抽出された特徴線と隠線を除去した残りの3D線分とから、k個の対応ペアが生成され、各対応ペアに含まれる3D線分の投影線の位置と特徴線の位置との間の誤差の総和が計算される。そして、k個の対応ペアに含まれる3D線分と特徴線の組み合わせを変更しながら、誤差の総和が繰り返し計算され、誤差の総和が最小となるk個の対応ペアが、対応ペア集合535に決定される。
図8は、対応ペア集合535の例を示している。図8の対応ペア集合535は、5個の対応ペアを含み、3D線分ID、3D線分始点、3D線分終点、第1視点特徴線ID、第1視点特徴線始点、及び第1視点特徴線終点を含む。
3D線分IDは、対応ペアに含まれる3D線分の識別情報を表し、3D線分始点は、3D線分の一方の端点の3次元座標を表し、3D線分終点は、3D線分の他方の端点の3次元座標を表す。第1視点特徴線IDは、対応ペアに含まれる特徴線の識別情報を表し、第1視点特徴線始点は、特徴線の一方の端点の2次元座標を表し、第1視点特徴線終点は、特徴線の他方の端点の2次元座標を表す。この例では、3次元座標の単位はmmであり、2次元座標の単位はpixelである。
次に、特定部515は、対応ペア集合535に含まれるk個の対応ペアを用いて、第1視点における撮像装置502の位置及び姿勢を計算する。特定部515は、例えば、非特許文献4の技術を用いて、k個の対応ペアから、位置及び姿勢を表す3行3列の回転行列Rと並進ベクトルTとを計算することができる。
特定部515は、計算された撮像装置502の位置及び姿勢を用いて、k個の対応ペアそれぞれに含まれる3D線分534を画像532上に投影することで、投影線を生成する。例えば、特定部515は、次式により、3D線分534を画像532上に投影することができる。
Figure 2021021577
式(1)の(X,Y,Z)、A、R、T、及び(u,v)の定義は、以下の通りである。
(X,Y,Z):3D線分の端点の3次元座標
A:撮像装置502の内部パラメータ
R:3行3列の回転行列
T:並進ベクトル
(u,v):画像532上における投影線の端点の2次元座標
撮像装置502の内部パラメータAは、例えば、非特許文献1の技術を用いて、事前に計測しておくことができる。
次に、特定部515は、各対応ペアに含まれる3D線分534の投影線の位置と、その対応ペアに含まれる特徴線の位置との間の誤差を計算する。計算された誤差は、投影線と特徴線との位置関係を表す。
図9は、投影線と特徴線との間の領域の面積に基づく誤差の計算方法の例を示している。k個の対応ペアのうちi番目(i=1〜k)の対応ペアに含まれる3D線分の投影線が線分901であり、特徴線が線分902である場合、線分901の両端と線分902の両端とをそれぞれ結ぶ線分903及び線分904を定義することができる。この場合、線分901〜線分904によって囲まれた領域の面積Aiを、投影線の位置と特徴線の位置との間の誤差Eiとして用いることができる。
Ei=Ai (2)
面積Aiが小さいほど、誤差Eiは小さくなり、線分901が線分902に重なっている場合、誤差Eiは0になる。
図10は、投影線と特徴線との間の距離に基づく誤差の計算方法の例を示している。線分902の両端から線分901上へ下ろした垂線1001及び垂線1002の長さを、それぞれ、Li1及びLi2とする。この場合、Li1及びLi2の和を、誤差Eiとして用いることができる。
Ei=Li1+Li2 (3)
Li1及びLi2が短いほど、誤差Eiは小さくなり、線分901が線分902に重なっている場合、誤差Eiは0になる。
特定部515は、誤差Eiを所定の閾値と比較し、誤差Eiが閾値よりも大きい場合、i番目の対応ペアを物体の形状の不良部分として特定する。
特定部515は、先願である特願2018−46251号に記載された技術を用いて、誤差Eiに対する閾値を自動的に設定することも可能である。この技術によれば、k個の対応ペアそれぞれから計算された誤差の統計値に基づいて、閾値が設定される。
次に、計算部516は、第2視点の候補となる複数の候補位置を、第1視点に基づいて設定する。第2視点は、第2の撮影位置の一例であり、不良部分として特定された対応ペアに含まれる特徴線から、その特徴線に対応する物体の3次元線分を復元するために、別の画像を撮影する撮影位置を表す。
図11は、第2視点の候補位置の例を示している。タブレット1101は、画像処理装置501及び撮像装置502を含む携帯端末装置の一例であり、ユーザ1102は、タブレット1101を用いて、第1視点に相当する位置1103から物体101を撮影する。
位置1103に近い領域1111内に第2視点を設定した場合、物体上の3次元線分である稜線の復元精度が低下する可能性がある。一方、領域1111よりも広い領域1112の外側に第2視点を設定した場合、位置1103から第2視点までの移動距離が大きくなり、ユーザ1102の移動負荷が増加する。
この場合、領域1112に含まれ、かつ、領域1111に含まれていない位置1104又は位置1105を、第2視点に設定することが望ましい。したがって、位置1104及び位置1105を含む、領域1112内の所定数の位置が候補位置として設定される。
しかし、自己遮蔽等によって、不良部分を表す特徴線に対応する稜線が、いずれかの候補位置から観察されないことがある。そこで、計算部516は、所定数の候補位置各々を視点として用いて、不良部分として特定された対応ペアに含まれる3D線分が、その視点から観察されるか否かを判定する。この3D線分は、不良部分を表す特徴線に対応する投影線を生成するために用いられた特定の3D線分である。
計算部516は、3D線分が視点から観察されない場合、視点として用いられた候補位置を除外し、3D線分が視点から観察される場合、視点として用いられた候補位置を選択することで、所定数の候補位置の中から複数の候補位置を抽出する。これにより、不良部分に対応する3D線分を観察可能な候補位置のみを抽出することができる。
次に、計算部516は、第1視点と複数の候補位置それぞれとの距離に基づいて、それらの候補位置それぞれの評価値536を計算し、記憶部511に格納する。各候補位置の評価値536は、その候補位置を第2視点として用いて不良部分を表す稜線を復元する場合の復元可能度を表す。そして、決定部517は、複数の候補位置それぞれの評価値536に基づいて、それらの候補位置のいずれかを、第2視点の推奨位置に決定する。
第1視点と各候補位置の距離に基づいて、その候補位置の評価値536を計算することで、第1視点から適切な距離の範囲に存在する候補位置の評価値536を大きくし、それ以外の候補位置の評価値536を小さくすることが可能になる。これにより、適切な距離の範囲に存在する候補位置を、第2視点の推奨位置に決定することができる。
次に、画像生成部518は、第2視点の推奨位置から観察される、CADデータ531が表す物体の形状を示す物体形状画像537を生成して、記憶部511に格納する。そして、表示部520は、物体形状画像537を画面上に表示する。物体形状画像537は、第2視点の推奨位置を認知可能な情報の一例である。
図12は、物体形状画像537の例を示している。図12(a)は、図11の位置1104から観察される物体101の物体形状画像537の例を示しており、図12(b)は、位置1105から観察される物体101の物体形状画像537の例を示している。
ユーザは、画像処理装置501及び撮像装置502を含む携帯端末装置を保持したままで移動する。このとき、撮像装置502は、移動しながら物体を撮影し、画像取得部512は、撮像装置502から画像を取得し、表示部520は、取得された画像を画面上に表示する。したがって、ユーザの移動に伴って変化する物体の画像が、画面上に表示される。ユーザは、表示される物体の画像と物体形状画像537とを比較しながら移動し、画像に写っている物体の姿勢が物体形状画像537の姿勢と一致する位置で停止する。これにより、撮像装置502が第2視点へ移動する。
ユーザは、撮像装置502を用いて、第2視点から物体の画像538を撮影し、画像取得部512は、撮像装置502から画像538を取得して、記憶部511に格納する。画像538は、第2画像の一例である。
特徴線検出部513は、エッジ検出処理を行って、画像538から不良部分を表す特徴線を検出する。復元部519は、画像532から検出された不良部分を表す特徴線と、画像538から検出された不良部分を表す特徴線とを用いて、それらの特徴線に対応する稜線を復元する。次に、復元部519は、不良部分の対応ペアに含まれる3D線分の位置と、復元された稜線の位置との間の3次元のずれ量539を求めて、記憶部511に格納する。そして、表示部520は、ずれ量539を示す情報を画面上に表示する。
復元された3次元の稜線を用いてずれ量539を計算することで、3D線分の投影線と画像内の特徴線との誤差を3次元空間内の距離に変換する方法と比較して、より高精度なずれ量を求めることができる。
図5の画像処理装置501によれば、第1視点から撮影された画像によって、物体の形状の不良部分が特定された場合、不良部分の3次元形状を復元するために最適な第2視点の推奨位置が提示される。これにより、ユーザの作業負荷を軽減しながら、3次元のずれ量を高精度に推定することが可能になる。
また、不良部分を表す特徴線に対応する稜線のみを復元することで、物体の全体形状を復元する場合と比較して、復元処理の計算量が減少する。
次に、図13から図16までを参照しながら、候補位置の設定方法と評価値536の計算方法の例について、より詳細に説明する。以下の説明では、CADデータ531が表す物体を指して、3Dモデルと記載することがある。
図13は、3Dモデルの重心を原点とするモデル座標系と、撮像装置502の光学中心を原点とするカメラ座標系の例を示している。座標系Om−XmYmZmは、3Dモデルの重心を原点Omとするモデル座標系を表し、座標系Oc−XcYcZcは、第1視点を原点Ocとするカメラ座標系を表し、座標系Oc’−Xc’Yc’Zc’は、第2視点の候補位置を原点Oc’とするカメラ座標系を表す。
第1視点における撮像装置502の光軸は、原点Oc’と原点Omを結ぶ直線1301に一致し、平面1302は、直線1301に垂直で、かつ、原点Ocを通る平面である。線分1303は、不良部分の対応ペアに含まれる3D線分を表す。
図14は、第2視点の候補位置の設定方法の例を示している。この例では、平面1302内の直線1401上に、候補位置1411−1〜候補位置1411−4及び候補位置1412−1〜候補位置1412−4が等間隔で設定されている。直線1401は、原点Ocを通る水平線である。
第2視点が直線1401よりも下方に設定されると、ユーザがしゃがむ動作を行うため、身体的負荷が大きくなる。また、第2視点が直線1401よりも上方に設定されると、ユーザが腕を伸ばす動作を行うため、やはり身体的負荷が大きくなる。そこで、第1視点を通る直線1401上に第2視点を設定することで、ユーザの身体的負荷が軽減され、移動可能性が向上する。
直線1401上の各候補位置における撮像装置502の姿勢は、その光軸が候補位置と原点Omを結ぶ直線に一致するように決定される。
図15は、モデル座標系と各候補位置におけるカメラ座標系との間の角度の例を示している。直線1501は、候補位置と原点Omを結ぶ直線であり、直線1502は、原点Oc’からXmYm平面上に下した垂線であり、点Fは、直線1502とXmYm平面の交点である。角度αは、原点Omと点Fを結ぶ直線1503と、Xm軸とが成す角であり、角度βは、直線1501と直線1503とが成す角である。このとき、各候補位置における撮像装置502の姿勢は、次式の回転行列R’によって表される。
Figure 2021021577
R1は、Zm軸周りの角度αの回転を表す回転行列であり、R2は、Ym軸周りの角度βの回転を表す回転行列である。R3は、Xm軸周りの−90度の回転を表す回転行列であり、R4は、Ym軸周りの−90度の回転を表す回転行列である。
計算部516は、各候補位置における撮像装置502の姿勢を用いて、その候補位置から物体を観察した場合に、線分1303が隠線になるか否かを判定する。計算部516は、例えば、非特許文献3の技術を用いて、隠線判定を行うことができる。そして、計算部516は、線分1303が隠線になる場合、その候補位置を除外し、残りの候補位置について評価値536を計算する。評価値536としては、例えば、次式の評価値Qを用いることができる。
Q=L−a|L| (9)
a=2/(dtan(θ1)) (10)
式(9)のLは、直線1401上における各候補位置と原点Ocの符号付き距離を表す。例えば、候補位置1411−1〜候補位置1411−4に対するLは、正の符号を有し、候補位置1412−1〜候補位置1412−4に対するLは、負の符号を有する。式(10)のdは、原点Omと原点Ocの距離を表し、θ1は、直線1301と直線1501とが成す角を表す規定値である。θ1としては、物体の稜線を復元する上で最も好ましい角度を用いてもよく、撮影対象の物体に応じてθ1を増減してもよい。θ1は、15°〜25°の範囲の角度であってもよい。
図16は、評価値Qの関数形の例を示している。横軸は符号付き距離Lを表し、縦軸は評価値Qを表す。L=0のときQ=0であり、|L|が0から離れるにつれてQは増加し、|L|=dtan(θ1)のときQは極大となる。そして、|L|がdtan(θ1)から離れるにつれてQはしだいに減少していく。
決定部517は、複数の候補位置のうち、評価値Qが大きいものから順に1つ又は複数の候補位置を選択し、選択した候補位置を第2視点の推奨位置に決定する。
このように、|L|が所定値のときに極大となる評価値Qを用いて、第2視点の推奨位置を決定することで、第1視点と第2視点を一定距離以上離すことができ、三角測量の精度が向上する。また、第1視点と第2視点が離れすぎることがないため、ユーザの移動負荷が軽減されるとともに、環境光の影響等を受けることも少なくなる。
図17は、第1視点における画像532とともに画面上に表示された、物体形状画像537の例を示している。“候補1”の物体形状画像1701は、最大の評価値Qを持つ推奨位置から観察される3Dモデルを表し、“候補2”の物体形状画像1702は、2番目に大きな評価値Qを持つ推奨位置から観察される3Dモデルを表す。第1視点から観察される物体101の下方には、「候補の図と同じ姿勢になる位置まで移動して下さい」というメッセージが表示されている。
ユーザは、表示されたメッセージに従って、物体101の姿勢が物体形状画像1701又は物体形状画像1702の姿勢と一致する位置まで移動する。撮像装置502は、その位置から物体101の画像を撮影し、画像取得部512は、撮影された画像を、第2視点における画像538として記憶部511に格納する。
画像処理装置501は、画像538に対して、画像532と同様の処理を行って、画像538から特徴線を検出し、対応ペア集合を生成し、対応ペア集合に含まれるk個の対応ペアを用いて、第2視点における撮像装置502の位置及び姿勢を計算する。
次に、復元部519は、計算された撮像装置502の位置及び姿勢を用いて、k個の対応ペアそれぞれに含まれる3D線分を画像538上に投影することで、第2視点における投影線を生成する。そして、復元部519は、不良部分の対応ペアに含まれる3D線分の第2視点における投影線を選択し、画像538から検出された特徴線のうち、選択された投影線と最も距離の近い特徴線を特定する。これにより、不良部分の3D線分と、第2視点における画像538内の特徴線とが対応付けられる。
図18は、図8の対応ペア集合535に対して、第2視点における画像538内の特徴線を追加した、対応ペア集合の例を示している。図18の対応ペア集合は、図8の対応ペア集合535に対して、フラグ、第2視点特徴線ID、第2視点特徴線始点、及び第2視点特徴線終点を追加した構成を有する。
フラグは、3D線分と第1視点特徴線の対応ペアが不良部分であるか否かを示す。“True”は、不良部分であることを示し、“False”は、不良部分ではないことを示す。第2視点特徴線IDは、不良部分の3D線分と対応付けられた、第2視点における特徴線の識別情報を表す。第2視点特徴線始点は、第2視点における特徴線の一方の端点の2次元座標を表し、第2視点特徴線終点は、第2視点における特徴線の他方の端点の2次元座標を表す。
この例では、3D線分ID“1”及び3D線分ID“4”の2本の3D線分が、不良部分として特定されている。3D線分ID“1”には、第1視点特徴線ID“43”の特徴線と、第2視点特徴線ID“16”の特徴線とが対応付けられている。また、3D線分ID“4”には、第1視点特徴線ID“47”の特徴線と、第2視点特徴線ID“53”の特徴線とが対応付けられている。
復元部519は、不良部分の3D線分と対応付けられた、第1視点における特徴線及び第2視点における特徴線を用いて、図2に示した復元処理を行うことで、それらの特徴線に対応する稜線を復元する。この場合、第1視点及び第2視点が、それぞれ、視点O1及び視点O2として用いられ、画像532及び画像538の画像平面が、それぞれ、画像平面211及び画像平面212として用いられる。
特徴線221及び特徴線222が特定された場合、それらの特徴線に対応する稜線201は、視点O1、点p1s、及び点p1eを通る平面π1と、視点O2、点p2s、及び点p2eを通る平面π2との交線として求められる。例えば、平面π1及び平面π2の方程式は、3次元座標を表すベクトルxを用いて、次式により表される。
π1 (n1,x)+d1=0 (11)
π2 (n2,x)+d2=0 (12)
n1は、平面π1の法線ベクトルを表し、n2は、平面π2の法線ベクトルを表し、(v1,v2)は、ベクトルv1とベクトルv2の内積を表す。d1及びd2は定数である。このとき、平面π1及び平面π2の交線の方程式は、パラメータtを用いて、次式により表される。
Figure 2021021577
p0は、交線上の点を表すベクトルであり、u0は、交線の方向ベクトルである。n1×n2は、法線ベクトルn1と法線ベクトルn2の外積を表す。
復元部519は、式(13)により表される直線上の点Ps及び点Peを両端点とする線分を、稜線201として特定する。そして、復元部519は、不良部分の3D線分の位置と、稜線201の位置との間の3次元のずれ量539を計算する。
図19は、ずれ量539の計算方法の例を示している。復元部519は、不良部分の3D線分1901の両端から、復元された稜線1902上へ下ろした、垂線1903及び垂線1904の長さを計算し、いずれか長い方の長さをずれ量539に決定する。
図20は、図18の対応ペア集合に対して、計算されたずれ量539を追加した、対応ペア集合の例を示している。この例では、3D線分ID“1”の3D線分に対する稜線のずれ量539は13.1mmであり、3D線分ID“4”の3D線分に対する稜線のずれ量539は19.2mmである。
画像処理装置501は、第2視点の複数の推奨位置から観察される物体形状画像537を同時に表示する代わりに、最大の評価値536を持つ推奨位置から観察される物体形状画像537のみを表示してもよい。そして、影の影響等により、その推奨位置において撮影された画像538から、不良部分の3D線分に対応する特徴線が検出されない場合に、画像処理装置501は、2番目に大きな評価値536を持つ推奨位置から観察される物体形状画像537を表示する。この場合、ユーザは、画面上に表示された複数の物体形状画像537のいずれが適切であるかを判断する必要がなくなる。
図21は、図5の画像処理装置501が第1視点において行う画像処理の例を示すフローチャートである。まず、画像取得部512は、撮像装置502から第1視点における画像532を取得し(ステップ2101)、特徴線検出部513は、画像532から複数の特徴線533を検出する(ステップ2102)。
また、線分検出部514は、CADデータ531から複数の3D線分534を検出し(ステップ2103)、特定部515は、撮像装置502の初期位置及び初期姿勢を設定する(ステップ2104)。
次に、特定部515は、3D線分534から隠線を除去し、残りの3D線分から対応ペア集合535を生成し(ステップ2105)、対応ペア集合535を用いて、第1視点における撮像装置502の位置及び姿勢を計算する(ステップ2106)。
次に、特定部515は、計算された撮像装置502の位置及び姿勢を用いて、対応ペア集合535に含まれる3D線分534を画像532上に投影することで、第1視点における投影線を生成する。そして、特定部515は、3D線分534の投影線の位置と特徴線の位置との間の誤差を閾値と比較して、物体の形状の不良部分を特定する(ステップ2107)。
次に、計算部516は、第2視点の候補となる複数の候補位置を設定し、各候補位置の評価値536を計算する(ステップ2108)。次に、決定部517は、評価値536に基づいて第2視点の推奨位置を決定し、画像生成部518は、推奨位置から観察される物体形状画像537を生成し、表示部520は、画像532とともに物体形状画像537を画面上に表示する(ステップ2109)。
図22は、図5の画像処理装置501が第2視点において行う画像処理の例を示すフローチャートである。まず、画像取得部512は、撮像装置502から第2視点における画像538を取得し(ステップ2201)、特徴線検出部513は、画像538から複数の特徴線を検出する(ステップ2202)。
次に、特定部515は、3D線分から隠線を除去し、残りの3D線分から対応ペア集合を生成し(ステップ2203)、対応ペア集合を用いて、第2視点における撮像装置502の位置及び姿勢を計算する(ステップ2204)。
次に、復元部519は、計算された撮像装置502の位置及び姿勢を用いて、対応ペア集合に含まれる3D線分を画像538上に投影することで、第2視点における投影線を生成する。そして、復元部519は、第2視点における投影線を用いて、不良部分の3D線分に対応する画像538内の特徴線を特定し、不良部分の3D線分に対応する、画像532内の特徴線及び画像538内の特徴線を用いて、稜線を復元する(ステップ2205)。
次に、復元部519は、不良部分の3D線分の位置と、復元された稜線の位置との間のずれ量539を計算し(ステップ2206)、表示部520は、ずれ量539を示す情報を画面上に表示する(ステップ2207)。
ところで、決定部517は、不良部分の3D線分と復元された稜線とに基づいて、不良部分のエビデンス画像を撮影するための第3視点を決定することもできる。第3視点は、第3の撮影位置の一例である。
例えば、画面上に複数の不良部分とともにずれ量539が表示された場合、ユーザは、いずれかの不良部分を処理対象として選択し、決定部517は、選択された不良部分のずれ量539が最も大きく観察される位置を、第3視点の推奨位置に決定する。この場合、第3視点の推奨位置は、復元された稜線のずれ方向に対して垂直な直線上に存在する。
画像生成部518は、第3視点の推奨位置から観察される物体形状画像を生成し、表示部520は、画像538とともに物体形状画像を画面上に表示する。第3視点の推奨位置から観察される物体形状画像は、第3視点の推奨位置を認知可能な情報の一例である。
図23は、第3視点の推奨位置から観察される物体形状画像の例を示している。図23の物体形状画像は、図1に示した物体101の突出部111とCADデータ102の3D線分との間のずれ量が最も大きく観察される画像を表す。
図24は、第3視点におけるカメラ座標系の例を示している。座標系Om−XmYmZmはモデル座標系を表し、座標系Oc−XcYcZcは、第1視点を原点Ocとするカメラ座標系を表し、座標系Oc’−Xc’Yc’Zc’は、第2視点の候補位置を原点Oc’とするカメラ座標系を表す。そして、座標系Oc’’−Xc’’Yc’’Zc’’は、第3視点の推奨位置を原点Oc’’とするカメラ座標系を表す。
点Gは、不良部分の3D線分2401の端点を表し、点Hは、復元された稜線2402に対して点Gから下した垂線2403の足を表す。原点Omと原点Oc’’を結ぶ直線上で、原点Omから原点Oc’’へ向かう方向ベクトルをrとし、3D線分2401の方向ベクトルをq1とし、点Gから点Hへ向かう方向ベクトルをq2とする。
このとき、決定部517は、r=q2×q1となり、原点Omと原点Oc’’の距離が、原点Omと原点Ocの距離と等しくなるように、原点Oc’’の位置を決定する。そして、決定部517は、式(4)と同様の回転行列を用いて、第3視点の推奨位置における撮像装置502の姿勢を決定する。
図25は、第2視点における画像538とともに画面上に表示された、物体形状画像の例を示している。物体形状画像2501は、第3視点の推奨位置から観察される3Dモデルを表し、物体101の下方には、「提示の図と同じ姿勢になる位置まで移動して下さい」というメッセージが表示されている。
ユーザは、表示されたメッセージに従って、物体101の姿勢が物体形状画像2501の姿勢と一致する位置まで移動する。撮像装置502は、その位置から物体101の画像を撮影し、画像取得部512は、撮影された画像を、不良部分のエビデンス画像として記憶部511に格納する。これにより、ずれ量539を明確に示す画像をエビデンス画像として記録することができる。
図26は、第2視点において第3視点の推奨位置をユーザに提示する画像処理の例を示すフローチャートである。ステップ2601〜ステップ2607の処理は、図22のステップ2201〜ステップ2207の処理と同様である。ずれ量539を示す情報が表示された後、決定部517は、第3視点の推奨位置を決定し、画像生成部518は、推奨位置から観察される物体形状画像を生成し、表示部520は、画像538とともに物体形状画像を画面上に表示する(ステップ2608)。
図27は、図3の画像処理装置301の第2の具体例を示している。図27の画像処理装置2701は、図5の画像処理装置501において、誘導情報生成部2711を追加した構成を有する。
誘導情報生成部2711は、画像処理装置2701及び撮像装置502を含む携帯端末装置を保持するユーザを、第1視点から第2視点へ誘導する誘導情報2721を生成して、記憶部511に格納する。誘導情報2721は、第1視点から第2視点までの移動方法を示すコンテンツ情報である。表示部520は、画像532及び物体形状画像537とともに、誘導情報2721を画面上に表示する。
図28は、図17の物体形状画像1701とともに画面上に表示された、誘導情報2721の例を示している。この例では、ユーザの移動方向を示す矢印2801が誘導情報2721として表示され、物体101の下方には、「物体との距離を保ちつつ,矢印の方向に動かして下さい」というメッセージが表示されている。
例えば、画像取得部512は、所定の時間間隔で撮像装置502から画像を取得し、特徴線検出部513は、画像から複数の特徴線を検出する。以下の説明では、撮像装置502から取得される各時刻の画像を、フレームと呼ぶことがある。
特定部515は、各フレームから検出された特徴線を用いて対応ペア集合を生成し、対応ペア集合を用いて、撮像装置502の位置及び姿勢を計算する。まず、特定部515は、直前のフレームに対して計算された撮像装置502の位置及び姿勢を用いて、直前のフレームにおける対応ペア集合の3D線分を画像上に投影することで、投影線を生成する。
次に、特定部515は、現在のフレームから検出された特徴線のうち、各3D線分の投影線と最も距離の近い特徴線を、その3D線分と対応付けることで、現在のフレームにおける対応ペア集合を生成する。これにより、前後のフレーム間で特徴線を追跡することができる。そして、特定部515は、生成された対応ペア集合を用いて、現在のフレームに対する撮像装置502の位置及び姿勢を計算する。
次に、誘導情報生成部2711は、現在のフレームに対する撮像装置502の位置及び姿勢を用いて、第1視点と第2視点の推奨位置とを画像上に投影し、第1視点の投影点から第2視点の推奨位置の投影点へ向かう矢印を生成する。ただし、矢印の大きさは、画面内に収まる大きさに調整される。
誘導情報2721を画面上に表示することで、ユーザが移動方向を直感的に認識することができ、ユーザの利便性が向上する。矢印以外の図形、イラスト等のコンテンツ情報を誘導情報2721として用いてもよい。
図29は、図21の画像処理が終了した後、ユーザが移動している間に誘導情報2721を表示する画像処理の例を示すフローチャートである。まず、画像取得部512は、撮像装置502から現在のフレームの画像を取得し(ステップ2901)、特徴線検出部513は、画像から複数の特徴線を検出する(ステップ2902)。
次に、特定部515は、前後のフレーム間で特徴線を追跡して、現在のフレームにおける対応ペア集合を生成し(ステップ2903)、対応ペア集合を用いて、現在のフレームに対する撮像装置502の位置及び姿勢を計算する(ステップ2904)。
次に、誘導情報生成部2711は、誘導情報2721を生成し、表示部520は、現在のフレームの画像及び物体形状画像537とともに、誘導情報2721を画面上に表示する(ステップ2905)。
次に、誘導情報生成部2711は、ユーザに対する誘導を終了するか否かを判定する(ステップ2906)。例えば、誘導情報生成部2711は、ユーザが第2視点の推奨位置まで移動したときに、誘導を終了すると判定する。誘導情報生成部2711は、ユーザからのタップ等の操作入力を受け付けた場合に、誘導を終了すると判定してもよい。
誘導を終了しない場合(ステップ2906,NO)、画像処理装置2701は、次のフレームについて、ステップ2901以降の処理を繰り返す。一方、誘導を終了する場合(ステップ2906,YES)、画像処理装置2701は、図29の画像処理を終了して、図22又は図26の画像処理を開始する。
ステップ2905において、計算部516は、現在のフレームに対する撮像装置502の位置の評価値536を計算し、表示部520は、計算された評価値536を画面上に表示することも可能である。このとき、表示部520は、評価値536の大きさに応じて異なる色を用いて、評価値536を表示してもよい。これにより、フレーム毎に変化する評価値536が、リアルタイムでユーザに提示される。
図3、図5、及び図27の画像処理装置の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図5及び図27の画像処理装置において、物体形状画像537以外の情報を、第2視点の推奨位置を認知可能な情報として用いる場合は、画像生成部518を省略することができる。稜線を復元する復元処理及びずれ量539の計算が外部の装置によって行われる場合は、復元部519を省略することができる。CADデータ531の代わりに、物体の形状を表す他の形状情報を用いてもよい。
図4、図21、図22、図26、及び図29のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図21のステップ2109及び図26のステップ2608において、表示部520は、物体形状画像以外の情報を画面上に表示してもよい。稜線を復元する復元処理及びずれ量539の計算が外部の装置によって行われる場合は、図22のステップ2202〜ステップ2207の処理を省略することができる。
図1、図17、図25、及び図28の画像は一例に過ぎず、物体の画像は、撮影対象の物体に応じて変化する。図2の稜線及び画像平面、図6のCADデータ、図7の3D線分及び特徴線は一例に過ぎず、稜線、画像平面、CADデータ、3D線分、及び特徴線は、撮影対象の物体、画像処理装置の構成又は条件に応じて変化する。図8、図18、及び図20の対応ペア集合は一例に過ぎず、対応ペア集合は、撮影対象の物体、画像処理装置の構成又は条件に応じて変化する。
図9及び図10の誤差の計算方法は一例に過ぎず、画像処理装置の構成又は条件に応じて別の計算方法を用いてもよい。図11及び図14の候補位置は一例に過ぎず、撮影対象の物体に応じて別の候補位置を設定してもよい。図12、図17、図23、図25、及び図28の物体形状画像は一例に過ぎず、物体形状画像は、撮影対象の物体に応じて変化する。
図13〜図15及び図24の座標系は一例に過ぎず、画像処理装置の構成又は条件に応じて別の座標系を用いてもよい。図16の評価値は一例に過ぎず、撮影対象の物体、画像処理装置の構成又は条件に応じて別の評価値を用いてもよい。図19のずれ量の計算方法は一例に過ぎず、画像処理装置の構成又は条件に応じて別の計算方法を用いてもよい。
式(1)〜式(15)の計算式は一例に過ぎず、画像処理装置の構成又は条件に応じて別の計算式を用いてもよい。
図30は、図3、図5、及び図27の画像処理装置として用いられる情報処理装置(コンピュータ)のハードウェア構成例を示している。図30の情報処理装置は、CPU(Central Processing Unit)3001、メモリ3002、入力装置3003、出力装置3004、補助記憶装置3005、媒体駆動装置3006、及びネットワーク接続装置3007を含む。これらの構成要素はハードウェアであり、バス3008により互いに接続されている。図5及び図27の撮像装置502は、バス3008に接続されていてもよい。
メモリ3002は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ3002は、図3の記憶部311、又は図5及び図27の記憶部511として用いることができる。
CPU3001(プロセッサ)は、例えば、メモリ3002を利用してプログラムを実行することにより、図3の検出部312、特定部313、計算部314、及び決定部315として動作する。
CPU3001は、メモリ3002を利用してプログラムを実行することにより、図5及び図27の画像取得部512、特徴線検出部513、線分検出部514、特定部515、計算部516、及び決定部517としても動作する。CPU3001は、メモリ3002を利用してプログラムを実行することにより、画像生成部518及び復元部519としても動作する。
CPU3001は、メモリ3002を利用してプログラムを実行することにより、図27の誘導情報生成部2711としても動作する。
入力装置3003は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置3004は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、物体形状画像537又はずれ量539を示す情報であってもよい。出力装置3004は、図3の出力部316、又は図5及び図27の表示部520として用いることができる。
補助記憶装置3005は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置3005は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置3005にプログラム及びデータを格納しておき、それらをメモリ3002にロードして使用することができる。補助記憶装置3005は、図3の記憶部311、又は図5及び図27の記憶部511として用いることができる。
媒体駆動装置3006は、可搬型記録媒体3009を駆動し、その記録内容にアクセスする。可搬型記録媒体3009は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体3009は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体3009にプログラム及びデータを格納しておき、それらをメモリ3002にロードして使用することができる。
このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ3002、補助記憶装置3005、又は可搬型記録媒体3009のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置3007は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置3007を介して受信し、それらをメモリ3002にロードして使用することができる。ネットワーク接続装置3007は、図3の出力部316として用いることができる。
なお、情報処理装置が図30のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、可搬型記録媒体3009又は通信ネットワークを使用しない場合は、媒体駆動装置3006又はネットワーク接続装置3007を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図30を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
物体の形状を表す複数の線分を含む形状情報を記憶する記憶部と、
第1の撮影位置から撮像装置によって撮影した前記物体を含む第1画像から、複数の特徴線を検出する検出部と、
前記複数の線分それぞれを前記第1画像上に投影することにより生成される複数の投影線と、前記複数の特徴線との位置関係に基づいて、前記複数の特徴線のうち、前記物体の形状の不良部分を表す特徴線を特定する特定部と、
前記物体を含む第2画像を撮像装置によって撮影する第2の撮影位置の候補である複数の候補位置を、前記第1の撮影位置に基づいて設定するとともに、前記複数の候補位置それぞれの評価値を計算する計算部と、
前記複数の候補位置それぞれの評価値に基づいて、前記複数の候補位置のうち、いずれかの候補位置を決定する決定部と、
決定した前記候補位置を認知可能な情報を出力する出力部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記計算部は、前記第2の撮影位置の候補である所定数の候補位置各々を視点として用いて、前記複数の線分のうち、前記不良部分を表す特徴線に対応する投影線を生成するために用いられた特定の線分が、前記視点から観察されるか否かを判定し、前記特定の線分が前記視点から観察されない場合、前記視点として用いられた候補位置を除外し、前記特定の線分が前記視点から観察される場合、前記視点として用いられた候補位置を選択することで、前記所定数の候補位置の中から前記複数の候補位置を抽出することを特徴とする付記1記載の画像処理装置。
(付記3)
前記計算部は、前記第1の撮影位置と前記複数の候補位置それぞれとの距離に基づいて、前記複数の候補位置それぞれの評価値を計算することを特徴とする付記2記載の画像処理装置。
(付記4)
前記決定した候補位置を認知可能な情報は、前記決定した候補位置から観察される、前記複数の線分が表す前記物体の形状を示す物体形状画像であり、
前記画像処理装置は、
前記物体形状画像を生成する画像生成部と、
前記撮像装置を保持するユーザを前記第1の撮影位置から前記決定した候補位置へ誘導する誘導情報を生成する誘導情報生成部とをさらに備え、
前記出力部は、前記物体形状画像及び前記誘導情報を出力することを特徴とする付記2又は3記載の画像処理装置。
(付記5)
前記撮像装置は、前記決定した候補位置において前記物体を撮影することで前記第2画像を生成し、
前記検出部は、前記第2画像から前記不良部分を表す特徴線を検出し、
前記画像処理装置は、前記第1画像から検出された前記不良部分を表す特徴線と、前記第2画像から検出された前記不良部分を表す特徴線とを用いて、3次元線分を復元し、前記特定の線分の位置と前記3次元線分の位置との間のずれ量を求める復元部をさらに備え、
前記出力部は、前記ずれ量を示す情報を出力することを特徴とする付記2乃至4のいずれか1項に記載の画像処理装置。
(付記6)
前記決定部は、前記特定の線分及び前記3次元線分に基づいて、前記不良部分を撮影するための第3の撮影位置を決定し、
前記出力部は、前記第3の撮影位置を認知可能な情報を出力することを特徴とする付記5記載の画像処理装置。
(付記7)
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
第1の撮影位置から撮像装置によって撮影した物体を含む第1画像から、複数の特徴線を検出し、
前記物体の形状を表す複数の線分それぞれを前記第1画像上に投影することにより生成される複数の投影線と、前記複数の特徴線との位置関係に基づいて、前記複数の特徴線のうち、前記物体の形状の不良部分を表す特徴線を特定し、
前記物体を含む第2画像を撮像装置によって撮影する第2の撮影位置の候補である複数の候補位置を、前記第1の撮影位置に基づいて設定し、
前記複数の候補位置それぞれの評価値を計算し、
前記複数の候補位置それぞれの評価値に基づいて、前記複数の候補位置のうち、いずれかの候補位置を決定し、
決定した前記候補位置を認知可能な情報を出力する、
ことを特徴とする画像処理方法。
(付記8)
前記コンピュータは、前記第2の撮影位置の候補である所定数の候補位置各々を視点として用いて、前記複数の線分のうち、前記不良部分を表す特徴線に対応する投影線を生成するために用いられた特定の線分が、前記視点から観察されるか否かを判定し、前記特定の線分が前記視点から観察されない場合、前記視点として用いられた候補位置を除外し、前記特定の線分が前記視点から観察される場合、前記視点として用いられた候補位置を選択することで、前記所定数の候補位置の中から前記複数の候補位置を抽出することを特徴とする付記7記載の画像処理方法。
(付記9)
前記コンピュータは、前記第1の撮影位置と前記複数の候補位置それぞれとの距離に基づいて、前記複数の候補位置それぞれの評価値を計算することを特徴とする付記8記載の画像処理方法。
(付記10)
前記決定した候補位置を認知可能な情報は、前記決定した候補位置から観察される、前記複数の線分が表す前記物体の形状を示す物体形状画像であり、
前記コンピュータは、
前記物体形状画像を生成し、
前記撮像装置を保持するユーザを前記第1の撮影位置から前記決定した候補位置へ誘導する誘導情報を生成し、
前記物体形状画像及び前記誘導情報を出力することを特徴とする付記8又は9記載の画像処理方法。
(付記11)
前記撮像装置は、前記決定した候補位置において前記物体を撮影することで前記第2画像を生成し、
前記コンピュータは、
前記第2画像から前記不良部分を表す特徴線を検出し、
前記第1画像から検出された前記不良部分を表す特徴線と、前記第2画像から検出された前記不良部分を表す特徴線とを用いて、3次元線分を復元し、
前記特定の線分の位置と前記3次元線分の位置との間のずれ量を求め、
前記ずれ量を示す情報を出力することを特徴とする付記8乃至10のいずれか1項に記載の画像処理方法。
(付記12)
前記コンピュータは、前記特定の線分及び前記3次元線分に基づいて、前記不良部分を撮影するための第3の撮影位置を決定し、前記第3の撮影位置を認知可能な情報を出力することを特徴とする付記11記載の画像処理方法。
101 物体
102、531 CADデータ
111 突出部
201、1902、2402 稜線
211、212 画像平面
221、222、533 特徴線
301、501、2701 画像処理装置
311、511 記憶部
312 検出部
313、515 特定部
314、516 計算部
315、517 決定部
316 出力部
321 形状情報
502 撮像装置
512 画像取得部
513 特徴線検出部
514 線分検出部
518 画像生成部
519 復元部
520 表示部
532、538 画像
534、1901、2401 3D線分
535 対応ペア集合
536 評価値
537、1701、1702、2501 物体形状画像
539 ずれ量
701 物体の形状
901〜904、1303 線分
1001、1002、1903、1904、2403 垂線
1101 タブレット
1102 ユーザ
1103〜1105 位置
1111、1112 領域
1301、1401、1501〜1503 直線
1302 平面
1411−1〜1411−4、1412−1〜1412−4 候補位置
2711 誘導情報生成部
2721 誘導情報
2801 矢印
3001 CPU
3002 メモリ
3003 入力装置
3004 出力装置
3005 補助記憶装置
3006 媒体駆動装置
3007 ネットワーク接続装置
3008 バス
3009 可搬型記録媒体

Claims (7)

  1. 物体の形状を表す複数の線分を含む形状情報を記憶する記憶部と、
    第1の撮影位置から撮像装置によって撮影した前記物体を含む第1画像から、複数の特徴線を検出する検出部と、
    前記複数の線分それぞれを前記第1画像上に投影することにより生成される複数の投影線と、前記複数の特徴線との位置関係に基づいて、前記複数の特徴線のうち、前記物体の形状の不良部分を表す特徴線を特定する特定部と、
    前記物体を含む第2画像を撮像装置によって撮影する第2の撮影位置の候補である複数の候補位置を、前記第1の撮影位置に基づいて設定するとともに、前記複数の候補位置それぞれの評価値を計算する計算部と、
    前記複数の候補位置それぞれの評価値に基づいて、前記複数の候補位置のうち、いずれかの候補位置を決定する決定部と、
    決定した前記候補位置を認知可能な情報を出力する出力部と、
    を備えることを特徴とする画像処理装置。
  2. 前記計算部は、前記第2の撮影位置の候補である所定数の候補位置各々を視点として用いて、前記複数の線分のうち、前記不良部分を表す特徴線に対応する投影線を生成するために用いられた特定の線分が、前記視点から観察されるか否かを判定し、前記特定の線分が前記視点から観察されない場合、前記視点として用いられた候補位置を除外し、前記特定の線分が前記視点から観察される場合、前記視点として用いられた候補位置を選択することで、前記所定数の候補位置の中から前記複数の候補位置を抽出することを特徴とする請求項1記載の画像処理装置。
  3. 前記計算部は、前記第1の撮影位置と前記複数の候補位置それぞれとの距離に基づいて、前記複数の候補位置それぞれの評価値を計算することを特徴とする請求項2記載の画像処理装置。
  4. 前記決定した候補位置を認知可能な情報は、前記決定した候補位置から観察される、前記複数の線分が表す前記物体の形状を示す物体形状画像であり、
    前記画像処理装置は、
    前記物体形状画像を生成する画像生成部と、
    前記撮像装置を保持するユーザを前記第1の撮影位置から前記決定した候補位置へ誘導する誘導情報を生成する誘導情報生成部とをさらに備え、
    前記出力部は、前記物体形状画像及び前記誘導情報を出力することを特徴とする請求項2又は3記載の画像処理装置。
  5. 前記撮像装置は、前記決定した候補位置において前記物体を撮影することで前記第2画像を生成し、
    前記検出部は、前記第2画像から前記不良部分を表す特徴線を検出し、
    前記画像処理装置は、前記第1画像から検出された前記不良部分を表す特徴線と、前記第2画像から検出された前記不良部分を表す特徴線とを用いて、3次元線分を復元し、前記特定の線分の位置と前記3次元線分の位置との間のずれ量を求める復元部をさらに備え、
    前記出力部は、前記ずれ量を示す情報を出力することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  6. 前記決定部は、前記特定の線分及び前記3次元線分に基づいて、前記不良部分を撮影するための第3の撮影位置を決定し、
    前記出力部は、前記第3の撮影位置を認知可能な情報を出力することを特徴とする請求項5記載の画像処理装置。
  7. コンピュータによって実行される画像処理方法であって、
    前記コンピュータが、
    第1の撮影位置から撮像装置によって撮影した物体を含む第1画像から、複数の特徴線を検出し、
    前記物体の形状を表す複数の線分それぞれを前記第1画像上に投影することにより生成される複数の投影線と、前記複数の特徴線との位置関係に基づいて、前記複数の特徴線のうち、前記物体の形状の不良部分を表す特徴線を特定し、
    前記物体を含む第2画像を撮像装置によって撮影する第2の撮影位置の候補である複数の候補位置を、前記第1の撮影位置に基づいて設定し、
    前記複数の候補位置それぞれの評価値を計算し、
    前記複数の候補位置それぞれの評価値に基づいて、前記複数の候補位置のうち、いずれかの候補位置を決定し、
    決定した前記候補位置を認知可能な情報を出力する、
    ことを特徴とする画像処理方法。
JP2019136504A 2019-07-24 2019-07-24 画像処理装置及び画像処理方法 Active JP7230722B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019136504A JP7230722B2 (ja) 2019-07-24 2019-07-24 画像処理装置及び画像処理方法
US16/918,433 US11145048B2 (en) 2019-07-24 2020-07-01 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019136504A JP7230722B2 (ja) 2019-07-24 2019-07-24 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2021021577A true JP2021021577A (ja) 2021-02-18
JP7230722B2 JP7230722B2 (ja) 2023-03-01

Family

ID=74187882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019136504A Active JP7230722B2 (ja) 2019-07-24 2019-07-24 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US11145048B2 (ja)
JP (1) JP7230722B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022057A (ja) * 2019-07-25 2021-02-18 ファナック株式会社 設置支援装置、設置支援システム及び設置支援プログラム
US11164375B1 (en) * 2020-10-21 2021-11-02 Tanzle, Inc. Stereoscopic rendering of non-flat, reflective or refractive surfaces

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141522A1 (ja) * 2013-03-12 2014-09-18 富士フイルム株式会社 画像判定装置、撮像装置、3次元計測装置、画像判定方法、及びプログラム
JP2016061654A (ja) * 2014-09-17 2016-04-25 株式会社東芝 移動支援装置、方法及びプログラム
JP2016136111A (ja) * 2015-01-23 2016-07-28 シャープ株式会社 形状エラー判定装置および判定結果画像生成装置
JP2017182302A (ja) * 2016-03-29 2017-10-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5171963A (en) * 1990-05-21 1992-12-15 Ntn Corporation Laser processing device and laser processing method
GB2277396A (en) * 1993-04-21 1994-10-26 Sharp Kk Optical image processor
JPH11351827A (ja) * 1998-06-10 1999-12-24 Fuji Mach Mfg Co Ltd 画像処理装置
US6927847B2 (en) * 2001-09-13 2005-08-09 Hitachi High-Technologies Corporation Method and apparatus for inspecting pattern defects
WO2003028089A1 (fr) * 2001-09-19 2003-04-03 Olympus Optical Co., Ltd. Systeme de controle de tranches en semiconducteur
US7764826B2 (en) * 2005-12-07 2010-07-27 Hitachi High-Technologies Corporation Method and apparatus of reviewing defects on a semiconductor device
JP4714050B2 (ja) 2006-03-15 2011-06-29 独立行政法人科学技術振興機構 3次元形状モデル生成システム
JP2008185514A (ja) 2007-01-31 2008-08-14 Oki Electric Ind Co Ltd 基板外観検査装置
JP2011185650A (ja) 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
JP5597056B2 (ja) 2010-08-02 2014-10-01 株式会社キーエンス 画像測定装置、画像測定方法及び画像測定装置用のプログラム
JP2017068849A (ja) 2015-10-01 2017-04-06 株式会社巴コーポレーション 物品の組立て状況情報表示装置
JP6880618B2 (ja) 2016-09-26 2021-06-02 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP6946912B2 (ja) 2017-10-06 2021-10-13 富士通株式会社 推定プログラム、推定装置、及び推定方法
JP7027978B2 (ja) 2018-03-14 2022-03-02 富士通株式会社 検査装置、検査方法、及び検査プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141522A1 (ja) * 2013-03-12 2014-09-18 富士フイルム株式会社 画像判定装置、撮像装置、3次元計測装置、画像判定方法、及びプログラム
JP2016061654A (ja) * 2014-09-17 2016-04-25 株式会社東芝 移動支援装置、方法及びプログラム
JP2016136111A (ja) * 2015-01-23 2016-07-28 シャープ株式会社 形状エラー判定装置および判定結果画像生成装置
JP2017182302A (ja) * 2016-03-29 2017-10-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法

Also Published As

Publication number Publication date
US20210027456A1 (en) 2021-01-28
JP7230722B2 (ja) 2023-03-01
US11145048B2 (en) 2021-10-12

Similar Documents

Publication Publication Date Title
US10810734B2 (en) Computer aided rebar measurement and inspection system
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US9633450B2 (en) Image measurement device, and recording medium
JP6836561B2 (ja) 画像処理装置及び画像処理方法
EP3300025B1 (en) Image processing device and image processing method
JP2004213332A (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP7173285B2 (ja) カメラ校正装置、カメラ校正方法、及びプログラム
JP2016109669A (ja) 情報処理装置、情報処理方法、プログラム
US10997702B2 (en) Inspection apparatus, inspection method, and computer readable recording medium storing inspection program
CN107862713B (zh) 针对轮询会场的摄像机偏转实时检测预警方法及模块
JP2020148625A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7230722B2 (ja) 画像処理装置及び画像処理方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2009216503A (ja) 三次元位置姿勢計測方法および装置
JP7180283B2 (ja) 画像処理装置及び画像処理方法
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP5030183B2 (ja) 3次元物体位置姿勢計測方法
JP2019159470A (ja) 推定装置、推定方法、及び推定プログラム
CN113140031B (zh) 三维影像建模系统、方法及应用其的口腔扫描设备
JP2017162251A (ja) 3次元非接触入力装置
CN113297952B (zh) 一种复杂环境下绳驱柔性机器人的测量方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7230722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150