JP2019159375A - Information processing apparatus, superposition display program and superposition display method - Google Patents

Information processing apparatus, superposition display program and superposition display method Download PDF

Info

Publication number
JP2019159375A
JP2019159375A JP2018040661A JP2018040661A JP2019159375A JP 2019159375 A JP2019159375 A JP 2019159375A JP 2018040661 A JP2018040661 A JP 2018040661A JP 2018040661 A JP2018040661 A JP 2018040661A JP 2019159375 A JP2019159375 A JP 2019159375A
Authority
JP
Japan
Prior art keywords
straight line
line group
image
external parameter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018040661A
Other languages
Japanese (ja)
Other versions
JP6962242B2 (en
Inventor
高橋 文之
Fumiyuki Takahashi
文之 高橋
哲男 肥塚
Tetsuo Hizuka
哲男 肥塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018040661A priority Critical patent/JP6962242B2/en
Publication of JP2019159375A publication Critical patent/JP2019159375A/en
Application granted granted Critical
Publication of JP6962242B2 publication Critical patent/JP6962242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

To provide an information processing apparatus, a superposition display program and a superposition display method for improving an extraction efficiency of a ridge line of design data and expanding a scope of application of the superposition display technique.SOLUTION: A first group of lines corresponding to a ridge of an object is extracted based on a picked-up image of the object (A1). A first project image is generated based on design data of the object and a first external parameter (viewpoint position and visual line direction (A3). A second group of lines corresponding to a ridge of the object is extracted based on the first project image (A4). The second group of lines are converted to a third group of lines based on the first external parameter (A5). A second external parameter that is a view point position and a visual line direction same as the picked-up image is calculated based on a correspondence between the first group of lines and the third group of lines (A12). A second project image is rendered to be superposed on the picked-up image based on the design data and the second external parameter (A13).SELECTED DRAWING: Figure 8

Description

本発明は、物体の設計データから描画される透視投影画像のCG(Computer Graphics)と実際の撮像画像とを重畳表示するための情報処理装置,プログラム,方法に関する。   The present invention relates to an information processing apparatus, program, and method for superimposing and displaying a computer graphics (CG) of a perspective projection image drawn from design data of an object and an actual captured image.

近年、製造分野の製品検査において、AR(Augmented Reality)技術を利用した表示技術が提案されている。すなわち、製造物(物体)の撮像画像とその製造物の設計データからレンダリングされる透視投影画像とを重ね合わせて表示し、製造物の実物と設計図との差異を把握しやすくする技術である。このような技術の一例としては、撮像画像にエッジ検出処理を施すことでエッジ線を抽出するとともに設計データの稜線を抽出し、これらの二者の対応関係を作業者が入力することによって、エッジ線に稜線が重なるCGを生成する手法が挙げられる。撮像画像と透視投影画像とが精度よく重なり合うように表示することで、製品検査の精度や作業効率が改善されうる(特許文献1〜3参照)。   In recent years, display technology using AR (Augmented Reality) technology has been proposed in product inspection in the manufacturing field. In other words, this is a technology that makes it easy to grasp the difference between the actual product and the design drawing by superimposing and displaying the captured image of the product (object) and the perspective projection image rendered from the design data of the product. . As an example of such a technique, the edge line is extracted by performing edge detection processing on the captured image, the ridge line of the design data is extracted, and the operator inputs the correspondence between these two, thereby the edge There is a method to generate CG where the ridge line overlaps the line. By displaying the captured image and the perspective projection image so as to overlap with high accuracy, the accuracy and work efficiency of product inspection can be improved (see Patent Documents 1 to 3).

撮像画像に対して正確に重なる透視投影画像を描画するためには、描画対象の設計データだけでなく、その描画対象に対するカメラの相対的な位置姿勢(すなわち、透視投影の視点位置及び視線方向)の情報を考慮に入れることが好ましい。このような情報は、カメラの内部構造によって規定される焦点距離,センサーサイズなどの「内部パラメータ」とは対照的に「外部パラメータ」と呼ばれる。外部パラメータは、例えばユーザーが撮像画像を参照しながら手動で設定してもよいし、あらかじめ設定された複数の外部パラメータ群の中から、撮像画像に似た透視投影画像が描画されるものをユーザーに選択させてもよい。   In order to draw a perspective projection image that accurately overlaps the captured image, not only the design data of the drawing target but also the relative position and orientation of the camera with respect to the drawing target (that is, the perspective position and the line-of-sight direction of the perspective projection) Is preferably taken into account. Such information is called “external parameters” as opposed to “internal parameters” such as focal length and sensor size defined by the internal structure of the camera. For example, the external parameter may be manually set by the user with reference to the captured image, or a user who selects a perspective projection image similar to the captured image from a plurality of preset external parameter groups. May be selected.

一方、撮像画像に含まれる直線要素(エッジ線)と被写体の設計データに含まれる直線要素(稜線)とを対応付けることによって、撮像画像と同等の外部パラメータを推定する手法も提案されている(非特許文献1参照)。外部パラメータの推定精度を高めることで、設計データ上の三次元座標が撮像画像のどこの座標に透視変換(マッピング)されるかを計算することができ、撮像画像と透視投影画像との重畳精度を向上させることができる。   On the other hand, a method has also been proposed in which an external parameter equivalent to a captured image is estimated by associating a linear element (edge line) included in the captured image with a linear element (ridge line) included in the subject design data (non-existing). Patent Document 1). By increasing the estimation accuracy of the external parameters, it is possible to calculate where the 3D coordinates on the design data are to be perspectively transformed (mapped) in the captured image, and the overlay accuracy between the captured image and the perspective projection image Can be improved.

特開2017-091078号公報JP 2017-091078 特開2007-207251号公報JP 2007-207251 A 特開平06-168341号公報Japanese Unexamined Patent Publication No. 06-168341

Lilian Zhang, Chi Xu, Kok-Meng Lee, Reinhard Koch, "Robust and Efficient Pose Estimation from Line Correspondences", Asian Conference on Computer Vision, Computer Vision - ACCV 2012, Springer, p.217-230, (2013)Lilian Zhang, Chi Xu, Kok-Meng Lee, Reinhard Koch, "Robust and Efficient Pose Estimation from Line Correspondences", Asian Conference on Computer Vision, Computer Vision-ACCV 2012, Springer, p.217-230, (2013)

設計データ内の稜線は、設計データに含まれる線分情報(ポリライン情報,ポリゴン情報)の中から、三次元CAD(Computer-Aided Design)モデルの外形特徴を表す線分が検索されて抽出される。しかし、三次元CADモデルの外形に曲面〔平面以外の面だけでなく、複数の微小な平面を連結した擬似的な曲面を含む〕が設けられている場合には、適切な稜線を抽出することが難しい。例えば、設計データ内にフィレット(丸み,ラウンド)付きのエッジが設けられている場合、局所的には曲率が一定の曲面(あるいは、曲率が緩やかに変化している曲面)でエッジが形成されることになり、その中から特定の部位を稜線として抽出することが困難である。設計データ内の曲面がパラメトリック曲面で定義されている場合にも、同様の課題が生じうる。また、たとえ外形に曲面のない三次元CADモデルであっても、その設計データに含まれるポリゴン数が増加するにつれて、稜線の抽出にかかる演算時間が長引いてしまう。例えば、数百万ポリゴンの設計データから稜線を抽出するのに数分〜数十分の時間がかかることがあり、演算効率を改善することが望ましい。   Edge lines in the design data are extracted by searching for line features representing the external features of the 3D CAD (Computer-Aided Design) model from the line segment information (polyline information, polygon information) included in the design data. . However, if the outer shape of the 3D CAD model has a curved surface (including a pseudo curved surface that connects not only a plane but also a plurality of minute planes), extract an appropriate edge line. Is difficult. For example, when an edge with a fillet (roundness or round) is provided in the design data, the edge is locally formed on a curved surface with a constant curvature (or a curved surface with a gradually changing curvature). In other words, it is difficult to extract a specific part as a ridge line. A similar problem can occur when the curved surface in the design data is defined as a parametric curved surface. Even in the case of a three-dimensional CAD model having no curved surface, the calculation time for extracting the edge line is prolonged as the number of polygons included in the design data increases. For example, it may take several minutes to several tens of minutes to extract a ridge line from design data of millions of polygons, and it is desirable to improve calculation efficiency.

一つの側面では、設計データ内の稜線の抽出効率を向上させるとともに、重畳表示の精度を向上させることを目的とする。   In one aspect, an object is to improve the extraction efficiency of edge lines in design data and improve the accuracy of superimposed display.

一つの実施形態において、情報処理装置は、第一抽出部,生成部,第二抽出部,三次元変換部,算出部,重畳表示部を有する。前記第一抽出部は、物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出する。前記生成部は、前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成する。前記第二抽出部は、前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出する。前記三次元変換部は、前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換する。前記算出部は、前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出する。前記重畳表示部は、前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする。   In one embodiment, the information processing apparatus includes a first extraction unit, a generation unit, a second extraction unit, a three-dimensional conversion unit, a calculation unit, and a superimposed display unit. The first extraction unit extracts a first straight line group corresponding to a ridge line of the object based on a captured image of the object. The generation unit generates a first projection image of the object based on data defining a three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspective-projected. The second extraction unit extracts a second straight line group corresponding to the ridge line based on the first projection image. The three-dimensional conversion unit converts the second line group into a three-dimensional third line group based on the first external parameter. The calculation unit calculates a second external parameter representing a viewpoint position and a line-of-sight direction equivalent to an imaging position and an imaging direction of the captured image based on a correspondence relationship between the first straight line group and the third straight line group. The superimposed display unit renders a second projected image of the object superimposed on the captured image based on the data and the second external parameter.

一つの側面では、設計データの稜線の抽出効率を向上させることができ、重畳表示の精度を向上させることができる。   In one aspect, the extraction efficiency of the ridgeline of design data can be improved, and the accuracy of superimposed display can be improved.

(A)は製造物のカメラ画像例、(B)は製造物の設計データの透視投影画像例、(C)は(A)及び(B)の重畳画像例である。(D)は(C)とは別角度から描画した設計データの透視投影画像例、(E)は(A)及び(D)の重畳画像例である。(A) is an example of a camera image of a product, (B) is an example of a perspective projection image of design data of the product, and (C) is an example of a superimposed image of (A) and (B). (D) is an example of a perspective projection image of design data drawn from an angle different from (C), and (E) is an example of a superimposed image of (A) and (D). 情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of information processing apparatus. 重畳表示プログラムのソフトウェア構成を示す図である。It is a figure which shows the software structure of a superimposition display program. 表示装置の表示画面例(直線ペアの入力)である。It is an example of a display screen of a display device (input of a straight line pair). (A)は設計データの透視投影画像例、(B)〜(D)は法線画像例,深度画像例,濃淡画像例である。(E),(F)は第二直線群,第三直線群を示す図である。(A) is a perspective image example of design data, and (B) to (D) are a normal image example, a depth image example, and a grayscale image example. (E), (F) is a figure which shows the 2nd straight line group and the 3rd straight line group. (A)〜(E)は、第三直線群の分割及び再結合を説明するための図である。(A)-(E) are the figures for demonstrating the division | segmentation and recombination of a 3rd straight line group. 表示装置の表示画面例(重畳表示)である。It is an example of a display screen (superimposed display) of a display device. 重畳表示方法の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the superimposition display method.

[1.概要]
以下、図面を参照して実施形態としての情報処理装置1,情報処理装置1で実行される重畳表示プログラム,重畳表示方法を説明する。本件の装置,プログラム,方法は、製造物の撮像画像50(実際に撮像されたカメラ画像)とその製造物の設計データから描画される透視投影画像のCGとを精度よく重ね合わせて表示する重畳表示機能を提供する。図1(A)は前者の撮像画像50の例であり、図1(B)は後者の透視投影画像例である。これらを精度よく重ね合わせることで、図1(C)に示すような重畳画像となる。したがって、ユーザーは前者と後者との差異を目視で迅速に発見することが容易となり、製品検査の精度や作業効率が改善される。
[1. Overview]
Hereinafter, a superimposed display program and a superimposed display method executed by the information processing apparatus 1 and the information processing apparatus 1 as embodiments will be described with reference to the drawings. The apparatus, the program, and the method of the present case are superimposing that accurately superimpose and display a captured image 50 (actually captured camera image) of a product and a CG of a perspective projection image drawn from the design data of the product. Provide a display function. FIG. 1A is an example of the former captured image 50, and FIG. 1B is an example of the latter perspective projection image. By superimposing these with high accuracy, a superimposed image as shown in FIG. Therefore, it becomes easy for the user to quickly find the difference between the former and the latter visually, and the accuracy and work efficiency of product inspection are improved.

一方、図1(D)は、図1(B)とは異なる視点位置及び視線方向で同一の設計データから生成された透視投影画像である。図1(D)の視点位置及び視線方向は、図1(A)のカメラ位置姿勢に一致しないため、これらを重ね合わせたとしても図1(E)に示すように、ずれた重畳画像となる。したがって、製品検査の精度や作業効率を改善するためには、撮像画像50に精度よく重ね合わせることのできる透視投影画像を生成することが好ましく、撮像画像50と同等の外部パラメータを正確に把握することが肝要である。   On the other hand, FIG. 1D is a perspective projection image generated from the same design data at a different viewpoint position and line-of-sight direction from FIG. Since the viewpoint position and the line-of-sight direction in FIG. 1D do not match the camera position and orientation in FIG. 1A, even if they are superimposed, as shown in FIG. . Therefore, in order to improve the accuracy and work efficiency of product inspection, it is preferable to generate a perspective projection image that can be accurately superimposed on the captured image 50, and to accurately grasp external parameters equivalent to the captured image 50. It is important.

[2.ハードウェア構成]
図2は、上記の重畳表示を実施する情報処理装置1(コンピュータ)及びこれに接続される周辺機器を説明するためのブロック図である。情報処理装置1には、カメラ2,ストレージ3,入力機器4,表示装置5が接続される。接続形態は有線接続でも無線接続でもよく、図示しないネットワークを介して接続されるものとしてもよい。情報処理装置1がノートパソコンやスマートフォン,タブレット端末などである場合には、その情報処理装置1に内蔵されるカメラ2,ストレージ3,入力機器4,表示装置5などを用いてもよい。
[2. Hardware configuration]
FIG. 2 is a block diagram for explaining the information processing apparatus 1 (computer) that performs the above superimposed display and peripheral devices connected thereto. A camera 2, a storage 3, an input device 4, and a display device 5 are connected to the information processing apparatus 1. The connection form may be wired connection or wireless connection, and may be connected via a network (not shown). When the information processing apparatus 1 is a notebook personal computer, a smartphone, a tablet terminal, or the like, the camera 2, the storage 3, the input device 4, the display apparatus 5, and the like built in the information processing apparatus 1 may be used.

カメラ2は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを内蔵したディジタルカメラ(撮像装置)やイメージスキャナ,ビデオカメラなどであり、被写体である製造物の撮像画像50を取得するものである。カメラ2で取得された撮像画像50の情報は、情報処理装置1に入力される。なお、ここでいう撮像画像50には、例えばシャッターボタンの操作によって、一枚の独立した静止画像として撮影された画像だけでなく、動画中の一コマに相当する画像も含まれる。   The camera 2 is a digital camera (imaging device), an image scanner, a video camera, or the like that incorporates an image sensor such as a CCD (Charge-Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). 50 is acquired. Information of the captured image 50 acquired by the camera 2 is input to the information processing apparatus 1. Note that the captured image 50 here includes not only an image taken as a single independent still image by operating a shutter button, but also an image corresponding to one frame in a moving image.

ストレージ3は、製造物の立体形状を規定する三次元CADモデルの設計データを記憶するものであり、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD),不揮発性メモリ,リムーバブルメディアなどの記憶装置である。製造物の三次元CADモデルには、その製造物の立体形状を規定するための頂点情報,辺情報(線情報),面情報などが含まれる。また、ストレージ3には、設計データだけでなく、カメラ2で取得された撮像画像50の情報を記憶させておくことも可能である。すなわち、あらかじめ撮像画像50をストレージ3に保存しておき、その撮像画像50を用いて重畳表示を実施してもよい。この場合、カメラ2は省略可能となる。   The storage 3 stores design data of a three-dimensional CAD model that defines the three-dimensional shape of the product. For example, a storage device such as a hard disk drive (HDD), a solid state drive (SSD), a nonvolatile memory, or a removable medium. It is. The three-dimensional CAD model of the product includes vertex information, edge information (line information), surface information, and the like for defining the three-dimensional shape of the product. The storage 3 can store not only design data but also information of the captured image 50 acquired by the camera 2. That is, the captured image 50 may be stored in the storage 3 in advance and the superimposed display may be performed using the captured image 50. In this case, the camera 2 can be omitted.

入力機器4は、情報処理装置1の入力デバイスであり、例えばキーボード,マウス,トラックパッドなどである。また、入力機器4には、表示装置5の表面に取り付けられるパネル型タッチセンサー(タッチパネル)が含まれる。表示装置5は情報処理装置1の出力デバイスであり、例えば液晶ディスプレイ(Liquid Crystal Display,LCD)や有機ELディスプレイ(Organic Electro-Luminescence Display,OELD)である。   The input device 4 is an input device of the information processing apparatus 1 and is, for example, a keyboard, a mouse, a track pad, or the like. The input device 4 includes a panel type touch sensor (touch panel) attached to the surface of the display device 5. The display device 5 is an output device of the information processing device 1, and is, for example, a liquid crystal display (LCD) or an organic EL display (Organic Electro-Luminescence Display, OELD).

情報処理装置1には、プロセッサ41(中央処理装置),メモリ42(メインメモリ,主記憶装置),補助記憶装置43,インタフェース装置44,記録媒体ドライブ45などが内蔵され、内部バス46を介して互いに通信可能に接続される。プロセッサ41は、制御ユニット(制御回路)や演算ユニット(演算回路),キャッシュメモリ(レジスタ群)などを内蔵する中央処理装置である。また、メモリ42は、プログラムや作業中の各種データが格納される記憶装置であり、例えばROM(Read Only Memory),RAM(Random Access Memory)がこれに含まれる。補助記憶装置43は、メモリ42よりも長期的に保持される各種データやファームウェアが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROMなどの不揮発性メモリがこれに含まれる。   The information processing apparatus 1 incorporates a processor 41 (central processing unit), a memory 42 (main memory, main storage device), an auxiliary storage device 43, an interface device 44, a recording medium drive 45, and the like, via an internal bus 46. They are communicably connected to each other. The processor 41 is a central processing unit that incorporates a control unit (control circuit), an arithmetic unit (arithmetic circuit), a cache memory (register group), and the like. The memory 42 is a storage device that stores programs and various data during work, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The auxiliary storage device 43 is a memory device that stores various data and firmware that are held for a longer time than the memory 42, and includes, for example, a nonvolatile memory such as a flash memory and an EEPROM.

インタフェース装置44は、情報処理装置1と外部との間の入出力(Input and Output;I/O)を司るものである。情報処理装置1は、インタフェース装置44を介して、カメラ2,ストレージ3,入力機器4,表示装置5などに接続される。また、記録媒体ドライブ45は、光ディスクや半導体メモリ(Universal Serial Bus規格に準拠したポータブルフラッシュドライブ)などの記録媒体47(リムーバブルメディア)に記録,保存された情報を読み取る機能を持った読取装置(または読取・書込装置)である。情報処理装置1で実行されるプログラムは、メモリ42内に記録,保存してもよいし、補助記憶装置43や記録媒体47に記録,保存してもよい。   The interface device 44 controls input / output (I / O) between the information processing apparatus 1 and the outside. The information processing apparatus 1 is connected to the camera 2, the storage 3, the input device 4, the display device 5, and the like via the interface device 44. Further, the recording medium drive 45 is a reading device (or a device having a function of reading information recorded on and stored in a recording medium 47 (removable medium) such as an optical disk or a semiconductor memory (portable flash drive conforming to the Universal Serial Bus standard). Reading / writing device). The program executed by the information processing apparatus 1 may be recorded and stored in the memory 42, or may be recorded and stored in the auxiliary storage device 43 and the recording medium 47.

[3.ソフトウェア構成]
図3は、情報処理装置1で実行される重畳表示プログラム6の機能的構成を示すブロック図である。重畳表示プログラム6には、カメラ画像処理部10,設計データ処理部20,重畳処理部30が設けられる。カメラ画像処理部10は、カメラ2で撮像された製造物の撮像画像50に関する処理を担当し、設計データ処理部20は製造物の設計データから生成される透視投影画像に関する処理を担当するものである。また、重畳処理部30は、前者の撮像画像50と後者の透視投影画像との重畳表示処理を担当するものである。
[3. Software configuration]
FIG. 3 is a block diagram showing a functional configuration of the superimposed display program 6 executed by the information processing apparatus 1. The superimposed display program 6 includes a camera image processing unit 10, a design data processing unit 20, and a superimposition processing unit 30. The camera image processing unit 10 is in charge of processing related to the captured image 50 of the product imaged by the camera 2, and the design data processing unit 20 is in charge of processing related to the perspective projection image generated from the design data of the product. is there. The superimposition processing unit 30 is in charge of superimposing display processing of the former captured image 50 and the latter perspective projection image.

これらの各要素は、重畳表示プログラム6の機能を便宜的に分類して示したものであり、個々の要素を独立したプログラムとして記述してもよいし、これらの機能を兼ね備えた複合プログラムとして記述してもよい。重畳表示プログラム6は、メモリ42内や補助記憶装置43の内部に記録,保存される。あるいは、記録媒体47上に重畳表示プログラム6が記録,保存され、その記録媒体47に書き込まれている重畳表示プログラム6が記録媒体ドライブ45を介して情報処理装置1に読み込まれて実行される。   Each of these elements shows the functions of the superimposed display program 6 for convenience, and each element may be described as an independent program, or described as a composite program having these functions. May be. The superimposed display program 6 is recorded and stored in the memory 42 or the auxiliary storage device 43. Alternatively, the superimposed display program 6 is recorded and stored on the recording medium 47, and the superimposed display program 6 written on the recording medium 47 is read into the information processing apparatus 1 via the recording medium drive 45 and executed.

[3−1.カメラ画像処理部]
カメラ画像処理部10には、制御部11,画像記憶部12,画像表示部13,第一抽出部14が設けられる。制御部11は、カメラ2の撮影状態を制御して製造物の撮像画像50を取得するものである。画像記憶部12は、撮像画像50のデータを一時的に保存するものである。なお、ストレージ3に保存されている撮像画像50の情報を用いる場合には、その情報(写真データ)を撮像画像50のデータの代わりに画像記憶部12に一時的に記憶させてもよい。以下これらの総称として単に「撮像画像50」との名称を用いる。
[3-1. Camera image processing unit]
The camera image processing unit 10 includes a control unit 11, an image storage unit 12, an image display unit 13, and a first extraction unit 14. The control unit 11 acquires the captured image 50 of the product by controlling the shooting state of the camera 2. The image storage unit 12 temporarily stores the data of the captured image 50. In addition, when using the information of the captured image 50 preserve | saved at the storage 3, you may memorize | store the information (photograph data) in the image memory | storage part 12 instead of the data of the captured image 50 temporarily. Hereinafter, the name “captured image 50” is simply used as a general term for these.

画像表示部13は、画像記憶部12が記憶している撮像画像50のデータに基づき、その撮像画像50を表示装置5に表示させるものである。画像表示部13による表示は、重畳表示が意図されたものではなく、撮像画像50をユーザーに確認させることが意図されている。ここでは、少なくとも撮像画像50に写った製造物の状態がユーザーに把握される程度のサイズ,位置で、表示装置5に撮像画像50が表示される。撮像画像50が表示されている表示装置5の画面を図4(図中左側)に例示する。   The image display unit 13 displays the captured image 50 on the display device 5 based on the data of the captured image 50 stored in the image storage unit 12. The display by the image display unit 13 is not intended to be superimposed and intended to allow the user to confirm the captured image 50. Here, the captured image 50 is displayed on the display device 5 with a size and a position that allow the user to grasp at least the state of the product shown in the captured image 50. A screen of the display device 5 on which the captured image 50 is displayed is illustrated in FIG.

第一抽出部14は、撮像画像50に基づいて、製造物の稜線に相当する第一直線群54を抽出するものである。第一直線群54とは、撮像画像50中の平面座標系で定義される直線(二次元平面内の直線)の集合である。第一直線群54は、例えば撮像画像50に公知のエッジ検出処理(Sobel処理,Laplacian処理,Canny処理など)を施してエッジ画像を生成した後に、公知の直線検出処理(Hough変換や確率的Hough変換など)を施すことで抽出可能である。ここで抽出された第一直線群54の情報は、重畳処理部30に伝達される。   The first extraction unit 14 extracts the first straight line group 54 corresponding to the ridgeline of the product based on the captured image 50. The first straight line group 54 is a set of straight lines (straight lines in a two-dimensional plane) defined in the plane coordinate system in the captured image 50. The first straight line group 54 is, for example, subjected to known edge detection processing (Sobel processing, Laplacian processing, Canny processing, etc.) on the captured image 50 to generate an edge image, and then known public line detection processing (Hough transform or probabilistic Hough transform). Etc.) can be extracted. The information of the first straight line group 54 extracted here is transmitted to the superimposition processing unit 30.

[3−2.設計データ処理部]
設計データ処理部20には、読み込み部21,生成部22,データ表示部23,変更部24,第二抽出部25,三次元変換部26,分割部27,二次元変換部28が設けられる。読み込み部21は、ストレージ3に保存されている設計データの情報を取得するものである。生成部22は、製造物の設計データと第一外部パラメータとに基づいて、製造物の第一投影画像51を生成するものである。第一外部パラメータとは、製造物を透視投影する際の視点位置及び視線方向を表す外部パラメータの一つである。第一外部パラメータの初期値はあらかじめ設定されているが、その値は後述する通り変更可能とされる。ここでいう第一投影画像51は、図5(A)に示すように、隠れ線が消去されたポリゴンの透視投影図であってもよいし、ワイヤーフレームのみで表現された透視投影図であってもよい。
[3-2. Design data processing unit]
The design data processing unit 20 includes a reading unit 21, a generation unit 22, a data display unit 23, a change unit 24, a second extraction unit 25, a three-dimensional conversion unit 26, a division unit 27, and a two-dimensional conversion unit 28. The reading unit 21 acquires design data information stored in the storage 3. The production | generation part 22 produces | generates the 1st projection image 51 of a product based on the design data and 1st external parameter of a product. The first external parameter is one of external parameters representing the viewpoint position and the line-of-sight direction when the product is perspectively projected. The initial value of the first external parameter is set in advance, but the value can be changed as will be described later. As shown in FIG. 5A, the first projection image 51 here may be a perspective projection diagram of a polygon from which hidden lines are erased, or a perspective projection diagram expressed only by a wire frame. Also good.

また、生成部22は、法線画像,深度画像,濃淡画像のそれぞれで生成された第一投影画像51を併せて生成する機能を持つ。これらの法線画像,深度画像,濃淡画像は、例えばスキャンライン法(走査法)を用いて生成してもよいし、レイトレーシング法やレイキャスティング法を用いて生成(計算)してもよい。図5(B)〜(D)はそれぞれ、第一投影画像51の法線画像,深度画像,濃淡画像の描画例である。法線画像とは、被写体(製造物)の表面における法線ベクトルのx,y,z座標の値に赤(Red),緑(Green),青(Blue)の各原色を対応させることによって着色された画像である。深度画像とは、視点位置からの距離に応じて着色された画像である。濃淡画像とは、単色の多階調画像である。   The generation unit 22 has a function of generating a first projection image 51 generated from each of the normal image, the depth image, and the grayscale image. These normal image, depth image, and grayscale image may be generated using, for example, a scan line method (scanning method), or may be generated (calculated) using a ray tracing method or a ray casting method. 5B to 5D are drawing examples of the normal image, the depth image, and the gray image of the first projection image 51, respectively. A normal image is colored by associating red, green, and blue primaries with the x, y, and z coordinate values of the normal vector on the surface of the subject (product). It is an image that was made. A depth image is an image colored according to the distance from the viewpoint position. A grayscale image is a monochromatic multi-tone image.

データ表示部23は、生成部22で生成された第一投影画像51を表示装置5に表示させるものである。本実施形態のデータ表示部23は、各種の第一投影画像51のうち、図5(A)に示すような透視投影図を表示装置5に表示させる。この透視投影図の代わりに、図5(B)〜(D)に示すような法線画像,深度画像,濃淡画像を表示装置5に表示させてもよい。データ表示部23による表示は、画像表示部13による表示と同様に重畳表示が意図されたものではなく、透視投影図をユーザーに確認させることが意図されている。この透視投影図が表示されている表示装置5の画面を図4(図中右側)に例示する。   The data display unit 23 displays the first projection image 51 generated by the generation unit 22 on the display device 5. The data display unit 23 of the present embodiment causes the display device 5 to display a perspective projection view as shown in FIG. 5A among the various first projection images 51. Instead of this perspective projection diagram, normal images, depth images, and grayscale images as shown in FIGS. 5B to 5D may be displayed on the display device 5. The display by the data display unit 23 is not intended to be superimposed in the same manner as the display by the image display unit 13, but is intended to allow the user to confirm the perspective projection view. A screen of the display device 5 on which this perspective projection view is displayed is illustrated in FIG.

変更部24は、生成部22で第一投影画像51を生成する際に参照される第一外部パラメータを変更するものである。変更部24は、あらかじめ設定された規則に基づいて、あるいはユーザーの入力操作に基づいて、第一外部パラメータを変更する。本実施形態の変更部24は、ユーザーによる第一外部パラメータの入力・変更を可能とするUI(User Interface)を提供する。例えば、マウスやキーボード操作で第一投影画像51の視点位置及び視線方向をユーザーが直感的に変更できるようにする。   The changing unit 24 changes the first external parameter referred to when the generating unit 22 generates the first projection image 51. The changing unit 24 changes the first external parameter based on a preset rule or based on a user input operation. The change unit 24 of the present embodiment provides a UI (User Interface) that allows the user to input and change the first external parameter. For example, the user can intuitively change the viewpoint position and the line-of-sight direction of the first projection image 51 by operating a mouse or a keyboard.

図4中のマウスポインタ53は、第一投影画像51の位置やスケール(拡縮率),回転方向,回転量などを変更するためのマウス入力が可能であることを示している。例えば、第一投影画像51をマウスでドラッグする(左クリックしたままマウスポインタ53の位置を移動させる)ことで表示位置が変更され、第一投影画像51の上で右クリックした状態で上下方向にドラッグすることでスケールが変更されるものとする。また、第一投影画像51以外の余白部分においてマウスを右クリックした状態で上下方向にドラッグすることで第一投影画像51が上下方向に回転し、マウスを右クリックした状態で左右方向にドラッグすることで第一投影画像51が左右方向に回転するものとする。ここで変更された第一外部パラメータの値は、生成部22で生成される第一投影画像51にリアルタイムに反映される。   A mouse pointer 53 in FIG. 4 indicates that mouse input for changing the position, scale (enlargement / reduction ratio), rotation direction, rotation amount, and the like of the first projection image 51 is possible. For example, the display position is changed by dragging the first projection image 51 with the mouse (moving the position of the mouse pointer 53 while left-clicking). It is assumed that the scale is changed by dragging. In addition, when the mouse is right-clicked and dragged in the vertical direction in a blank area other than the first projection image 51, the first projection image 51 is rotated in the vertical direction, and the mouse is right-clicked and dragged in the left-right direction. Thus, it is assumed that the first projection image 51 rotates in the left-right direction. The value of the first external parameter changed here is reflected in real time on the first projection image 51 generated by the generation unit 22.

第二抽出部25は、生成部22で生成された第一投影画像51に基づき、製造物の立体形状の稜線に相当する第二直線群55を抽出するものである。第二直線群55とは、第一投影画像51中の平面座標系で定義される直線(二次元平面内の直線)の集合である。第二直線群55は、例えば第一投影画像51に公知のエッジ検出処理(Sobel処理,Laplacian処理,Canny処理など)を施してエッジ画像を生成した後に、公知の直線検出処理(Hough変換や確率的Hough変換など)を施すことで抽出可能である。図5(E)は、図5(B)に示す法線画像から抽出された第二直線群55を示す図である。   The second extraction unit 25 extracts the second straight line group 55 corresponding to the three-dimensional ridgeline of the product based on the first projection image 51 generated by the generation unit 22. The second straight line group 55 is a set of straight lines (straight lines in a two-dimensional plane) defined in the plane coordinate system in the first projection image 51. The second straight line group 55 is, for example, generated by performing known edge detection processing (Sobel processing, Laplacian processing, Canny processing, etc.) on the first projection image 51 and then generating known edge detection processing (Hough transform or probability). It is possible to extract by performing a general Hough transform. FIG. 5E is a diagram showing the second straight line group 55 extracted from the normal image shown in FIG.

本実施形態の第二直線群55は、生成部22で生成された第一投影画像51のうち、少なくとも法線画像,深度画像,濃淡画像のいずれかを用いて第二直線群55を抽出する。なお、濃淡画像に関しては、レンダリング時の照明位置に依存してエッジの検出できない部位(エッジの検出精度が著しく低下する部位)が生じうる。そのため、濃淡画像を用いる場合には他の画像(法線画像または深度画像)を併用して第二直線群55を抽出することが好ましい。法線画像,深度画像に関しても同様であり、単独の画像を用いるよりは複数の画像を併用することが好ましい。法線画像,深度画像,濃淡画像の三画像を併用することで、第二直線群55の抽出精度が著しく向上する。   The second straight line group 55 of the present embodiment extracts the second straight line group 55 using at least one of a normal image, a depth image, and a grayscale image from the first projection image 51 generated by the generation unit 22. . Note that with respect to a grayscale image, a portion where an edge cannot be detected (a portion where the edge detection accuracy is significantly reduced) may occur depending on the illumination position at the time of rendering. Therefore, when using a grayscale image, it is preferable to extract the second straight line group 55 using another image (normal image or depth image) in combination. The same applies to the normal image and the depth image, and it is preferable to use a plurality of images in combination rather than using a single image. By using the three images of the normal image, the depth image, and the gray image together, the extraction accuracy of the second straight line group 55 is remarkably improved.

なお、第二直線群55は、第一抽出部14に第一投影画像51を入力することでも抽出することが可能である。したがって、第一抽出部14,第二抽出部25のいずれか一方を省略し、残りの一方に二つの機能を集約させてもよい。あるいは、第一抽出部14と第二抽出部25との両方を設けることで、第一直線群54の抽出と第二直線群55の抽出とを同時に並行して処理できるようにしてもよい。   The second straight line group 55 can also be extracted by inputting the first projection image 51 to the first extraction unit 14. Therefore, one of the first extraction unit 14 and the second extraction unit 25 may be omitted, and the two functions may be integrated into the remaining one. Alternatively, by providing both the first extraction unit 14 and the second extraction unit 25, the extraction of the first straight line group 54 and the extraction of the second straight line group 55 may be processed simultaneously in parallel.

三次元変換部26は、第一外部パラメータに基づき、第二直線群55を三次元の第三直線群56に変換するものである。第二直線群55(二次元)から第三直線群56(三次元)への変換は、例えば第一外部パラメータを用いた逆投影処理で実現することができる。本実施形態の三次元変換部26は、第二直線群55に含まれるそれぞれの直線について、その直線上に位置する二つの点を設定する。また、第一投影画像51中の平面座標系における各点の座標(二次元座標)と各点の深度情報と第一外部パラメータとから各点の三次元座標を算出し、三次元の直線を特定する。このような演算をそれぞれの直線で繰り返すことによって、複数の三次元直線を含む第三直線群56の情報が得られる。   The three-dimensional conversion unit 26 converts the second straight line group 55 into a three-dimensional third straight line group 56 based on the first external parameter. The conversion from the second straight line group 55 (two-dimensional) to the third straight line group 56 (three-dimensional) can be realized by, for example, back projection processing using the first external parameter. The three-dimensional conversion unit 26 of the present embodiment sets two points located on the straight lines included in the second straight line group 55. Further, the three-dimensional coordinates of each point are calculated from the coordinates (two-dimensional coordinates) of each point in the planar coordinate system in the first projection image 51, the depth information of each point, and the first external parameter, and a three-dimensional straight line is obtained. Identify. By repeating such calculation for each straight line, information on the third straight line group 56 including a plurality of three-dimensional straight lines can be obtained.

なお、第二直線群55から第三直線群56への変換に際し、第二直線群55に含まれる二次元直線上の複数の点(二次元)を逆投影変換により三次元の点に変換し、それらを繋いだ線分の形状変化率に基づいて直線を分割しながら第三直線群56を求めてもよい。線分の形状変化率を参照することで、曲線状の稜線を複数の直線に分けて(折れ線として)認識することが容易となる。   In the conversion from the second straight line group 55 to the third straight line group 56, a plurality of points (two-dimensional) on the two-dimensional straight lines included in the second straight line group 55 are converted into three-dimensional points by back projection conversion. The third straight line group 56 may be obtained while dividing the straight line based on the shape change rate of the line segment connecting them. By referring to the shape change rate of the line segment, it becomes easy to recognize the curved ridge line as a plurality of straight lines (as a broken line).

分割部27は、第三直線群56に含まれる直線のうち、実際の製造物の表面から離隔している部位(実際の製造物の稜線に相当しない部位)を第三直線群56から除去するものである。ここでは、例えば第二抽出部25での誤抽出に由来する不適切な部位が第三直線群56から除外される。図6(A)に示すように、頂面と側面との境界をなす一辺に凹みが形成された立方体状の製造物について、矢印方向を視線方向とした場合について説明する。立方体の頂面及び凹みの底面のそれぞれの法線方向は、ほぼ同一であるものとする。図6(B)に示す第一投影画像51(法線画像)では、実際よりも凹みの形状が小さく見えるようになる。これにより、実際には凹みを介して二分されている稜線が、一本の直線61として誤抽出されうる。   The dividing unit 27 removes, from the third straight line group 56, a part of the straight line included in the third straight line group 56 that is separated from the surface of the actual product (a part not corresponding to the ridgeline of the actual product). Is. Here, for example, inappropriate parts derived from erroneous extraction by the second extraction unit 25 are excluded from the third straight line group 56. As shown in FIG. 6 (A), a case where the direction of the arrow is the line-of-sight direction will be described for a cubic product in which a recess is formed on one side that forms the boundary between the top surface and the side surface. The normal directions of the top surface of the cube and the bottom surface of the dent are assumed to be substantially the same. In the first projection image 51 (normal image) shown in FIG. 6B, the shape of the dent appears to be smaller than actual. As a result, the ridge line that is actually divided into two via the dent can be erroneously extracted as one straight line 61.

このような課題を踏まえて、分割部27は、第三直線群56に含まれる直線を複数の点62(または線分)に分割し、それぞれの点62の近傍に設計データが存在するか否かを判定する。設計データが近傍に存在しない場合にはその点62を除去し、存在する場合にはその点62を残存させる。このとき、点62から設計データまでの距離が所定距離以上である場合に「設計データが近傍に存在しない」と判断する。これにより、図6(D)に示すように、凹みに対応する部位の点62が削除される。その後、残存した複数の点62の連続性を評価することで直線に再結合させる。図6(E)中の直線63は、削除された部分よりも右側に位置していた点62を再結合したものに相当し、直線64は、左側に位置していた点62を再結合したものに相当する。このような操作を繰り返すことで、設計データのモデル形状に従った複数の三次元直線を取得することができる。   Based on such a problem, the dividing unit 27 divides a straight line included in the third straight line group 56 into a plurality of points 62 (or line segments), and whether or not design data exists in the vicinity of each point 62. Determine whether. If the design data does not exist in the vicinity, the point 62 is removed, and if it exists, the point 62 is left. At this time, if the distance from the point 62 to the design data is equal to or greater than the predetermined distance, it is determined that “the design data does not exist in the vicinity”. Thereby, as shown in FIG. 6D, the point 62 of the part corresponding to the dent is deleted. Thereafter, the continuity of the plurality of remaining points 62 is evaluated to recombine with a straight line. The straight line 63 in FIG. 6 (E) corresponds to the recombination of the point 62 located on the right side of the deleted portion, and the straight line 64 is the recombination of the point 62 located on the left side. It corresponds to a thing. By repeating such an operation, a plurality of three-dimensional straight lines according to the model shape of the design data can be acquired.

二次元変換部28は、分割部27で不適切な部位が除去された第三直線群56を再度、二次元直線群に投影変換するものである。この二次元直線群は、表示装置5に表示するために二次元化されたものであり、実質的には第三直線群56と同じものである。ここでは、第一外部パラメータに基づいて第三直線群56が二次元直線群に変換される。ここで算出された二次元直線群の情報は、重畳処理部30に伝達される。   The two-dimensional conversion unit 28 projects and converts the third straight line group 56 from which inappropriate parts are removed by the dividing unit 27 into a two-dimensional straight line group again. The two-dimensional straight line group is two-dimensionalized for display on the display device 5, and is substantially the same as the third straight line group 56. Here, the third straight line group 56 is converted into a two-dimensional straight line group based on the first external parameter. Information on the two-dimensional line group calculated here is transmitted to the superimposition processing unit 30.

[3−3.重畳処理部]
重畳処理部30には、稜線表示部31,取得部32,算出部33,重畳表示部34が設けられる。稜線表示部31は、第一直線群54と第三直線群56とを選択可能な状態で表示装置5に表示させるものである。本実施形態では、第三直線群56と実質的に同一な情報である二次元直線群が表示装置5に表示される。例えば図4に示すように、第一直線群54は撮像画像50の上に重ねて表示され、第三直線群56(二次元直線群)は第一投影画像51の上に重ねて表示される。これにより、撮像画像50における稜線と第一投影画像51における稜線とが強調され、ユーザーが対応関係を選択しやすくなる。
[3-3. Superimposition processing unit]
The superimposition processing unit 30 includes a ridge line display unit 31, an acquisition unit 32, a calculation unit 33, and a superimposition display unit 34. The ridge line display unit 31 displays the first straight line group 54 and the third straight line group 56 on the display device 5 in a selectable state. In the present embodiment, a two-dimensional line group that is substantially the same information as the third line group 56 is displayed on the display device 5. For example, as shown in FIG. 4, the first line group 54 is displayed so as to be superimposed on the captured image 50, and the third line group 56 (two-dimensional line group) is displayed so as to be superimposed on the first projected image 51. Thereby, the ridge line in the captured image 50 and the ridge line in the first projection image 51 are emphasized, and the user can easily select the correspondence.

取得部32は、ユーザーの選択操作に基づき、第一直線群54と第三直線群56との対応関係を取得するものである。取得部32は、第一直線群54に含まれる直線が、第三直線群56に含まれるどの直線に対応するものであるか(どれが直線ペアであるか)をユーザーが入力することのできるUIを提供する。例えば、図4中のマウスポインタを第一直線群54内のいずれかの直線上に移動させて左クリックし、その後、対応する第三直線群56内のいずれかの直線上にマウスポインタを移動させて左クリックすることで、一組の直線ペアの関係が特定されるものとする。本実施形態の取得部32は、設計データ上の三次元座標が撮像画像50のどこの座標に透視変換されるかを把握するために、少なくとも四組以上の対応関係を取得する。少なくとも四組の対応関係を特定することで上記の透視変換の計算が可能となる。ここで取得された対応関係の情報は、算出部33に伝達される。   The acquisition unit 32 acquires a correspondence relationship between the first straight line group 54 and the third straight line group 56 based on a user's selection operation. The acquisition unit 32 allows the user to input which straight line included in the first straight line group 54 corresponds to which straight line included in the third straight line group 56 (which is a straight line pair). I will provide a. For example, the mouse pointer in FIG. 4 is moved to any straight line in the first line group 54 and left-clicked, and then the mouse pointer is moved to any straight line in the corresponding third line group 56. By left-clicking, the relationship between a pair of straight lines is specified. The acquisition unit 32 of the present embodiment acquires at least four or more sets of correspondences in order to grasp where the three-dimensional coordinates on the design data are perspective-transformed in the captured image 50. By specifying at least four correspondence relationships, the perspective transformation can be calculated. The information on the correspondence acquired here is transmitted to the calculation unit 33.

算出部33は、取得部32で取得された対応関係に基づき、撮像画像50の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出するものである。設計データ及び第二外部パラメータに基づく透視投影画像は、撮像画像50に一致する画像となる。したがって、第二外部パラメータを算出することで、設計データ上の三次元座標が撮像画像50のどこの座標に透視変換されるかを精度よく把握できるようになる。ここで算出された第二外部パラメータの情報は、重畳表示部34に伝達される。   Based on the correspondence acquired by the acquisition unit 32, the calculation unit 33 calculates a second external parameter that represents a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image 50. The perspective projection image based on the design data and the second external parameter is an image that matches the captured image 50. Therefore, by calculating the second external parameter, it is possible to accurately grasp to which coordinate of the captured image 50 the three-dimensional coordinates on the design data are to be perspectively transformed. The information of the second external parameter calculated here is transmitted to the superimposed display unit 34.

重畳表示部34は、設計データ及び第二外部パラメータに基づき、製造物の第二投影画像52を生成するとともに、これを撮像画像50に重ねてレンダリングするものである。上記の通り、撮像画像50の撮像位置及び撮像方向と同等の視点位置及び視線方向を把握することで、撮像画像50に一致する透視投影画像が生成可能となる。図7は、撮像画像50とこれに重畳された第二投影画像52とを例示する図である。このような重畳表示により、ユーザーは撮像画像50と第二投影画像52との差異を目視で迅速に発見することが容易となり、製品検査の精度や作業効率が改善される。   The superimposed display unit 34 generates a second projected image 52 of the product based on the design data and the second external parameter, and renders the superimposed image on the captured image 50. As described above, by grasping the viewpoint position and line-of-sight direction equivalent to the imaging position and imaging direction of the captured image 50, a perspective projection image that matches the captured image 50 can be generated. FIG. 7 is a diagram illustrating a captured image 50 and a second projection image 52 superimposed thereon. By such superposition display, it becomes easy for the user to quickly and visually find the difference between the captured image 50 and the second projection image 52, and the accuracy and work efficiency of product inspection are improved.

[4.フローチャート]
図8は、重畳表示プログラム6における重畳表示方法の手順を例示するフローチャートである。まず、カメラ画像処理部10において、製造物の稜線に相当する第一直線群54が撮像画像50に基づいて抽出される(ステップA1)。一方、設計データ処理部20では、第一外部パラメータの初期値が読み込まれるとともに(ステップA2)、その第一外部パラメータと設計データとに基づき、第一投影画像51が生成される(ステップA3)。本実施形態では、図5(A)〜(D)に示すように、複数の第一投影画像51が生成される。これらの第一投影画像51のうち、図5(A)に示すポリゴンの透視投影図は、ユーザーによる第一外部パラメータの入力・変更を補助するために表示される。
[4. flowchart]
FIG. 8 is a flowchart illustrating the procedure of the superimposed display method in the superimposed display program 6. First, in the camera image processing unit 10, the first straight line group 54 corresponding to the ridgeline of the product is extracted based on the captured image 50 (step A1). On the other hand, the design data processing unit 20 reads the initial value of the first external parameter (step A2), and generates the first projection image 51 based on the first external parameter and the design data (step A3). . In the present embodiment, as shown in FIGS. 5A to 5D, a plurality of first projection images 51 are generated. Of these first projection images 51, the perspective perspective view of the polygon shown in FIG. 5A is displayed to assist the user in inputting and changing the first external parameter.

第一投影画像51のうち、図5(B)〜(D)に示す法線画像,深度画像,濃淡画像は、第二直線群55の抽出に用いられる。すなわち、製造物の稜線に相当する第二直線群55が第一投影画像51に基づいて抽出される(ステップA4)。その後、第一外部パラメータを用いた逆投影処理により、二次元の第二直線群55が三次元の第三直線群56に変換される(ステップA5)。これにより、設計データ上の稜線に相当する三次元の直線が把握される。   Of the first projection image 51, the normal image, the depth image, and the gray image shown in FIGS. 5B to 5D are used for extracting the second straight line group 55. That is, the second straight line group 55 corresponding to the ridgeline of the product is extracted based on the first projection image 51 (step A4). Thereafter, the two-dimensional second straight line group 55 is converted into the three-dimensional third straight line group 56 by back projection processing using the first external parameter (step A5). Thereby, a three-dimensional straight line corresponding to the ridgeline on the design data is grasped.

また、第三直線群56に含まれる直線のうち、製造物の表面から離隔している部位は、第三直線群56から除外され、残存した部位は再結合される(ステップA6)。これにより、第二抽出部25での誤抽出に由来する不適切な部位が第三直線群56から取り除かれ、第三直線群56の抽出精度が向上する。その後、不適切な部位が除去された第三直線群56が二次元直線群に投影変換され(ステップA7)、第一直線群54と第三直線群56とが選択可能な状態で表示装置5に表示され(ステップA8)、ユーザーによる入力が受け付けられる状態となる(ステップA9)。ユーザーは、第一直線群54と第三直線群56とを見比べながら、第一外部パラメータの変更や、第一直線群54と第三直線群56との対応関係の選択を実施することが可能となる。   In addition, among the straight lines included in the third straight line group 56, the part separated from the surface of the product is excluded from the third straight line group 56, and the remaining part is recombined (step A6). Thereby, an inappropriate part derived from erroneous extraction by the second extraction unit 25 is removed from the third line group 56, and the extraction accuracy of the third line group 56 is improved. Thereafter, the third straight line group 56 from which inappropriate portions have been removed is projected and converted into a two-dimensional straight line group (step A7), and the first straight line group 54 and the third straight line group 56 are selectable in the display device 5 in a selectable state. This is displayed (step A8), and the input by the user is accepted (step A9). The user can change the first external parameter and select the correspondence relationship between the first straight line group 54 and the third straight line group 56 while comparing the first straight line group 54 and the third straight line group 56. .

続いて、第一外部パラメータがユーザーによって変更されたか否かが判定される(ステップA10)。この条件が成立するとフローがステップA3まで戻り、第一投影画像51が再生成される。これにより、視点位置や視線方向が異なる第一投影画像51が描画されることになり、これに応じて第二直線群55や第三直線群56も再計算される。また、第一直線群54と第三直線群56との対応関係について、少なくとも四組の対応関係がユーザーに選択されたか否かが判定される(ステップA11)。   Subsequently, it is determined whether or not the first external parameter has been changed by the user (step A10). When this condition is satisfied, the flow returns to step A3, and the first projection image 51 is regenerated. As a result, the first projected image 51 having a different viewpoint position and line-of-sight direction is drawn, and the second straight line group 55 and the third straight line group 56 are recalculated accordingly. Further, regarding the correspondence relationship between the first straight line group 54 and the third straight line group 56, it is determined whether or not at least four pairs of correspondence relationships have been selected by the user (step A11).

この条件が不成立の場合にはフローがステップA3まで戻る。一方、この条件が成立すると、第二外部パラメータが算出され(ステップA12)、設計データと第二外部パラメータとに基づいて第二投影画像52が描画される(ステップA13)。このとき、第二投影画像52の視点位置及び視線方向は、撮像画像50の撮像位置及び撮像方向と同等となる。したがって、第二投影画像52は撮像画像50に対してほぼ一致した状態で重畳表示される。   If this condition is not satisfied, the flow returns to step A3. On the other hand, when this condition is satisfied, the second external parameter is calculated (step A12), and the second projected image 52 is drawn based on the design data and the second external parameter (step A13). At this time, the viewpoint position and the line-of-sight direction of the second projection image 52 are equivalent to the imaging position and the imaging direction of the captured image 50. Therefore, the second projection image 52 is displayed in a superimposed manner in a state that substantially matches the captured image 50.

[5.作用,効果]
(1)上述の実施形態では、設計データに基づいて第一投影画像51を生成し、第一投影画像51から稜線に相当する第二直線群55を抽出するとともに三次元の第三直線群56に変換している。このような処理を実施することで、設計データ内の稜線の抽出効率を向上させることができる。例えば、既存の手法では稜線として検出できないようなフィレット(丸み,ラウンド)付きのエッジにおいても、稜線を抽出することが可能となる。したがって、重畳表示の精度を向上させることができる。
[5. Action, effect]
(1) In the above-described embodiment, the first projection image 51 is generated based on the design data, the second line group 55 corresponding to the ridge line is extracted from the first projection image 51, and the three-dimensional third line group 56 is extracted. Has been converted. By performing such processing, the extraction efficiency of the ridge lines in the design data can be improved. For example, it is possible to extract a ridge line even at an edge with a fillet (roundness, round) that cannot be detected as a ridge line by an existing method. Therefore, the accuracy of superimposed display can be improved.

また、撮像画像50内の直線部分(二次元)と設計データ内の稜線部分(三次元)との対応関係を適切に特定することができるようになる。つまり、既存の技術では稜線の抽出が困難だった物体に対しても重畳表示を可能とすることができ、重畳表示技術の適用対象を拡大することができる。さらに、設計データに含まれるポリゴン数が多い場合であっても、二次元の第一投影画像51から第二直線群55を抽出するための演算負荷は、三次元の稜線抽出のための演算負荷と比較して小さい。したがって、既存の手法と比較して、演算時間を短縮することができ、演算効率を改善することができる。   In addition, the correspondence between the straight line portion (two-dimensional) in the captured image 50 and the ridge line portion (three-dimensional) in the design data can be appropriately specified. That is, it is possible to perform superimposed display even on an object for which it has been difficult to extract a ridge line with the existing technology, and it is possible to expand the application target of the superimposed display technology. Furthermore, even when the number of polygons included in the design data is large, the calculation load for extracting the second straight line group 55 from the two-dimensional first projection image 51 is the calculation load for three-dimensional ridge line extraction. Small compared to Therefore, the calculation time can be shortened and the calculation efficiency can be improved as compared with the existing method.

(2)上述の実施形態では、図4に示すように、第一直線群54と第三直線群56とを選択可能な状態で表示した上でユーザーに対応関係(ペア)を選択させている。このような手法を採用することで、直線群同士の適切な対応関係を取得することが容易となり、第二外部パラメータの推定精度を向上させることができる。また、直感的にわかりやすいユーザーフレンドリーなUIを提供することができ、利便性を向上させることができるとともに、製品検査の精度や作業効率を高めることができる。   (2) In the above-described embodiment, as shown in FIG. 4, the first straight line group 54 and the third straight line group 56 are displayed in a selectable state, and the user is allowed to select a correspondence (pair). By adopting such a method, it becomes easy to obtain an appropriate correspondence between the straight line groups, and the estimation accuracy of the second external parameter can be improved. In addition, it is possible to provide a user-friendly UI that is intuitive and easy to understand, improving convenience, and improving the accuracy and work efficiency of product inspection.

(3)上述の実施形態では、第一外部パラメータが変更されるたびに第一投影画像51が更新され、その都度、第三直線群56が更新される。これにより、第一投影画像51を回転させながら第一直線群54と第三直線群56との対応関係を確認することができ、利便性を向上させることができるとともに、製品検査の精度や作業効率を高めることができる。   (3) In the above-described embodiment, the first projection image 51 is updated each time the first external parameter is changed, and the third straight line group 56 is updated each time. Thereby, while rotating the 1st projection image 51, the correspondence of the 1st straight line group 54 and the 3rd straight line group 56 can be confirmed, and while being able to improve convenience, the precision and work efficiency of product inspection Can be increased.

(4)特に、上述の実施形態では第一投影画像51の第一外部パラメータをユーザーが入力できるようになっている。これにより、第一直線群54と第三直線群56との対応関係を特定しやすくすることができる。例えば、撮像画像50に精度良く重畳する視点位置・視線方向で第一投影画像51を表示した状態において、選択したい直線が他の直線の近傍に位置している場合に、その直線を上手に選択できないことが考えられる。このような場合であっても、ユーザーは第一投影画像51をわずかに回転させて、所望の直線を選択しやすくすることができる。したがって、利便性を向上させることができるとともに、製品検査の精度や作業効率を高めることができる。   (4) In particular, in the above-described embodiment, the user can input the first external parameter of the first projection image 51. Thereby, it is possible to easily identify the correspondence relationship between the first straight line group 54 and the third straight line group 56. For example, when the first projection image 51 is displayed in the viewpoint position / line-of-sight direction that is accurately superimposed on the captured image 50, if the straight line to be selected is located in the vicinity of another straight line, the straight line is selected well It is thought that it cannot be done. Even in such a case, the user can slightly rotate the first projection image 51 to facilitate selection of a desired straight line. Therefore, the convenience can be improved and the accuracy and work efficiency of product inspection can be improved.

(5)上述の実施形態では、図4に示すように、第三直線群56だけでなく第一外部パラメータに応じた製造物の立体形状が表示される。これにより、第一外部パラメータが変更された結果(第一投影画像51がどのような見え方になるのか)をユーザーにわかりやすく示すことができ、視点位置及び視線方向を精度よく変更させることができる。また、第三直線群56が抽出される元になった形状をユーザーにわかりやすく表示することができ、視点位置及び視線方向を精度よく変更させることができる。   (5) In the above-described embodiment, as shown in FIG. 4, not only the third straight line group 56 but also the three-dimensional shape of the product corresponding to the first external parameter is displayed. As a result, the result of changing the first external parameter (how the first projected image 51 looks) can be easily shown to the user, and the viewpoint position and the line-of-sight direction can be accurately changed. it can. Further, the shape from which the third straight line group 56 is extracted can be displayed in an easy-to-understand manner for the user, and the viewpoint position and the line-of-sight direction can be changed with high accuracy.

(6)上述の実施形態では、図5(B)〜(D)に示すように、少なくとも法線画像,深度画像,濃淡画像のいずれかで第一投影画像51が生成される。これにより、簡素な演算構成で迅速かつ精度良く第二直線群55を抽出することができ、延いては第三直線群56の抽出精度を向上させることができる。   (6) In the above-described embodiment, as shown in FIGS. 5B to 5D, the first projection image 51 is generated as at least one of a normal image, a depth image, and a grayscale image. Thereby, the second straight line group 55 can be extracted quickly and accurately with a simple calculation configuration, and the extraction accuracy of the third straight line group 56 can be improved.

(7)上述の実施形態では、第三直線群56に含まれる直線について、製造物の表面から離隔している部位が第三直線群56から除外される。これにより、第三直線群56に含まれる直線がデータ上の立体形状に沿った形状となり、第一直線群54と第三直線群56との対応関係を正しく選択することができる。   (7) In the above-described embodiment, the part separated from the surface of the product is excluded from the third straight line group 56 for the straight lines included in the third straight line group 56. Thereby, the straight line included in the third straight line group 56 becomes a shape along the three-dimensional shape in the data, and the correspondence relationship between the first straight line group 54 and the third straight line group 56 can be correctly selected.

(8)上述の実施形態では、第三直線群56に含まれる直線が複数の点に分割され、物体までの距離が所定距離以上となる点が除去されるとともに、残存した点が再結合される。これにより、図6(E)に示すように、設計データのモデル形状に従った複数の三次元直線を取得することができ、第三直線群56の抽出精度をさらに向上させることができる。   (8) In the above-described embodiment, the straight line included in the third straight line group 56 is divided into a plurality of points, points where the distance to the object is equal to or greater than a predetermined distance are removed, and the remaining points are recombined. The As a result, as shown in FIG. 6E, a plurality of three-dimensional straight lines according to the model shape of the design data can be acquired, and the extraction accuracy of the third straight line group 56 can be further improved.

[5.変形例]
本実施形態はあくまでも例示に過ぎず、上記の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。すなわち、上記の実施形態をその趣旨を逸脱しない範囲で種々変形して(例えば、実施形態や変形例を組み合わせることによって)実施することが可能である。
[5. Modified example]
This embodiment is merely an example, and there is no intention to exclude various modifications and technical applications that are not explicitly described in the above embodiment. That is, the above-described embodiment can be variously modified (for example, by combining the embodiment and the modified examples) without departing from the spirit of the embodiment.

例えば、上述の実施形態では、ユーザーが設定した第一外部パラメータに基づいて第二直線群55や第三直線群56を抽出する制御について詳述したが、第一外部パラメータの設定や選択を自動化してもよい。例えば、ユーザーに第一外部パラメータの初期値を設定してもらい、その後は第一外部パラメータの値を相違させた複数の外部パラメータを自動生成し、ユーザーに提示することが考えられる。この場合、自動生成された複数の外部パラメータのそれぞれについて法線画像,深度画像,濃淡画像を生成し、第二直線群55を抽出してもよい。第一外部パラメータの設定を自動化することで、ユーザーの作業負荷を軽減することができる。   For example, in the above-described embodiment, the control for extracting the second straight line group 55 and the third straight line group 56 based on the first external parameter set by the user has been described in detail, but the setting and selection of the first external parameter are automated. May be. For example, it is conceivable that the user sets an initial value of the first external parameter, and thereafter, a plurality of external parameters having different values of the first external parameter are automatically generated and presented to the user. In this case, a normal line image, a depth image, and a grayscale image may be generated for each of a plurality of automatically generated external parameters, and the second straight line group 55 may be extracted. By automating the setting of the first external parameter, the user's workload can be reduced.

また、上述の実施形態におけるデータ表示部23は、各種の第一投影画像51のうち、図5(A)に示すような透視投影図を表示装置5に表示させているが、これに加えて(あるいは代えて)法線画像,深度画像,濃淡画像などを表示装置5に表示させてもよい。すなわち、データ表示部23は、物体の第一投影画像51または第一外部パラメータに応じた物体の立体形状を表示するものであればよい。   In addition, the data display unit 23 in the above-described embodiment causes the display device 5 to display a perspective projection view as shown in FIG. 5A among the various first projection images 51. In addition, A normal image, a depth image, a grayscale image, or the like may be displayed on the display device 5 (or alternatively). That is, the data display unit 23 only needs to display the first projection image 51 of the object or the three-dimensional shape of the object according to the first external parameter.

[6.付記]
上記の変形例を含む実施形態に関し、以下の付記を開示する。
(付記1〜8:情報処理装置)
(付記1)
物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出する第一抽出部と、
前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成する生成部と、
前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出する第二抽出部と、
前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換する三次元変換部と、
前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出する算出部と、
前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする重畳表示部とを備える
ことを特徴とする、情報処理装置。
[6. Addendum]
The following additional notes are disclosed regarding the embodiment including the above-described modification.
(Appendix 1-8: Information processing device)
(Appendix 1)
A first extraction unit that extracts a first straight line group corresponding to a ridgeline of the object based on a captured image of the object;
A generating unit that generates a first projection image of the object based on data defining a three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspective-projected;
A second extraction unit that extracts a second straight line group corresponding to the ridge line based on the first projection image;
Based on the first external parameter, a three-dimensional conversion unit that converts the second line group into a three-dimensional third line group;
Based on the correspondence between the first straight line group and the third straight line group, a calculation unit that calculates a second external parameter that represents a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image;
An information processing apparatus comprising: a superimposed display unit that renders a second projection image of the object superimposed on the captured image based on the data and the second external parameter.

(付記2)
前記第一直線群と前記第三直線群とを選択可能な状態で表示装置に表示させる稜線表示部と、
ユーザーの選択操作に基づき、前記第一直線群と前記第三直線群との対応関係を取得する取得部とを備える
ことを特徴とする、付記1記載の情報処理装置。
(Appendix 2)
A ridge line display unit for displaying the first straight line group and the third straight line group on a display device in a selectable state;
The information processing apparatus according to claim 1, further comprising: an acquisition unit that acquires a correspondence relationship between the first straight line group and the third straight line group based on a user's selection operation.

(付記3)
前記第一外部パラメータを変更する変更部を備え、
前記生成部が、前記第一外部パラメータが変更されるたびに前記第一投影画像を更新する
ことを特徴とする、付記1または2記載の情報処理装置。
(Appendix 3)
A changing unit for changing the first external parameter;
The information processing apparatus according to appendix 1 or 2, wherein the generation unit updates the first projection image every time the first external parameter is changed.

(付記4)
前記変更部が、前記第一外部パラメータをユーザーに入力させる機能を有する
ことを特徴とする、付記3記載の情報処理装置。
(Appendix 4)
The information processing apparatus according to appendix 3, wherein the changing unit has a function of causing the user to input the first external parameter.

(付記5)
前記物体の第一投影画像または前記第一外部パラメータに応じた前記物体の立体形状を表示するデータ表示部を備える
ことを特徴とする、付記1〜4のいずれか1項に記載の情報処理装置。
(Appendix 5)
5. The information processing apparatus according to claim 1, further comprising a data display unit configured to display a first projected image of the object or a three-dimensional shape of the object according to the first external parameter. .

(付記6)
前記生成部が、少なくとも法線画像,深度画像,濃淡画像のいずれかで前記第一投影画像を生成する
ことを特徴とする、付記1〜5のいずれか1項に記載の情報処理装置。
(Appendix 6)
The information processing apparatus according to any one of appendices 1 to 5, wherein the generation unit generates the first projection image using at least one of a normal line image, a depth image, and a grayscale image.

(付記7)
前記第三直線群に含まれる直線について、前記物体の表面から離隔している部位を前記第三直線群から除外する分割部を備える
ことを特徴とする、付記1〜6のいずれか1項に記載の情報処理装置。
(Appendix 7)
In any one of appendices 1-6, the straight line included in the third straight line group includes a dividing unit that excludes the part separated from the surface of the object from the third straight line group. The information processing apparatus described.

(付記8)
前記分割部が、前記第三直線群に含まれる直線を複数の線分に分割し、前記立体形状までの距離が所定距離以上となる前記線分を除去するとともに、残存した前記線分を再結合させる
ことを特徴とする、付記7記載の情報処理装置。
(Appendix 8)
The dividing unit divides a straight line included in the third straight line group into a plurality of line segments, removes the line segments whose distance to the three-dimensional shape is equal to or greater than a predetermined distance, and reuses the remaining line segments. The information processing apparatus according to appendix 7, wherein the information processing apparatus is combined.

(付記9〜16:重畳表示プログラム)
(付記9)
物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出し、
前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成し、
前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出し、
前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換し、
前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出し、
前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする
処理をコンピュータに実行させる、重畳表示プログラム。
(Appendix 9-16: Superimposition display program)
(Appendix 9)
Based on the captured image of the object, a first straight line group corresponding to the ridgeline of the object is extracted,
Based on data defining the three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspectively projected, a first projection image of the object is generated,
Based on the first projection image, a second straight line group corresponding to the ridge line is extracted,
Based on the first external parameter, the second line group is converted into a three-dimensional third line group,
Based on the correspondence between the first straight line group and the third straight line group, a second external parameter representing a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image is calculated,
A superimposed display program for causing a computer to execute a process of rendering a second projected image of the object on the captured image based on the data and the second external parameter.

(付記10)
前記第一直線群と前記第三直線群とを選択可能な状態で表示装置に表示させ、
ユーザーの選択操作に基づき、前記第一直線群と前記第三直線群との対応関係を取得する
処理をコンピュータに実行させる、付記9記載の重畳表示プログラム。
(Appendix 10)
The first straight line group and the third straight line group are displayed on a display device in a selectable state,
The superimposed display program according to appendix 9, wherein the computer executes a process of acquiring a correspondence relationship between the first straight line group and the third straight line group based on a user's selection operation.

(付記11)
前記第一外部パラメータを変更し、
前記第一外部パラメータが変更されるたびに前記第一投影画像を更新する
処理をコンピュータに実行させる、付記9または10記載の重畳表示プログラム。
(Appendix 11)
Changing the first external parameter;
The superimposed display program according to appendix 9 or 10, which causes a computer to execute a process of updating the first projection image each time the first external parameter is changed.

(付記12)
前記第一外部パラメータをユーザーに入力させる
処理をコンピュータに実行させる、付記11記載の重畳表示プログラム。
(Appendix 12)
The superimposed display program according to appendix 11, which causes a computer to execute a process for causing the user to input the first external parameter.

(付記13)
前記物体の第一投影画像または前記第一外部パラメータに応じた前記物体の立体形状を表示する
処理をコンピュータに実行させる、付記9〜12のいずれか1項に記載の重畳表示プログラム。
(Appendix 13)
The superimposed display program according to any one of appendices 9 to 12, which causes a computer to execute a process of displaying a first projection image of the object or a three-dimensional shape of the object according to the first external parameter.

(付記14)
少なくとも法線画像,深度画像,濃淡画像のいずれかで前記第一投影画像を生成する
処理をコンピュータに実行させる、付記9〜13のいずれか1項に記載の重畳表示プログラム。
(Appendix 14)
14. The superimposed display program according to any one of appendices 9 to 13, which causes a computer to execute a process of generating the first projection image using at least one of a normal image, a depth image, and a grayscale image.

(付記15)
前記第三直線群に含まれる直線について、前記物体の表面から離隔している部位を前記第三直線群から除外する
処理をコンピュータに実行させる、付記9〜14のいずれか1項に記載の重畳表示プログラム。
(Appendix 15)
The superposition according to any one of appendices 9 to 14, which causes a computer to execute a process of excluding a part separated from the surface of the object from the third straight line group for the straight line included in the third straight line group. Display program.

(付記16)
前記第三直線群に含まれる直線を複数の線分に分割し、前記立体形状までの距離が所定距離以上となる前記線分を除去するとともに、残存した前記線分を再結合させる
処理をコンピュータに実行させる、付記15記載の重畳表示プログラム。
(Appendix 16)
A computer that divides a straight line included in the third straight line group into a plurality of line segments, removes the line segments whose distance to the three-dimensional shape is a predetermined distance or more, and recombines the remaining line segments. The superimposed display program according to appendix 15, which is executed by the program.

(付記17〜24:重畳表示方法)
(付記17)
物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出し、
前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成し、
前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出し、
前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換し、
前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出し、
前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする
ことを特徴とする、重畳表示方法。
(Appendix 17-24: Superimposition display method)
(Appendix 17)
Based on the captured image of the object, a first straight line group corresponding to the ridgeline of the object is extracted,
Based on data defining the three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspectively projected, a first projection image of the object is generated,
Based on the first projection image, a second straight line group corresponding to the ridge line is extracted,
Based on the first external parameter, the second line group is converted into a three-dimensional third line group,
Based on the correspondence between the first straight line group and the third straight line group, a second external parameter representing a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image is calculated,
A superimposed display method comprising: rendering a second projection image of the object superimposed on the captured image based on the data and the second external parameter.

(付記18)
前記第一直線群と前記第三直線群とを選択可能な状態で表示装置に表示させ、
ユーザーの選択操作に基づき、前記第一直線群と前記第三直線群との対応関係を取得する
ことを特徴とする、付記17記載の重畳表示方法。
(Appendix 18)
The first straight line group and the third straight line group are displayed on a display device in a selectable state,
18. The superimposed display method according to appendix 17, wherein a correspondence relationship between the first straight line group and the third straight line group is acquired based on a user's selection operation.

(付記19)
前記第一外部パラメータを変更し、
前記第一外部パラメータが変更されるたびに前記第一投影画像を更新する
ことを特徴とする、付記17または18記載の重畳表示方法。
(Appendix 19)
Changing the first external parameter;
19. The superimposed display method according to appendix 17 or 18, wherein the first projection image is updated each time the first external parameter is changed.

(付記20)
前記第一外部パラメータをユーザーに入力させる
ことを特徴とする、付記19記載の重畳表示方法。
(Appendix 20)
The superimposed display method according to appendix 19, wherein the user inputs the first external parameter.

(付記21)
前記物体の第一投影画像または前記第一外部パラメータに応じた前記物体の立体形状を表示する
ことを特徴とする、付記17〜20のいずれか1項に記載の重畳表示方法。
(Appendix 21)
The superimposed display method according to any one of appendices 17 to 20, wherein the three-dimensional shape of the object corresponding to the first projection image of the object or the first external parameter is displayed.

(付記22)
少なくとも法線画像,深度画像,濃淡画像のいずれかで前記第一投影画像を生成する
ことを特徴とする、付記17〜21のいずれか1項に記載の重畳表示方法。
(Appendix 22)
The superimposed display method according to any one of appendices 17 to 21, wherein the first projection image is generated by at least one of a normal image, a depth image, and a grayscale image.

(付記23)
前記第三直線群に含まれる直線について、前記物体の表面から離隔している部位を前記第三直線群から除外する
ことを特徴とする、付記17〜22のいずれか1項に記載の重畳表示方法。
(Appendix 23)
The superimposed display according to any one of appendices 17 to 22, wherein a part of the straight line included in the third straight line group is excluded from the third straight line group. Method.

(付記24)
前記第三直線群に含まれる直線を複数の線分に分割し、前記立体形状までの距離が所定距離以上となる前記線分を除去するとともに、残存した前記線分を再結合させる
ことを特徴とする、付記23記載の重畳表示方法。
(Appendix 24)
Dividing a straight line included in the third straight line group into a plurality of line segments, removing the line segments whose distance to the three-dimensional shape is a predetermined distance or more, and recombining the remaining line segments. The superimposed display method according to attachment 23.

1 情報処理装置(コンピューター)
2 カメラ
3 ストレージ
4 入力機器
5 表示装置
6 重畳表示プログラム
10 カメラ画像処理部
11 制御部
12 画像記憶部
13 画像表示部
14 第一抽出部
20 設計データ処理部
21 読み込み部
22 生成部
23 データ表示部
24 変更部
25 第二抽出部
26 三次元変換部
27 分割部
28 二次元変換部
30 重畳処理部
31 稜線表示部
32 取得部
33 算出部
34 重畳表示部
50 撮像画像
51 第一投影画像
52 第二投影画像
54 第一直線群
55 第二直線群
56 第三直線群
1 Information processing equipment (computer)
2 camera 3 storage 4 input device 5 display device 6 superimposed display program 10 camera image processing unit 11 control unit 12 image storage unit 13 image display unit 14 first extraction unit 20 design data processing unit 21 reading unit 22 generation unit 23 data display unit 24 change unit 25 second extraction unit 26 three-dimensional conversion unit 27 division unit 28 two-dimensional conversion unit 30 superimposition processing unit 31 ridge line display unit 32 acquisition unit 33 calculation unit 34 superimposition display unit 50 captured image 51 first projection image 52 second Projected Image 54 First Line Group 55 Second Line Group 56 Third Line Group

Claims (10)

物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出する第一抽出部と、
前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成する生成部と、
前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出する第二抽出部と、
前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換する三次元変換部と、
前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出する算出部と、
前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする重畳表示部とを備える
ことを特徴とする、情報処理装置。
A first extraction unit that extracts a first straight line group corresponding to a ridgeline of the object based on a captured image of the object;
A generating unit that generates a first projection image of the object based on data defining a three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspective-projected;
A second extraction unit that extracts a second straight line group corresponding to the ridge line based on the first projection image;
Based on the first external parameter, a three-dimensional conversion unit that converts the second line group into a three-dimensional third line group;
Based on the correspondence between the first straight line group and the third straight line group, a calculation unit that calculates a second external parameter that represents a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image;
An information processing apparatus comprising: a superimposed display unit that renders a second projection image of the object superimposed on the captured image based on the data and the second external parameter.
前記第一直線群と前記第三直線群とを選択可能な状態で表示装置に表示させる稜線表示部と、
ユーザーの選択操作に基づき、前記第一直線群と前記第三直線群との対応関係を取得する取得部とを備える
ことを特徴とする、請求項1記載の情報処理装置。
A ridge line display unit for displaying the first straight line group and the third straight line group on a display device in a selectable state;
The information processing apparatus according to claim 1, further comprising: an acquisition unit configured to acquire a correspondence relationship between the first straight line group and the third straight line group based on a user's selection operation.
前記第一外部パラメータを変更する変更部を備え、
前記生成部が、前記第一外部パラメータが変更されるたびに前記第一投影画像を更新する
ことを特徴とする、請求項1または2記載の情報処理装置。
A changing unit for changing the first external parameter;
The information processing apparatus according to claim 1, wherein the generation unit updates the first projection image every time the first external parameter is changed.
前記変更部が、前記第一外部パラメータをユーザーに入力させる機能を有する
ことを特徴とする、請求項3記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the changing unit has a function of causing the user to input the first external parameter.
前記物体の第一投影画像または前記第一外部パラメータに応じた前記物体の立体形状を表示するデータ表示部を備える
ことを特徴とする、請求項1〜4のいずれか1項に記載の情報処理装置。
5. The information processing according to claim 1, further comprising a data display unit that displays a first projection image of the object or a three-dimensional shape of the object according to the first external parameter. apparatus.
前記生成部が、少なくとも法線画像,深度画像,濃淡画像のいずれかで前記第一投影画像を生成する
ことを特徴とする、請求項1〜5のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the generation unit generates the first projection image using at least one of a normal line image, a depth image, and a grayscale image.
前記第三直線群に含まれる直線について、前記物体の表面から離隔している部位を前記第三直線群から除外する分割部を備える
ことを特徴とする、請求項1〜6のいずれか1項に記載の情報処理装置。
The straight line included in the third straight line group is provided with a dividing unit that excludes the part separated from the surface of the object from the third straight line group. The information processing apparatus described in 1.
前記分割部が、前記第三直線群に含まれる直線を複数の点に分割し、前記物体までの距離が所定距離以上となる前記点を除去するとともに、残存した前記点を再結合させる
ことを特徴とする、請求項7記載の情報処理装置。
The dividing unit divides a straight line included in the third straight line group into a plurality of points, removes the points where the distance to the object is a predetermined distance or more, and recombines the remaining points. The information processing apparatus according to claim 7, wherein the information processing apparatus is characterized.
物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出し、
前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成し、
前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出し、
前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換し、
前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出し、
前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする
処理をコンピュータに実行させる、重畳表示プログラム。
Based on the captured image of the object, a first straight line group corresponding to the ridgeline of the object is extracted,
Based on data defining the three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspectively projected, a first projection image of the object is generated,
Based on the first projection image, a second straight line group corresponding to the ridge line is extracted,
Based on the first external parameter, the second line group is converted into a three-dimensional third line group,
Based on the correspondence between the first straight line group and the third straight line group, a second external parameter representing a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image is calculated,
A superimposed display program for causing a computer to execute a process of rendering a second projected image of the object on the captured image based on the data and the second external parameter.
物体の撮像画像に基づき、前記物体の稜線に相当する第一直線群を抽出し、
前記物体の立体形状を規定するデータと前記物体を透視投影する際の視点位置及び視線方向を表す第一外部パラメータとに基づき、前記物体の第一投影画像を生成し、
前記第一投影画像に基づき、前記稜線に相当する第二直線群を抽出し、
前記第一外部パラメータに基づき、前記第二直線群を三次元の第三直線群に変換し、
前記第一直線群と前記第三直線群との対応関係に基づき、前記撮像画像の撮像位置及び撮像方向と同等の視点位置及び視線方向を表す第二外部パラメータを算出し、
前記データと前記第二外部パラメータとに基づき、前記物体の第二投影画像を前記撮像画像に重ねてレンダリングする
ことを特徴とする、重畳表示方法。
Based on the captured image of the object, a first straight line group corresponding to the ridgeline of the object is extracted,
Based on data defining the three-dimensional shape of the object and a first external parameter representing a viewpoint position and a line-of-sight direction when the object is perspectively projected, a first projection image of the object is generated,
Based on the first projection image, a second straight line group corresponding to the ridge line is extracted,
Based on the first external parameter, the second line group is converted into a three-dimensional third line group,
Based on the correspondence between the first straight line group and the third straight line group, a second external parameter representing a viewpoint position and a line-of-sight direction equivalent to the imaging position and imaging direction of the captured image is calculated,
A superimposed display method comprising: rendering a second projection image of the object superimposed on the captured image based on the data and the second external parameter.
JP2018040661A 2018-03-07 2018-03-07 Information processing device, superimposition display program, superimposition display method Active JP6962242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018040661A JP6962242B2 (en) 2018-03-07 2018-03-07 Information processing device, superimposition display program, superimposition display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018040661A JP6962242B2 (en) 2018-03-07 2018-03-07 Information processing device, superimposition display program, superimposition display method

Publications (2)

Publication Number Publication Date
JP2019159375A true JP2019159375A (en) 2019-09-19
JP6962242B2 JP6962242B2 (en) 2021-11-05

Family

ID=67993943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018040661A Active JP6962242B2 (en) 2018-03-07 2018-03-07 Information processing device, superimposition display program, superimposition display method

Country Status (1)

Country Link
JP (1) JP6962242B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03123985A (en) * 1989-10-06 1991-05-27 Nippon Telegr & Teleph Corp <Ntt> Plotting method for contour line and/or ridgeline
JPH08279057A (en) * 1995-04-05 1996-10-22 Hitachi Ltd Emphasis display device for outline and ridge of three-dimensional graphic
WO2005066852A1 (en) * 2003-12-26 2005-07-21 Toyota Jidosya Kabushiki Kaisya Method for approximating and displaying three-dimensional cad data, and system for executing that method
JP2007179461A (en) * 2005-12-28 2007-07-12 Hitachi Ltd Drawing method, image data generation system, cad system and viewer system
JP2017091078A (en) * 2015-11-06 2017-05-25 富士通株式会社 Superimposed display method, superimposed display device, and superimposed display program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03123985A (en) * 1989-10-06 1991-05-27 Nippon Telegr & Teleph Corp <Ntt> Plotting method for contour line and/or ridgeline
JPH08279057A (en) * 1995-04-05 1996-10-22 Hitachi Ltd Emphasis display device for outline and ridge of three-dimensional graphic
WO2005066852A1 (en) * 2003-12-26 2005-07-21 Toyota Jidosya Kabushiki Kaisya Method for approximating and displaying three-dimensional cad data, and system for executing that method
JP2007179461A (en) * 2005-12-28 2007-07-12 Hitachi Ltd Drawing method, image data generation system, cad system and viewer system
JP2017091078A (en) * 2015-11-06 2017-05-25 富士通株式会社 Superimposed display method, superimposed display device, and superimposed display program

Also Published As

Publication number Publication date
JP6962242B2 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
KR102342668B1 (en) Image processing apparatus, image processing method and storage medium
JP6171671B2 (en) Information processing apparatus, position specifying method, and position specifying program
JP5248806B2 (en) Information processing apparatus and information processing method
JP4025442B2 (en) 3D model conversion apparatus and method
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
JP6256475B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010287174A (en) Furniture simulation method, device, program, recording medium
JP6293386B2 (en) Data processing apparatus, data processing method, and data processing program
JP7188201B2 (en) Image processing device, image processing method, and image processing program
WO2018098862A1 (en) Gesture recognition method and device for virtual reality apparatus, and virtual reality apparatus
JP7003617B2 (en) Estimator, estimation method, and estimation program
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
JP2018185658A (en) Information processing apparatus, information processing method, and program
JP6962242B2 (en) Information processing device, superimposition display program, superimposition display method
KR20120118462A (en) Concave surface modeling in image-based visual hull
JP2019144958A (en) Image processing device, image processing method, and program
JPH10108003A (en) Image compositing device and image compositing method
JP7329951B2 (en) Image processing device and its control method
JP6182930B2 (en) Depth production support device, depth production method, and program
JP5734080B2 (en) Information processing apparatus, processing method thereof, and program
JP5620741B2 (en) Information processing apparatus, information processing method, and program
JP2020113247A (en) Image processing apparatus and method for controlling the same, and information processing system
Dong et al. Occlusion handling method for ubiquitous augmented reality using reality capture technology and GLSL
WO2021176877A1 (en) Image processing device, image processing method, and image processing program
JP7276978B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6962242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150