JP6752468B2 - 3D shape measuring device and 3D shape measuring method - Google Patents

3D shape measuring device and 3D shape measuring method Download PDF

Info

Publication number
JP6752468B2
JP6752468B2 JP2016113925A JP2016113925A JP6752468B2 JP 6752468 B2 JP6752468 B2 JP 6752468B2 JP 2016113925 A JP2016113925 A JP 2016113925A JP 2016113925 A JP2016113925 A JP 2016113925A JP 6752468 B2 JP6752468 B2 JP 6752468B2
Authority
JP
Japan
Prior art keywords
pattern
dimensional shape
dimensional
data
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016113925A
Other languages
Japanese (ja)
Other versions
JP2017217215A (en
Inventor
亮 古川
亮 古川
洋 川崎
洋 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Hiroshima City University
Original Assignee
Kagoshima University NUC
Hiroshima City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC, Hiroshima City University filed Critical Kagoshima University NUC
Priority to JP2016113925A priority Critical patent/JP6752468B2/en
Publication of JP2017217215A publication Critical patent/JP2017217215A/en
Application granted granted Critical
Publication of JP6752468B2 publication Critical patent/JP6752468B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、3次元形状計測装置及び3次元形状計測方法に関する。 The present invention relates to a three-dimensional shape measuring device and a three-dimensional shape measuring method.

従来より、体腔内の管腔に長尺状の内視鏡挿入部を挿入し、計測対象の診断や処理を行うことができる内視鏡が用いられている(例えば、特許文献1参照)。内視鏡による診断では、計測対象としての腫瘍などの病変の形状や大きさを計測することが治療方法を選択する上で特に重要である。内視鏡メジャーや、目視による測定では、時間を要したり、人的要因による推定誤差が生じる可能性がある。 Conventionally, an endoscope capable of inserting a long endoscope insertion portion into a lumen in a body cavity to perform diagnosis and processing of a measurement target has been used (see, for example, Patent Document 1). In endoscopic diagnosis, it is particularly important to measure the shape and size of a lesion such as a tumor as a measurement target in selecting a treatment method. Endoscopic measures and visual measurements can be time consuming and can lead to estimation errors due to human factors.

そこで、観察部位の形状と大きさを計測するために、三角測量の原理で3次元形状を計測するアクティブステレオ法に基づいた3次元内視鏡システムが開発されている(例えば、非特許文献1参照)。このシステムでは、計測対象上に結像するパターン像の撮像結果に基づいて観察部位の3次元形状等が計測される。 Therefore, in order to measure the shape and size of the observation site, a three-dimensional endoscope system based on the active stereo method for measuring the three-dimensional shape by the principle of triangulation has been developed (for example, Non-Patent Document 1). reference). In this system, the three-dimensional shape of the observation site and the like are measured based on the imaging result of the pattern image formed on the measurement target.

特開2011−200341号公報Japanese Unexamined Patent Publication No. 2011-240341

H. Aoki, R. Furukawa, M. Aoyama, S. Hiura, N. Asada, R. Sagawa, H. Kawasaki, S. Tanaka, S. Yoshida, and Y. Sanomura, Proposal on 3-d endoscope by using grid-based active stereo” in EMBC, 2013, pp. 5694-5697.H. Aoki, R. Furukawa, M. Aoyama, S. Hiura, N. Asada, R. Sagawa, H. Kawasaki, S. Tanaka, S. Yoshida, and Y. Sanomura, Proposal on 3-d endoscope by using grid -based active stereo ”in EMBC, 2013, pp. 5694-5697.

上述のシステムでは、パターン像を計測対象上に結像させる結像光学系の焦点ずれや収差によるボケのため、奥行きの計測範囲が限定されるという不都合があった。また、内部の生体組織に共通の強力な表面下散乱が生じてしまい、投影されるパターン像をボケさせるのみならず、パターン光の輝度を弱めてしまう可能性がある。この結果、計測が不安定になるおそれがある。 In the above system, there is an inconvenience that the measurement range of depth is limited due to blurring due to defocus and aberration of the imaging optical system that forms a pattern image on the measurement target. In addition, strong subsurface scattering common to internal living tissues may occur, which not only blurs the projected pattern image but also weakens the brightness of the pattern light. As a result, the measurement may become unstable.

プロジェクタの焦点深度は、一般にカメラの焦点深度よりも深いことが多い。例えば、プロジェクタから約40mmの距離において、焦点が合った状態で投影できる範囲は、8mm程度になる。また、内視鏡カメラはレンズ口径の大きさから、感度には限界があるので、パターン光の輝度不足は計測対象を安定して計測するうえでの深刻な問題となる。 The depth of focus of a projector is generally deeper than the depth of focus of a camera. For example, at a distance of about 40 mm from the projector, the range that can be projected in a focused state is about 8 mm. Further, since the sensitivity of an endoscope camera is limited due to the size of the lens aperture, insufficient brightness of the pattern light becomes a serious problem in stable measurement of the measurement target.

本発明は、上記実情に鑑みてなされたものであり、計測対象の3次元形状、あるいはその大きさを安定して計測することができる3次元形状計測装置及び3次元形状計測方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a three-dimensional shape measuring device and a three-dimensional shape measuring method capable of stably measuring a three-dimensional shape of a measurement target or its size. With the goal.

上記目的を達成するために、本発明の第1の観点に係る3次元形状計測装置は、
線分の接続状態によって区別可能な特徴を有するノードとエッジから成るグラフから構成される2次元パターンを計測対象に投光する投光部と、
前記計測対象に投光された前記2次元パターンを撮像する撮像部と、
前記撮像部で撮像された画像と前記2次元パターンについて、エピポーラ拘束に基づいて互いに対応する前記ノードの解の候補を選択し、前記解の候補同士の前記グラフでの接続状態に基づいて、前記画像に含まれる前記2次元パターンの誤りを解消し前記解の候補の中から正しい対応の解を得る対応計算部と、
前記対応の解に基づいてステレオ処理により前記計測対象の3次元形状を算出して出力する形状出力部と、
を備え
前記対応計算部は、
前記2次元パターンの前記グラフの部分グラフにおけるパターンマッチングを行って、前記画像に含まれる前記ノードと、前記2次元パターンにおける前記ノードとを対応付けることで、前記対応の解の候補を削減し、
前記2次元パターンは、縦横の線分からなり、縦直線に接続する左右の横線分の段差によって前記各ノードが特徴を持つグラフ構造のパターンである
In order to achieve the above object, the three-dimensional shape measuring device according to the first aspect of the present invention is
A light projecting portion for projecting a two-dimensional pattern formed on the measurement object from the graph consisting of nodes and edges with thus distinguishable features the line connection state,
An imaging unit that captures the two-dimensional pattern projected onto the measurement target, and
For the two-dimensional pattern and an image captured by the imaging unit, select a candidate of the solution of the node corresponding to each other on the basis of the epipolar constraint, based on the connection state in the graph of candidates among the solutions, the A correspondence calculation unit that eliminates the error of the two-dimensional pattern included in the image and obtains the correct correspondence solution from the solution candidates.
A shape output unit that calculates and outputs the three-dimensional shape of the measurement target by stereo processing based on the corresponding solution, and
Equipped with a,
The corresponding calculation unit
By performing pattern matching in the subgraph of the graph of the two-dimensional pattern and associating the node included in the image with the node in the two-dimensional pattern, the candidates for the corresponding solution are reduced.
The two-dimensional pattern is a pattern of a graph structure composed of vertical and horizontal line segments, and each node is characterized by a step of left and right horizontal line segments connected to a vertical straight line .

前記対応計算部は、
前記パターンマッチングの一致度をデータ項とし、前記グラフの接続関係を平滑化項とすることで、マルコフ確率場モデル(MRF)最適化により対応点を算出する、
こととしてもよい。
The corresponding calculation unit
Wherein the degree of matching of the pattern matching and data sections by the connection relationship of the graph and smoothing term, and calculates the corresponding points by Markov random field model (MRF) optimization,
It may be that.

前記対応計算部は、
前記部分グラフの前記ノードについて、前記パターンマッチングの一致度が閾値より高い場合に投票を行うことで、前記対応の解の候補から正しい対応点を得る、
こととしてもよい。
The corresponding calculation unit
For said nodes of said subgraph, it said that the degree of coincidence of the pattern matching to vote is higher than the threshold value, obtaining a correct corresponding points from the corresponding candidate solutions,
It may be that.

前記対応計算部は、
前記部分グラフを複数用意し、それぞれの前記部分グラフでの投票を繰り返した合計得票数によって前記対応の解を決定する、
こととしてもよい。
The corresponding calculation unit
The subgraphs preparing a plurality to determine a solution of the corresponding by the total number of votes repeated votes in each of the subgraphs,
It may be that.

前記形状出力部は、
前記対応の解に基づく前記線分の対応関係から、光切断法を用いて前記3次元形状を算出する、
こととしてもよい。
The shape output unit
The three-dimensional shape is calculated by using the optical cutting method from the correspondence relationship of the line segments based on the corresponding solution.
It may be that.

前記2次元パターンに含まれる前記線分の連なりが、
曲線状に配置される、
こととしてもよい。
The series of line segments included in the two-dimensional pattern is
Arranged in a curved line,
It may be that.

前記2次元パターンは、
回折光学素子によるレーザ光の回折により前記計測対象上に形成される、
こととしてもよい。
The two-dimensional pattern is
Formed on the measurement target by diffraction of laser light by a diffraction optical element,
It may be that.

前記投光部が、内視鏡に組み込まれている、
こととしてもよい。
The light projecting unit is incorporated in the endoscope.
It may be that.

異なる方向から計測された、前記計測対象の複数の3次元形状のデータが得られた場合に、
前記複数の3次元形状のデータのうち、第1のデータを構成する第1の線分と、前記第1のデータとは別の第2のデータを構成する、前記第1の線分とは方向の異なる第2の線分との間のずれを最小にするような、回転及び進の補正量を算出する算出部と、
前記算出部で算出された回転及び並進の前記補正量によって、前記第1のデータと前記第2のデータのずれを補正した形状を出力する出力部と、
を備える、
こととしてもよい。
If it is measured from different directions, data of a plurality of three-dimensional shape of the measurement object is obtained,
Of the plurality of three-dimensional shape data, the first line segment constituting the first data and the first line segment constituting the second data different from the first data are that minimizes the deviation between the direction different second segment, a calculation unit for calculating a correction amount of the rotation and parallel proceeds,
By the correction amount of the rotational and translational calculated by the calculation unit, and an output unit for outputting the corrected shape wherein the first data second displacement data,
To prepare
It may be that.

本発明の第2の観点に係る3次元形状計測方法は、
3次元形状計測装置によって実行される3次元形状計測方法であって、
線分の接続状態によって区別可能な特徴を有するノードとエッジから成るグラフから構成される2次元パターンを計測対象に投光し、前記計測対象に投光された前記2次元パターンを撮像するパターン撮像ステップと、
前記パターン撮像ステップで撮像された画像と前記2次元パターンについて、エピポーラ拘束に基づいて互いに対応する前記ノードの解の候補を選択し、前記解の候補同士の前記グラフの接続状態に基づいて、前記画像に含まれる前記2次元パターンの誤りを解消し前記解の候補の中から正しい対応の解を得る対応計算ステップと、
前記対応の解に基づいてステレオ処理により前記計測対象の3次元形状を算出して出力する形状出力ステップと、
を含み、
前記対応計算ステップでは、
前記2次元パターンの前記グラフの部分グラフにおけるパターンマッチングを行って、前記画像に含まれる前記ノードと、前記2次元パターンにおける前記ノードとを対応付けることで、前記対応の解の候補を削減し、
前記2次元パターンは、縦横の線分からなり、縦直線に接続する左右の横線分の段差によって前記各ノードが特徴を持つグラフ構造のパターンである
The three-dimensional shape measuring method according to the second aspect of the present invention is
A three-dimensional shape measuring method executed by a three-dimensional shape measuring device.
The two-dimensional pattern consisting of the graph consisting of nodes and edges with thus distinguishable features the line connection state is projected onto the target object, imaging the two-dimensional pattern which is projected to the measurement target Pattern imaging step and
Wherein for said 2-dimensional pattern image captured by the pattern imaging step, selects a candidate solution of the node corresponding to each other on the basis of the epipolar constraint, based on the connection state of the graph of candidates among the solutions, the A correspondence calculation step that eliminates the error of the two-dimensional pattern included in the image and obtains the correct correspondence solution from the solution candidates.
A shape output step that calculates and outputs the three-dimensional shape of the measurement target by stereo processing based on the corresponding solution, and
Only including,
In the corresponding calculation step,
By performing pattern matching in the subgraph of the graph of the two-dimensional pattern and associating the node included in the image with the node in the two-dimensional pattern, the candidates for the corresponding solution are reduced.
The two-dimensional pattern is a pattern of a graph structure composed of vertical and horizontal line segments, and each node is characterized by a step of left and right horizontal line segments connected to a vertical straight line .

異なる方向から計測された、前記計測対象の複数の3次元形状のデータが得られた場合に、前記複数の3次元形状のデータのうち、第1のデータを構成する第1の線分と、前記第1のデータとは別の第2のデータを構成する、前記第1の線分とは方向の異なる第2の線分との間のずれを最小にするような、回転及び進の補正量を算出する算出ステップと、
前記算出ステップで算出された回転及び並進の前記補正量によって、前記第1のデータと前記第2のデータのずれを補正した形状を出力する出力ステップと、
を含む、
こととしてもよい。
Measured from different directions, when the data of a plurality of three-dimensional shape of the measurement object is obtained, among the data of the plurality of three-dimensional shape, the first segment constituting the first data, constituting the second data different from said first data, said that the first line segment to minimize the deviation between the second line segments of different directions, rotation and parallel -ary Calculation steps to calculate the correction amount and
By the correction amount of the rotation and translation calculated in the calculation step, and outputting the corrected shape wherein the first data second displacement data,
including,
It may be that.

本発明によれば、計測対象に投光される2次元パターンが、線分の接続状態又はパターンの対称性によって区別可能な特徴を有するノードとエッジから成るグラフから構成されているため、表面下散乱や輝度の低下が発生しても、そのノードの位置情報を読み取り易くなっている。この結果、計測対象の3次元形状、あるいはその大きさを安定して計測することができる。 According to the present invention, the two-dimensional pattern projected onto the measurement target is composed of a graph consisting of nodes and edges having characteristics that can be distinguished by the connection state of line segments or the symmetry of the pattern. Even if scattering or a decrease in brightness occurs, the position information of the node can be easily read. As a result, the three-dimensional shape of the measurement target or its size can be stably measured.

本発明の実施の形態に係る3次元形状計測装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the 3D shape measuring apparatus which concerns on embodiment of this invention. 内視鏡の挿入端の鉗子孔周辺の拡大断面図である。It is an enlarged cross-sectional view around the forceps hole of the insertion end of an endoscope. 図3(A)は、計測用パターンの一例を示す図である。図3(B)は、計測用パターンの各ノードに割り振られたコードラベルの一例を示す図である。FIG. 3A is a diagram showing an example of a measurement pattern. FIG. 3B is a diagram showing an example of a code label assigned to each node of the measurement pattern. 計測対象に計測用パターンの像が投影される様子を示す図である。It is a figure which shows the state that the image of the measurement pattern is projected on the measurement target. 3次元形状計測装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the 3D shape measuring apparatus. 図6(A)及び図6(B)は、光切断法を示す模式図である。6 (A) and 6 (B) are schematic views showing a light cutting method. 3次元形状計測装置の3次元形状計測動作のフローチャートである。It is a flowchart of 3D shape measurement operation of 3D shape measurement apparatus. 線検出のサブルーチンのフローチャートである。It is a flowchart of a subroutine of line detection. グリッドグラフの構築のサブルーチンのフローチャートである。It is a flowchart of a subroutine for constructing a grid graph. グリッドグラフの一例を示す図である。It is a figure which shows an example of a grid graph. 部分グラフパターンによる対応付けを行う様子を示す模式図である。It is a schematic diagram which shows the state of performing the correspondence by the subgraph pattern. 部分グラフパターンによる投票動作(その1)を示す模式図である。It is a schematic diagram which shows the voting operation (the 1) by a partial graph pattern. 部分グラフパターンによる投票動作(その2)を示す模式図である。It is a schematic diagram which shows the voting operation (the 2) by a partial graph pattern. 異なる部分グラフパターンで対応付けを行う様子を示す模式図である。It is a schematic diagram which shows the mode of associating with different subgraph patterns. 人間の胃から切除された生体標本の計測結果を示す図である。It is a figure which shows the measurement result of the biological specimen excised from the human stomach. 3次元形状の合成処理の流れを示す模式図である。It is a schematic diagram which shows the flow of the synthesis processing of a three-dimensional shape. 3次元形状の合成処理を行う構成を示す図である。It is a figure which shows the structure which performs the synthesis processing of a three-dimensional shape. 矩形状の点からなる画像で格子を表現した計測用パターンの一例を示す図である。It is a figure which shows an example of the measurement pattern which expressed the grid by the image which consists of a rectangular point. 図18の計測用パターン中の、格子点と格子の線の一例を示す図である。It is a figure which shows an example of a grid point and a grid line in the measurement pattern of FIG. 図18の計測用パターンを投影して撮影した画像の一例を示す図である。It is a figure which shows an example of the image photographed by projecting the measurement pattern of FIG. 図20の白枠の部分の拡大図である。It is an enlarged view of the part of the white frame of FIG. 図21の各点で、180度回転による自己相関を求め、これによって各点の180度回転対称性を求め画像化した図である。It is the figure which obtained the autocorrelation by the rotation of 180 degrees at each point of FIG. 21, and obtained the 180 degree rotation symmetry of each point by this, and imaged. 図22の回転対称性のピークを求めることで、格子点を検出し、その格子点を画像化した図である。It is the figure which detected the lattice point by finding the peak of the rotational symmetry of FIG. 22, and imaged the lattice point.

以下、本発明の実施の形態について図面を参照して詳細に説明する。各図において、同一の要素には同一の符号を付している。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same elements are designated by the same reference numerals.

図1に示すように、本実施の形態に係る3次元形状計測装置100は、レーザ光源10と、計測対象に計測用パターン21(図3参照)を投光する投光部としてのパターンプロジェクタ20と、を備える。3次元形状計測装置100は、内視鏡1とともに用いられる。内視鏡1には、鉗子孔2が形成されている。通常、鉗子孔2には、観察部位を採取する鉗子が挿通される。しかしながら、本実施の形態では、鉗子に代えて、パターンプロジェクタ20が、鉗子孔2に挿通されて用いられる。 As shown in FIG. 1, the three-dimensional shape measuring device 100 according to the present embodiment includes a laser light source 10 and a pattern projector 20 as a light projecting unit that projects a measurement pattern 21 (see FIG. 3) on a measurement target. And. The three-dimensional shape measuring device 100 is used together with the endoscope 1. A forceps hole 2 is formed in the endoscope 1. Normally, a forceps for collecting an observation site is inserted through the forceps hole 2. However, in the present embodiment, the pattern projector 20 is inserted into the forceps hole 2 and used instead of the forceps.

パターンプロジェクタ20は、レーザ光源10と接続されている。レーザ光源10は、レーザモジュール10Aと、拡散板10Bと、照明絞り10Cと、コリメータレンズ10Dと、を備える。 The pattern projector 20 is connected to the laser light source 10. The laser light source 10 includes a laser module 10A, a diffuser plate 10B, an illumination diaphragm 10C, and a collimator lens 10D.

レーザモジュール10Aは、緑色のレーザ光IL(例えば波長517mmのレーザ光)を発振出力する。拡散板10Bは、レーザモジュール10Aから発せられたレーザ光ILを拡散して、レーザ光ILの断面における強度を均一化する。コリメータレンズ10Dは、入射したレーザ光ILを平行光に変換する。コリメータレンズ10Dによって平行光に変換されたレーザ光ILは、パターンプロジェクタ20を構成する光ファイバ20Aに入射する。 The laser module 10A oscillates and outputs a green laser beam IL (for example, a laser beam having a wavelength of 517 mm). The diffuser plate 10B diffuses the laser light IL emitted from the laser module 10A to make the intensity in the cross section of the laser light IL uniform. The collimator lens 10D converts the incident laser light IL into parallel light. The laser beam IL converted into parallel light by the collimator lens 10D is incident on the optical fiber 20A constituting the pattern projector 20.

図2に示すように、パターンプロジェクタ20は、光ファイバ20Aと、グリンレンズ20Bと、パターンチップ20Cと、円筒部20Dと、を備える。パターンプロジェクタ20のサイズは、例えば直径2.8mm、長さ12mmである。 As shown in FIG. 2, the pattern projector 20 includes an optical fiber 20A, a green lens 20B, a pattern chip 20C, and a cylindrical portion 20D. The size of the pattern projector 20 is, for example, 2.8 mm in diameter and 12 mm in length.

光ファイバ20Aは、プラスチック又はガラス製のシングルモードの光ファイバである。光ファイバ20Aは、コリメータレンズ10Dから出射された緑色のレーザ光ILを、その一端から入射して他端から出射する。 The optical fiber 20A is a single-mode optical fiber made of plastic or glass. The optical fiber 20A incidents the green laser light IL emitted from the collimator lens 10D from one end thereof and emits it from the other end.

グリンレンズ20Bは、光ファイバ20Aから出射されたレーザ光を集光して、対象となる人体内部における生体組織に投影する。パターンチップ20Cは、DOE(Diffractive Optional Element)と呼ばれる光学素子である。DOEは、通過するレーザ光を回折させることにより、パターンを形成する。したがって、フィルムによるマスクパターンよりも光損失を低減することができ、例えば光エネルギーの損失率は5%以下となる。DOEは、距離にかかわらず明瞭なパターンを投影することができるので、結像光学系よりも計測範囲を広げることができる。また、DOEの光効率は90%以上になるので、計測対象に投影されるパターンの輝度の低下も抑制される。投影されるパターンのサイズは、30mmの距離で約30mmである。 The green lens 20B collects the laser beam emitted from the optical fiber 20A and projects it onto the biological tissue inside the target human body. The pattern chip 20C is an optical element called a DOE (Diffractive Optional Element). The DOE forms a pattern by diffracting the passing laser light. Therefore, the light loss can be reduced as compared with the mask pattern by the film, and the loss rate of light energy is, for example, 5% or less. Since the DOE can project a clear pattern regardless of the distance, the measurement range can be wider than that of the imaging optical system. Further, since the light efficiency of DOE is 90% or more, the decrease in the brightness of the pattern projected on the measurement target is suppressed. The size of the projected pattern is about 30 mm 2 at a distance of 30 mm.

この光学素子は、グリンレンズ20Bから出射されるレーザ光ILの光路上に設置される。このため、生体組織に投影されるレーザ光ILは、図3に示す計測用パターン21(2次元パターン)の像を含む投影光となる。この計測用パターン21は、以下に示すように、線分の接続状態によって区別可能な特徴を有するノードとエッジから成るグラフから構成される。 This optical element is installed on the optical path of the laser beam IL emitted from the green lens 20B. Therefore, the laser beam IL projected on the living tissue is the projected light including the image of the measurement pattern 21 (two-dimensional pattern) shown in FIG. As shown below, the measurement pattern 21 is composed of a graph consisting of nodes and edges having characteristics that can be distinguished by the connection state of the line segment.

生体組織表面の反射特性は、通常の物体とは大きく異なる。特に、表面下散乱の影響が大きい。従来、計測用パターン21としては、波型のグリッドパターンが使用されてきたが、格子点における波線の曲率などは、表面下散乱による高周波成分の損失によって検出が難しくなったり、情報が失われたりする場合がある。このような詳細情報の損失を回避するため、計測用パターン21として、より低周波の画像信号からなるパターンが採用される。 The reflection characteristics of the surface of living tissue are significantly different from those of ordinary objects. In particular, the influence of subsurface scattering is large. Conventionally, a corrugated grid pattern has been used as the measurement pattern 21, but the curvature of wavy lines at grid points may be difficult to detect due to the loss of high-frequency components due to subsurface scattering, or information may be lost. May be done. In order to avoid such loss of detailed information, a pattern composed of a lower frequency image signal is adopted as the measurement pattern 21.

低周波なパターンとしては,従来、密度の低いドットパターンや、疎な線を組み合わせたパターンなどがあるが、ドットパターンでは、内視鏡1のカメラとパターンプロジェクタ20の基線長L(図6参照)が長くてパターンの変形量が大きいと、パターンと観測画像の対応をとるのが困難になる。また、線が疎になれば、3次元形状を計測するための情報を埋め込む数が少なくなり、計測される3次元形状を粗くせざるを得ない。 Conventionally, low-frequency patterns include low-density dot patterns and patterns that combine sparse lines, but in the dot pattern, the baseline length L of the camera of the endoscope 1 and the pattern projector 20 (see FIG. 6). ) Is long and the amount of deformation of the pattern is large, it becomes difficult to correspond the pattern with the observed image. Further, if the lines become sparse, the number of embedded information for measuring the three-dimensional shape decreases, and the measured three-dimensional shape has to be roughened.

そこで、本実施の形態では、計測用パターン21を、表面化散乱によるボケに対して比較的頑健な、間隔の大きな線パターンを含むパターンとする。図3に示すように、計測用パターン21は、縦横線分からなる格子状パターンとなる。計測用パターン21において、縦方向の線分(縦線分)はすべて連続かつ直線上に並んでおり、全体的に等間隔に平行に並んだ縦直線となっている。これに対して、横方向の線分(横線分)には、各格子点において、隣り合う横線分(縦直線に接続する左右の横線分)の間に、小さな段差が付加されている。段差の大きさは0も含んでいる。ボケのサイズより長い線分の位置は、表面下散乱によっても失われにくいので、段差の情報は、安定して取得可能である。 Therefore, in the present embodiment, the measurement pattern 21 is a pattern including a line pattern having a large interval, which is relatively robust against blurring due to surface scattering. As shown in FIG. 3, the measurement pattern 21 is a grid pattern composed of vertical and horizontal lines. In the measurement pattern 21, all the line segments (vertical line segments) in the vertical direction are continuous and arranged in a straight line, and are vertically arranged in parallel at equal intervals as a whole. On the other hand, in the horizontal line segment (horizontal line segment), a small step is added between the adjacent horizontal line segments (left and right horizontal line segments connected to the vertical straight line) at each grid point. The size of the step includes 0. Since the position of the line segment longer than the size of the blur is not easily lost due to subsurface scattering, the step information can be stably acquired.

このような構成の下で、図3(B)に示すように、各格子点には、S、L、Rの3種類のコード要素(コードラベル)が割り振られている。Sは、左右の横線分の端点が連続であることを意味する。また、Lは、左側の横線分の端点の方が右側の横線分の端点より高いことを意味する。Rは、逆に右側の横線分の端点の方が左側の横線分の端点より高いことを意味する。図3(B)には、これらのコード要素(コードラベル)の配列が示されている。本実施の形態では、縦直線に接続する左右の横線分の段差によって各ノードがコード化されている。計測用パターン21は、左右の横線分の段差によってノードが特徴を持つグラフ構造のパターンである。 Under such a configuration, as shown in FIG. 3B, three types of code elements (code labels) of S, L, and R are assigned to each grid point. S means that the end points of the left and right horizontal lines are continuous. Further, L means that the end point of the horizontal line on the left side is higher than the end point of the horizontal line on the right side. On the contrary, R means that the end point of the horizontal line on the right side is higher than the end point of the horizontal line on the left side. FIG. 3B shows an array of these code elements (code labels). In this embodiment, each node is coded by a step of a horizontal line on the left and right connected to a vertical straight line. The measurement pattern 21 is a pattern having a graph structure in which the nodes are characterized by the steps of the horizontal lines on the left and right.

本実施の形態では、内視鏡1のカメラと、パターンプロジェクタ20との位置関係について計測用パターン21の制限を仮定している。その制限とは、内視鏡1のカメラで観測される交点のエピポーラ線をパターン画像上に描いたとき、その線の方向は格子パターンの縦直線の方向と一致しない、ということである。これは、検出された縦線の形状(3次元形状)を、光切断法によって復元するためである。パターン画像上のエピポーラ線が格子パターンの縦線と一致する場合、3次元形状の復元を行うことができない。復元の精度の点からは、パターン画像上のエピポーラ線の方向は横方向に近い方がよいが、斜め方向であっても問題なく復元が可能である。 In the present embodiment, it is assumed that the measurement pattern 21 is limited in terms of the positional relationship between the camera of the endoscope 1 and the pattern projector 20. The limitation is that when the epipolar line of the intersection observed by the camera of the endoscope 1 is drawn on the pattern image, the direction of the line does not match the direction of the vertical straight line of the lattice pattern. This is because the detected vertical line shape (three-dimensional shape) is restored by the optical cutting method. If the epipolar lines on the pattern image match the vertical lines of the grid pattern, the three-dimensional shape cannot be restored. From the viewpoint of restoration accuracy, the direction of the epipolar line on the pattern image should be close to the horizontal direction, but restoration is possible even in the oblique direction without any problem.

本実施の形態では、図3(B)に示すように、横方向に延びる横線分は、それぞれの列で異なる角度に傾けられている。横方向につながる(連結された)一連の複数の横線分は、段差がないとした場合に全体として正弦波状の波線になっている。すなわち、計測用パターン21に含まれる横線分の重なりが曲線状に配置されている。これは、横線分が直線状につながっていると、カメラ画像で検出された交点のエピポーラ線がその直線に一致したとき、多数の対応点候補が生じ、復元精度の低下を招くことがあるためである。 In the present embodiment, as shown in FIG. 3B, the horizontal lines extending in the lateral direction are tilted at different angles in each row. A series of a series of horizontal lines connected (connected) in the horizontal direction are sinusoidal wavy lines as a whole when there is no step. That is, the overlap of the horizontal lines included in the measurement pattern 21 is arranged in a curved line. This is because if the horizontal lines are connected in a straight line, when the epipolar line of the intersection detected in the camera image matches the straight line, a large number of corresponding point candidates may occur, which may lead to a decrease in restoration accuracy. Is.

図2に戻り、円筒部20Dは、円筒状の部材である。円筒部20Dは内視鏡1の挿入端3から突出している。円筒部20Dの外径は、鉗子孔2に嵌まる大きさとなっている。円筒部20Dの内径は、光ファイバ20A、グリンレンズ20B及びパターンチップ20Cを実装できる径となっている。 Returning to FIG. 2, the cylindrical portion 20D is a cylindrical member. The cylindrical portion 20D protrudes from the insertion end 3 of the endoscope 1. The outer diameter of the cylindrical portion 20D is large enough to fit in the forceps hole 2. The inner diameter of the cylindrical portion 20D is such that the optical fiber 20A, the green lens 20B, and the pattern chip 20C can be mounted.

グリンレンズ20Bから出射されたレーザ光ILは、円筒部20Dの開口端から外部に出射される。また、円筒部20Dの外側面には、マークMが形成されている。本実施の形態では、このマークMを用いて、アクティブステレオ法におけるパターンプロジェクタ20と内視鏡1のカメラ(後述する撮像光学系30)との相対位置情報を校正するキャリブレーションが行われる。 The laser beam IL emitted from the green lens 20B is emitted to the outside from the open end of the cylindrical portion 20D. A mark M is formed on the outer surface of the cylindrical portion 20D. In the present embodiment, the mark M is used to perform calibration for calibrating the relative position information between the pattern projector 20 and the camera of the endoscope 1 (the imaging optical system 30 described later) in the active stereo method.

このように、円筒部20Dは、内視鏡1の挿入端3から突き出している。円筒部20Dの開口端から緑色のレーザ光ILが出射される。このレーザ光ILは、パターンチップ20Cにより回折され計測用パターン21の投影像を形成するため、レーザ光ILが照射される計測対象(ターゲットT)には、図4に示すように、計測用パターン21が投影される。 In this way, the cylindrical portion 20D protrudes from the insertion end 3 of the endoscope 1. A green laser beam IL is emitted from the open end of the cylindrical portion 20D. Since this laser light IL is diffracted by the pattern chip 20C to form a projected image of the measurement pattern 21, the measurement target (target T) irradiated with the laser light IL has a measurement pattern as shown in FIG. 21 is projected.

内視鏡1の挿入端3には、鉗子孔2の他に、対物レンズ30A及び照明レンズ40Aが取り付けられている。対物レンズ30Aは、ターゲットTを撮像する撮像光学系30(図5参照)を構成するレンズであり、照明レンズ40Aは、ターゲットTへ照明光を照射する照明光学系40(図5参照)のレンズである。内視鏡1は、照明レンズ40Aを介してターゲットTに照明光を照射し、照射されたターゲットTを、対物レンズ30Aを介して撮像する機能を有している。 In addition to the forceps hole 2, an objective lens 30A and an illumination lens 40A are attached to the insertion end 3 of the endoscope 1. The objective lens 30A is a lens constituting the imaging optical system 30 (see FIG. 5) that images the target T, and the illumination lens 40A is a lens of the illumination optical system 40 (see FIG. 5) that irradiates the target T with illumination light. Is. The endoscope 1 has a function of irradiating the target T with illumination light via the illumination lens 40A and imaging the irradiated target T through the objective lens 30A.

図5には、3次元形状計測装置100の全体構成が示されている。図5に示すように、3次元形状計測装置100は、上述したレーザ光源10及びパターンプロジェクタ20の他に、コントローラ50をさらに備えている。コントローラ50は、CPU(Central Processing Unit)、記憶装置、入出力装置、ポインティングデバイス又はディスプレイ等のマンマシンインターフェイスを備えるコンピュータである。CPUが、マンマシンインターフェイスから入力される操作者の操作情報に従って、記憶装置に記憶されたプログラムを実行することにより、コントローラ50の機能が実現される。すなわち、実行されるプログラムに従って、コントローラ50は、入出力装置を介してレーザ光源10を制御したり、内視鏡1の照明光学系40を制御したり、入出力装置を介して内視鏡1の撮像光学系30から入力される撮像データを入力したりする。 FIG. 5 shows the overall configuration of the three-dimensional shape measuring device 100. As shown in FIG. 5, the three-dimensional shape measuring device 100 further includes a controller 50 in addition to the laser light source 10 and the pattern projector 20 described above. The controller 50 is a computer including a man-machine interface such as a CPU (Central Processing Unit), a storage device, an input / output device, a pointing device, or a display. The function of the controller 50 is realized by the CPU executing the program stored in the storage device according to the operation information of the operator input from the man-machine interface. That is, according to the program to be executed, the controller 50 controls the laser light source 10 via the input / output device, controls the illumination optical system 40 of the endoscope 1, and the endoscope 1 via the input / output device. The imaging data input from the imaging optical system 30 of the above is input.

また、内視鏡1は、計測対象を撮像するための撮像光学系30と、計測対象を照明する照明光学系40と、を備える。図4に示す対物レンズ30Aは、内視鏡1の撮像光学系30を構成するレンズであり、照明レンズ40Aは、内視鏡1の照明光学系40を構成し、その照明光を外部(計測対象)に出射するレンズである。具体的には、撮像光学系30は、計測対象とともに、計測対象に投光された計測用パターン21を撮像する。 Further, the endoscope 1 includes an imaging optical system 30 for photographing the measurement target and an illumination optical system 40 for illuminating the measurement target. The objective lens 30A shown in FIG. 4 is a lens constituting the imaging optical system 30 of the endoscope 1, and the illumination lens 40A constitutes the illumination optical system 40 of the endoscope 1 and externally (measures) the illumination light thereof. It is a lens that emits light to the target). Specifically, the imaging optical system 30 images the measurement target and the measurement pattern 21 projected on the measurement target.

コントローラ50は、操作部50Aと、制御部50Bと、表示部50Cと、を備える。操作部50Aは、操作者の操作に応じた操作信号を、制御部50Bに出力する。 The controller 50 includes an operation unit 50A, a control unit 50B, and a display unit 50C. The operation unit 50A outputs an operation signal corresponding to the operation of the operator to the control unit 50B.

制御部50Bは、操作部50Aからの操作信号に従って、内視鏡1の撮像光学系30から得られた計測対象の撮像データを入力し、入力した撮像データに対する画像処理を行って、計測対象の3次元形状を計測する。制御部50Bは、指令部51と、画像処理部52と、を備える。指令部51は、操作部50Aからの操作信号に従って、レーザ光源10と内視鏡1に制御指令を出力する。画像処理部52は、計測対象に投光された計測用パターン21の画像に基づいて、アクティブステレオ法を用いた画像処理を行って、計測対象の3次元形状を求める。 The control unit 50B inputs the imaging data of the measurement target obtained from the imaging optical system 30 of the endoscope 1 according to the operation signal from the operation unit 50A, performs image processing on the input imaging data, and performs image processing on the input imaging data to perform the measurement target. Measure the three-dimensional shape. The control unit 50B includes a command unit 51 and an image processing unit 52. The command unit 51 outputs a control command to the laser light source 10 and the endoscope 1 according to the operation signal from the operation unit 50A. The image processing unit 52 performs image processing using the active stereo method based on the image of the measurement pattern 21 projected on the measurement target to obtain the three-dimensional shape of the measurement target.

表示部50Cは、内視鏡1の撮像光学系30から得られた計測対象の撮像データ等の各種画像を表示する。 The display unit 50C displays various images such as imaging data of the measurement target obtained from the imaging optical system 30 of the endoscope 1.

画像処理部52において行われる3次元形状の計測処理について説明する。図6(A)に示すように、本実施の形態では、画像処理部52は、光切断法に基づいて、計測対象の3次元形状を計測する。光切断法は、アクティブステレオ法の1つであり、三角測量の原理を応用する方法である。光切断法では、パターンプロジェクタ20による計測対象の投影中心P1と、計測対象を撮像するカメラ(撮像光学系30)の撮像中心P2との視差(基線長)Lに基づいて、計測対象の3次元形状が計測される。 The three-dimensional shape measurement process performed by the image processing unit 52 will be described. As shown in FIG. 6A, in the present embodiment, the image processing unit 52 measures the three-dimensional shape of the measurement target based on the optical cutting method. The optical cutting method is one of the active stereo methods and is a method of applying the principle of triangulation. In the optical cutting method, the three-dimensional measurement target is based on the parallax (baseline length) L between the projection center P1 of the measurement target by the pattern projector 20 and the image pickup center P2 of the camera (imaging optical system 30) that images the measurement target. The shape is measured.

計測用パターン21を含む投影光は、投影中心P1からターゲットT(計測対象)に投影され、ターゲットT上にも計測用パターン21の像が投影される。計測用パターン21には、縦直線Vが含まれている。 The projected light including the measurement pattern 21 is projected from the projection center P1 to the target T (measurement target), and the image of the measurement pattern 21 is also projected on the target T. The measurement pattern 21 includes a vertical straight line V.

ここで、計測用パターン21が投影されたターゲットT上の特定の点Pに着目する。ターゲットT上の点Pが、投影像の投影方向に沿った方向に変化した場合には、図6(B)に示すように、位置P2にある撮像光学系30からは点P上のパターンがずれるように見える。光切断法は、このパターンの位置ずれに基づいて、ターゲットTの各点の奥行きdを計測する。 Here, attention is paid to a specific point P on the target T on which the measurement pattern 21 is projected. When the point P on the target T changes in the direction along the projection direction of the projected image, as shown in FIG. 6B, the pattern on the point P is generated from the imaging optical system 30 at the position P2. It looks like it's off. In the optical cutting method, the depth d of each point of the target T is measured based on the positional deviation of this pattern.

画像処理部52の構成についてより詳細に説明する。図5に示すように、画像処理部52は、対応計算部52Aと、形状出力部52Bを備える。対応計算部52Aは、撮像された画像と計測用パターン21について、エピポーラ拘束に基づいて対応の解の候補となるノード(図3(A)及び図3(B)参照)を選択し、解の候補(ノード)同士のグラフの接続状態に基づいて、画像に含まれるパターンの誤りを解消し解の候補の中から正しい対応の解(対応するノード)を得る。形状出力部52Bは、上述のようにして(図6(A)及び図6(B)に示すように)、対応の解(対応するノード)からステレオ処理(光切断法)により計測対象の3次元形状を算出して出力する。 The configuration of the image processing unit 52 will be described in more detail. As shown in FIG. 5, the image processing unit 52 includes a corresponding calculation unit 52A and a shape output unit 52B. The correspondence calculation unit 52A selects a node (see FIGS. 3A and 3B) that is a candidate for the correspondence solution based on the epipolar constraint for the captured image and the measurement pattern 21, and solves the solution. Based on the connection state of the graph between the candidates (nodes), the error of the pattern included in the image is eliminated and the correct corresponding solution (corresponding node) is obtained from the solution candidates. The shape output unit 52B is measured from the corresponding solution (corresponding node) by stereo processing (optical cutting method) as described above (as shown in FIGS. 6A and 6B). Calculates and outputs the dimensional shape.

ターゲットTの奥行きがdだけ変化した場合の撮像光学系30の撮像結果における点Pのずれ量は、パターンプロジェクタ20と撮像光学系30との視差(基線長)Lに応じて変化するが、本実施の形態では、視差(基線長)Lはキャリブレーションにより正確に求められているものとする。 The amount of deviation of the point P in the imaging result of the imaging optical system 30 when the depth of the target T changes by d changes according to the parallax (baseline length) L between the pattern projector 20 and the imaging optical system 30. In the embodiment, it is assumed that the parallax (baseline length) L is accurately obtained by calibration.

次に、本実施の形態に係る3次元形状計測装置100を用いた3次元形状計測動作について説明する。 Next, a three-dimensional shape measuring operation using the three-dimensional shape measuring device 100 according to the present embodiment will be described.

図7に示すように、まず、コントローラ50(指令部51)は、パターンプロジェクタ20により計測用パターン21を計測対象(ターゲットT)に投影して、内視鏡1の撮像光学系30を用いて計測対象(ターゲットT)の撮像を行う(ステップS1)。 As shown in FIG. 7, first, the controller 50 (command unit 51) projects the measurement pattern 21 onto the measurement target (target T) by the pattern projector 20, and uses the imaging optical system 30 of the endoscope 1. The measurement target (target T) is imaged (step S1).

(線検出)
次に、画像処理部52(対応計算部52A)は、撮像光学系30から生画像を取得し、生画像から線を検出する(ステップS2)。ステップS2において、図8に示すように、画像処理部52(対応計算部52A)は、生画像から魚眼歪みを除去する(ステップS11)。続いて、画像処理部52(対応計算部52A)は、ガウシアンフィルタ又はメディアンフィルタを用いて画像中のノイズを低減する(ステップS12)。続いて、画像処理部52(対応計算部52A)は、画像中の格子の縦直線を検出する(ステップS13)。
(Line detection)
Next, the image processing unit 52 (corresponding calculation unit 52A) acquires a raw image from the imaging optical system 30 and detects a line from the raw image (step S2). In step S2, as shown in FIG. 8, the image processing unit 52 (corresponding calculation unit 52A) removes the fisheye distortion from the raw image (step S11). Subsequently, the image processing unit 52 (corresponding calculation unit 52A) reduces noise in the image by using a Gaussian filter or a median filter (step S12). Subsequently, the image processing unit 52 (corresponding calculation unit 52A) detects the vertical straight lines of the grid in the image (step S13).

次に、画像処理部52(対応計算部52A)は、隣接する縦直線同士を横方向に接続する横線分の検出を行う(ステップS14)。この処理では、検出された縦直線の左右、それぞれの側について、縦直線に沿って輝度値が追跡され、輝度値のピークが検出される。これらのピークの位置は、横線分の端点候補となる。端点候補を接続する縦直線のうち、長さが決められた範囲内にあるものを、横線分の初期候補とする。 Next, the image processing unit 52 (corresponding calculation unit 52A) detects a horizontal line portion that connects adjacent vertical straight lines in the horizontal direction (step S14). In this process, the luminance value is traced along the vertical straight line on each side of the detected vertical straight line, and the peak of the luminance value is detected. The positions of these peaks are candidates for the end points of the horizontal line. Among the vertical straight lines connecting the end point candidates, those within the range in which the length is determined are set as the initial candidates for the horizontal line.

横線分の初期候補の端点位置には微小な誤差がある。これを補正するために、対応計算部52Aは、横線分のそれぞれの初期候補について、端点位置を縦直線に沿って微小量ずらしながら、それらを結ぶ線分上の輝度値の平均値が最大になるような端点位置を探索する。探索された端点位置にある線分を、最適化された横線分の候補とする。横線分の候補には、重なったものや、実際には投影パターンの無い位置に局所最適化によって検出されるものもある。そうした横線分の候補を除去するために、互いに距離が近い(投影パターンから予測される距離の半分以下となる)横線分の候補がある場合、線分上の平均輝度値が小さい方を除去する。 There is a small error in the end point position of the initial candidate for the horizontal line. In order to correct this, the corresponding calculation unit 52A shifts the end point positions by a small amount along the vertical straight line for each initial candidate of the horizontal line segment, and maximizes the average value of the brightness values on the line segment connecting them. Search for the end point position so that The line segment at the searched end point position is used as a candidate for the optimized horizontal line segment. Some of the candidates for the horizontal line are overlapped, and some are detected by local optimization at a position where there is actually no projection pattern. In order to remove such horizontal line segment candidates, if there are horizontal line segment candidates that are close to each other (less than half the distance predicted from the projection pattern), the one with the smaller average luminance value on the line segment is removed. ..

ステップS14終了後、画像処理部52は、図7のステップS3に移行する。 After the end of step S14, the image processing unit 52 shifts to step S3 of FIG.

(グリッドグラフの構築)
次に、画像処理部52(対応計算部52A)は、グリッドグラフの構築を行う(ステップS3)。図9に示すように、画像処理部52(対応計算部52A)は、検出された縦直線及び横線分に基づいて、グリッドグラフ(格子グラフ)の構造を構築する(ステップS21,S22)。計測用パターン21におけるグリッドグラフの構造を図10に示す。この時点では、縦直線(例えばv,v)を含む縦直線群が検出されており、それらの間の横エッジ(例えばe,e)が検出されている。
(Construction of grid graph)
Next, the image processing unit 52 (corresponding calculation unit 52A) constructs a grid graph (step S3). As shown in FIG. 9, the image processing unit 52 (corresponding calculation unit 52A) constructs a structure of a grid graph (lattice graph) based on the detected vertical lines and horizontal lines (steps S21 and S22). The structure of the grid graph in the measurement pattern 21 is shown in FIG. At this point, a group of vertical straight lines including vertical straight lines (for example, v 1 , v 2 ) has been detected, and horizontal edges (for example, e 1 , e 2 ) between them have been detected.

グリッドグラフを構成するには、ある縦直線の左右から横エッジを1つずつ選んだとき、これらの横エッジが「連続」であるか「非連続」であるかを判定する必要がある。ここで、これらの横エッジが連続であるとは、横エッジeと横エッジeのように幾何学的に連続であることのみを意味するのではない。例えば、横エッジeと横エッジeのように、幾何学的には段差のある横エッジも、グリッドグラフとしては単一のノードn1で接続しているものと見なし、これらは「連続」であると定義する。横エッジ同士の「連続」、「非連続」の分類は重要な処理である。横エッジの間で段差の無いノードのコードラベルはSとなる。 In order to construct a grid graph, when horizontal edges are selected one by one from the left and right of a certain vertical straight line, it is necessary to determine whether these horizontal edges are "continuous" or "discontinuous". Here, these lateral edges and a continuous, horizontal edge e 3 and does not mean only that a geometrical continuous as horizontal edge e 4. For example, as in the horizontal edge e 5 and the lateral edge e 6, the horizontal edge is geometrically a level difference, as the grid graph assumes that are connected by a single node n1, these "continuous" Defined as. Classification of "continuous" and "discontinuous" between horizontal edges is an important process. The code label of the node with no step between the horizontal edges is S.

図10において、破線の丸で示されたノードは、コードラベルがSとなるノードである。また、実線の丸で示されたノードは、コードラベルがS、L、Rのいずれかになるノードである。実線の丸のノードと、破線の丸のノードは、縦直線の上で交互に現れる。 In FIG. 10, the node indicated by the broken line circle is the node whose code label is S. Further, the node indicated by the solid line circle is a node whose code label is any of S, L, and R. Solid circle nodes and dashed circle nodes alternate on a vertical straight line.

例えば、縦ラインvには、下から順に、実線(コードラベルR)のノードn、破線(コードラベルS)のノードn、実線(コードラベルR)のノードn、破線(コードラベルS)のノードnが現れている。この配置を考慮して、図9に示すように、画像処理部52(対応計算部52A)は、縦ラインの左右の横エッジについて、端点同士の距離が小さい閾値Tよりも小さいものを探し、それら2個の端点のペアをグループとして、コードラベルSのノードとして検出する(ステップS21)。 For example, the vertical line v 2 has a solid line (code label R) node n 2 , a broken line (code label S) node n 3 , a solid line (code label R) node n 4 , and a broken line (code label R) in this order from the bottom. node n 5 of S) has appeared. In consideration of this arrangement, as shown in FIG. 9, the image processing unit 52 (corresponding calculation unit 52A) searches for the left and right horizontal edges of the vertical line where the distance between the end points is smaller than the threshold T s. , The pair of these two end points is detected as a node of the code label S as a group (step S21).

次に、画像処理部52(対応計算部52A)は、残りの端点について、閾値Tよりも大きな閾値T以下の距離の端点のペアを探し、さらにそれらのエッジの上あるいは下のエッジ同士がすでに連続なエッジとしてマークされている場合、その端点のペアを1つのグループ、すなわちコードラベルL、Rのノードnとして検出する(ステップS22)。 Next, the image processing unit 52 (corresponding calculation unit 52A) searches for a pair of end points having a distance equal to or less than the threshold T l larger than the threshold T s for the remaining end points, and further edges above or below the edges. There already if it is marked as a continuous edge, the pair of end points one group, namely code label L, then detected as a node n i in R (step S22).

図10においては、例えば、横エッジeと横エッジeが連続なエッジとしてコードラベルSがそのノードにマークされ、続いて、それらのエッジの連続性を参考に、横線分eと横線分eが連続であるとしてコードラベルLがノードnにマークされる。それぞれのノード(例えば、n)は、上下左右の隣接ノードに接続されている。横エッジによっては、検出漏れなどにより、連接する横エッジが見つからない場合もある。このような場合、横方向の隣接ノードが、右または左の片側しか存在しない状態となる。 In Figure 10, for example, horizontal edge e 3 and the lateral edge e 4 code label S is marked on the node as a continuous edge, subsequently, referring to the continuity of their edges, horizontal component e 5 and horizontal min e 6 code label L is marked to the node n 1 as being continuous. Each node (for example, n 6 ) is connected to adjacent nodes on the top, bottom, left, and right. Depending on the horizontal edge, the horizontal edge to be connected may not be found due to detection omission or the like. In such a case, there are adjacent nodes in the horizontal direction on only one side, right or left.

ステップS22実行後、画像処理部52は、図7のステップS4に進む。 After executing step S22, the image processing unit 52 proceeds to step S4 of FIG.

(部分グラフパターンによる対応付け)
次に、画像処理部52(対応計算部52A)は、部分グラフパターンによる対応付けを行う(ステップS4)。具体的には、対応計算部52Aは、以下に説明するように、計測用パターン21のグラフの部分グラフにおけるパターンマッチングを行って、画像に含まれるノードと、計測用パターン21におけるノードとを対応付けることで、対応の解(ノード)の候補を削減し、解の候補の中から正しい対応の解(対応ノード)を得る。さらに、画像処理部52(形状出力部52B)は、得られた対応の解からステレオ処理(光切断法)により、計測対象の3次元形状を算出して出力する(ステップS5)。
(Association by subgraph pattern)
Next, the image processing unit 52 (corresponding calculation unit 52A) performs the association by the subgraph pattern (step S4). Specifically, the corresponding calculation unit 52A performs pattern matching in the subgraph of the graph of the measurement pattern 21 to associate the node included in the image with the node in the measurement pattern 21 as described below. As a result, the candidates for the corresponding solution (node) are reduced, and the correct corresponding solution (corresponding node) is obtained from the solution candidates. Further, the image processing unit 52 (shape output unit 52B) calculates and outputs the three-dimensional shape of the measurement target from the obtained corresponding solution by stereo processing (optical cutting method) (step S5).

ここで、ステップS3において、内視鏡1のカメラで撮像された画像から作成された検出グリッドグラフをGとし、図3(A)に示す計測用パターン21の投影グリッドグラフをPとする。図11に示すように、検出グリッドグラフGには、エッジが欠ける場合や、余分なエッジが存在する場合、ノードのラベルS,L,Rの誤りがある場合がある。画像処理部52は、グラフトポロジーの誤りを許して検出グリッドグラフGと投影グリッドグラフPとの照合を行うために、これらのグラフの部分グラフを照合する。 Here, in step S3, the detection grid graph created from the image captured by the camera of the endoscope 1 is referred to as G, and the projection grid graph of the measurement pattern 21 shown in FIG. 3A is referred to as P. As shown in FIG. 11, the detection grid graph G may have missing edges, extra edges, or incorrect node labels S, L, and R. The image processing unit 52 collates the subgraphs of these graphs in order to allow an error in the graph topology and collate the detection grid graph G with the projection grid graph P.

照合のための部分グラフを、局所部分グラフパターン(Local Sub-Graph Pattern、以下、LSGP)と呼ぶ。図11に示すように、LSGP(s)は、検出グリッドグラフGと投影グリッドグラフPとに共通な局所的な部分グラフを照合するテンプレートとなるグラフである。LSGPを与えることで、検出グリッドグラフGと投影グリッドグラフPとを、エッジの欠損や誤検出を許しながら照合することができる。また、図11に示すように、複数種類のLSGPを用意して、それぞれのLSGPで検出グリッドグラフGと投影グリッドグラフPを照合することで、柔軟な照合処理が可能となる。 The subgraph for collation is called a local sub-graph pattern (hereinafter, LSGP). As shown in FIG. 11, the LSGP (s) is a graph that serves as a template for collating the local subgraphs common to the detection grid graph G and the projection grid graph P. By giving the LSGP, the detection grid graph G and the projection grid graph P can be collated while allowing edge defects and false detections. Further, as shown in FIG. 11, by preparing a plurality of types of LSGPs and collating the detection grid graph G and the projection grid graph P with each LSGP, flexible collation processing becomes possible.

画像処理部52では、各LSGPは、そのノードをすべて通過するパスとして実装されている。複数のLSGPによる照合結果からの総合判定は、ノードnごとの投票によって行われる。 In the image processing unit 52, each LSGP is implemented as a path that passes through all the nodes. Comprehensive judgment from the collation results of the plurality of LSGP is done by voting for each node n i.

照合処理は、以下手順で行われる。まず、画像処理部52は、検出グリッドグラフGのあるノードnから、あるLSGPのパスを追跡し、エッジの欠損が無ければ、その部分グラフ(画像グラフパターン)をGとする。次に、画像処理部52は、投影グリッドグラフPから、以下の全ての条件を満たす部分グラフ(部分グラフパターン)Pを探索する。 The collation process is performed in the following procedure. First, the image processing unit 52, from the node n i of detector grid graph G, to track the path of a lsgp, if there is no loss of edge, its subgraph (image graph pattern) and G 0. Next, the image processing unit 52 searches the projection grid graph P for a partial graph (partial graph pattern) P 0 that satisfies all of the following conditions.

その条件とは、以下の通りである。
(1)GとPとが同じトポロジーのグラフであること
(2)GとPの対応するノードが、全てエピポーラ拘束条件を満たすこと
(3)GとPの対応するノードのコードラベルS,L,Rが、一定の閾値以上の割合で一致していること(パターンマッチングの一致度が閾値より高いこと)
なお、(2)の条件を満たすことが、エピポーラ拘束に基づいて対応の解の候補を選択する処理に対応する。
The conditions are as follows.
(1) G 0 and P 0 are graphs of the same topology (2) All corresponding nodes of G 0 and P 0 satisfy the epipolar constraint condition (3) Corresponding nodes of G 0 and P 0 The code labels S, L, and R of are matched at a rate equal to or higher than a certain threshold value (the degree of matching of pattern matching is higher than the threshold value).
The condition of (2) corresponds to the process of selecting the corresponding solution candidate based on the epipolar constraint.

計測用パターン21では、検出グリッドグラフGのあるノードに対してエピポーラ拘束を満たす投影グリッドグラフP中のノード(解の候補)は比較的少数である(最大で10程度である)ので、上記の条件を満たすPが見つかったら、図12、図13に示すように、Pの全てのノードに対して、Gの各ノードについて、対応ノードとして投票が行われる。対応計算部52Aは、部分グラフのノードについて、パターンマッチングの一致度が閾値より高い場合に投票を行うことで、画像に含まれるパターンの誤りを解消し(対応の解の候補から曖昧性を解消し)正しい対応点を得る。対応計算部52Aは、図14に示すように、局所部分グラフパターンを複数用意している。この処理を、検出グリッドグラフGの全てのノードで行い、局所部分グラフパターンを変更して、予め与えられた全てのLSGPについて、マッチングを繰り返し、合計得票数を得る。繰り返し処理が終わった時点で、画像処理部52(対応計算部52A)は、検出グリッドグラフGに含まれる各ノードに対して、合計得票数が最大獲得数を獲得した投影グリッドグラフのノードについて、その投票数が閾値を超えていた場合に、投影グリッドグラフPのそのノードが、検出グリッドグラフGのノードと一致するもの、すなわち対応の解を決定し、対応付けを行う。 In the measurement pattern 21, the number of nodes (solution candidates) in the projection grid graph P that satisfies the epipolar constraint for a node with the detection grid graph G is relatively small (the maximum is about 10). When P 0 satisfying the condition is found, as shown in FIGS. 12 and 13, all the nodes of P 0 are voted as corresponding nodes for each node of G 0 . The correspondence calculation unit 52A eliminates the error of the pattern included in the image by voting when the matching degree of the pattern matching is higher than the threshold value for the node of the subgraph (eliminates the ambiguity from the candidates of the correspondence solution). ) Get the correct correspondence. As shown in FIG. 14, the corresponding calculation unit 52A prepares a plurality of local subgraph patterns. This process is performed on all the nodes of the detection grid graph G, the local subgraph pattern is changed, matching is repeated for all the LSGPs given in advance, and the total number of votes is obtained. When the iterative processing is completed, the image processing unit 52 (corresponding calculation unit 52A) determines the nodes of the projection grid graph in which the total number of votes obtained is the maximum for each node included in the detection grid graph G. When the number of votes exceeds the threshold value, the node of the projection grid graph P matches the node of the detection grid graph G, that is, the corresponding solution is determined and associated.

(光切断法による3次元形状復元)
図7に戻り、次に、画像処理部52(形状出力部52B)は、撮影画像と計測用パターン21とにおける線分の対応を決定した後は,その線分の対応に基づいて、検出された縦直線の3次元形状を光切断法により復元する(ステップS5)。ここで、画像処理部52(形状出力部52B)は、光切断法で復元された疎な点群から、2次元回帰を利用して法線方向を推定する。そして、線間の形状を、法線方向を考慮しつつ、放射基底関数(Radial Basis Function)を重みとする補間によって復元する。これにより、計測対象の3次元形状が求められる。
(Three-dimensional shape restoration by optical cutting method)
Returning to FIG. 7, the image processing unit 52 (shape output unit 52B) is detected based on the correspondence between the line segments after determining the correspondence between the captured image and the measurement pattern 21. The three-dimensional shape of the vertical straight line is restored by the optical cutting method (step S5). Here, the image processing unit 52 (shape output unit 52B) estimates the normal direction from the sparse point cloud restored by the optical cutting method by using two-dimensional regression. Then, the shape between the lines is restored by interpolation with a weight of the Radial Basis Function while considering the normal direction. As a result, the three-dimensional shape of the measurement target is obtained.

3次元形状計測装置100による計測を現実的な状況で評価するために、人間の胃から切除された生体標本を計測した。対象標本は、25mm及び15mm程度の異なる距離で観測した。図15に示すように、DOEを利用したパターンプロジェクタ20によって、異なる距離で観測したパターンであっても、両方明瞭なパターンの画像が得られた。本実施の形態に係る3次元計測方法により、それぞれの画像はおおむね正常に復元できた。計測画像から得られたグリッドパターンと、投影されたグリッドパターンとの対応は正常に獲得され、生体標本の縦横線の格子状の3次元形状が獲得された。 In order to evaluate the measurement by the three-dimensional shape measuring device 100 in a realistic situation, a biological specimen excised from the human stomach was measured. The target specimens were observed at different distances of about 25 mm and 15 mm. As shown in FIG. 15, by the pattern projector 20 using DOE, images of both clear patterns were obtained even if the patterns were observed at different distances. By the three-dimensional measurement method according to the present embodiment, each image could be restored almost normally. The correspondence between the grid pattern obtained from the measured image and the projected grid pattern was normally acquired, and the grid-like three-dimensional shape of the vertical and horizontal lines of the biological specimen was acquired.

図7に戻り、次に、制御部50Bは、すべての撮像が終了したか否かを判定する(ステップS6)。すべての撮像が終了していない場合(ステップS6;No)、制御部50Bは、ステップS1(投影及び撮像)→S2(線検出)→S3(グリッドグラフの構築)→S4(部分グラフパターンによる対応づけ)→S5(光切断法による3次元形状復元)が行われ、再び撮像の終了判断が行われる(ステップS6)。このようにして、何枚か撮像され、3次元形状が復元される。この間、内視鏡1の先端の位置は、撮像する毎に変わるので、各画像及びその画像から計測された3次元形状は、異なる視点で計測された計測対象の3次元形状となる。 Returning to FIG. 7, the control unit 50B then determines whether or not all imaging has been completed (step S6). When all the imaging is not completed (step S6; No), the control unit 50B takes steps S1 (projection and imaging) → S2 (line detection) → S3 (construction of grid graph) → S4 (correspondence by subgraph pattern). (Addition) → S5 (three-dimensional shape restoration by the optical cutting method) is performed, and the end determination of imaging is performed again (step S6). In this way, several images are taken and the three-dimensional shape is restored. During this period, the position of the tip of the endoscope 1 changes each time an image is taken, so that each image and the three-dimensional shape measured from the image become the three-dimensional shape of the measurement target measured from different viewpoints.

すべての撮像が終了すると(ステップS6;Yes)、画像処理部52は、求められた複数の3次元形状(格子データ)を合成する(ステップS7)。この3次元形状の合成は、ICP(Iterative Closest Point)アルゴリズムを用いて行われる。以下、ICPアルゴリズムについて説明する。 When all the imaging is completed (step S6; Yes), the image processing unit 52 synthesizes the obtained plurality of three-dimensional shapes (grid data) (step S7). This three-dimensional shape synthesis is performed using an ICP (Iterative Closest Point) algorithm. The ICP algorithm will be described below.

従来のICPアルゴリズムでは、格子データの合成は、以下の式(1)、すなわちコスト関数を最小にする剛体変換(回転)のパラメータR、並進パラメータtを算出することにより行われる。
式(1)

Figure 0006752468
ここで、図16に示すように、pは、合成元の格子データの点群であり、qは、合成相手の格子データの点群である。 In the conventional ICP algorithm, the lattice data is synthesized by calculating the following equation (1), that is, the parameter R of the rigid body transformation (rotation) that minimizes the cost function and the translation parameter t.
Equation (1)
Figure 0006752468
Here, as shown in FIG. 16, pi is a point group of the grid data of the synthesis source, and q i is a point group of the grid data of the synthesis partner.

しかしながら、上記式で2つの縦線上の点群同士、横線上の点群同士の結びつきが強くなりすぎて、正確に格子データを合成することが困難であった(図16参照)。そこで、本実施の形態では、画像処理部52は、コスト関数を以下の式(2)で定義し、コスト関数を最小にする剛体変換パラメータR、並進パラメータtを算出し、算出した剛体変換パラメータR、並進パラメータtを用いて、2つの格子データの合成を行う。
式(2)

Figure 0006752468
ここで、p は、合成元の格子データの横線分上の点群であり、p は、合成元の格子データの縦直線上の点群である。q は、合成元の格子の縦直線上の点群であり、q は、合成元の格子の横線分上の点群である。このようにすれば、図16に示されるように、2つの3次元形状データを、より正確に合成することが可能となる。 However, in the above equation, the connection between the point groups on the two vertical lines and the point groups on the horizontal lines became too strong, and it was difficult to accurately synthesize the grid data (see FIG. 16). Therefore, in the present embodiment, the image processing unit 52 defines the cost function by the following equation (2), calculates the rigid transformation parameter R that minimizes the cost function, and the translation parameter t, and calculates the rigid transformation parameter. Two lattice data are combined using R and the translation parameter t.
Equation (2)
Figure 0006752468
Here, p i h is the point group of the horizontal component of the composite source grid data, p i v is the vertical straight line point group of synthetic origin of the grid data. q i v is a point group on the vertical straight line of the grid of the synthesis source, and q i h is a point group on the horizontal line of the grid of the synthesis source. In this way, as shown in FIG. 16, it is possible to more accurately synthesize the two three-dimensional shape data.

まとめると、ステップS17おける画像処理部52の動作は、図17に示す手順で実行される。まず、画像処理部52(算出部)は、異なる方向から得られた計測対象の複数の3次元形状データ(p,q)のうち、第1のデータpを構成する縦線分(第1の線分)上の点p と、第1のデータpとは別の第2のデータqを構成する、横線分(第1の線分とは方向の異なる第2の線分)上の点q との間、又は第1のデータpを構成する横線分上p と第2のデータqを構成する縦線分上q との間のずれを最小にするような回転及び並進の補正量(回転パラメータ(回転ずれ)R、並進パラメータ(並進ずれ)t)を、回帰分析を行って算出する(ステップS31)。 In summary, the operation of the image processing unit 52 in step S17 is executed by the procedure shown in FIG. First, the image processing unit 52 (calculation unit), a plurality of three-dimensional shape data (p i, q i) of the measurement object obtained from different directions of the vertical line segments constituting the first data p i ( a point p i v of the first segment) on, the first data p i constitute another second data q i, direction different second and horizontal component (the first segment between the points q i h on the line segment), or between the vertical line segment on q i v constituting the on horizontal component p i h and the second data q i constituting the first data p i The correction amount of rotation and translation (rotation parameter (rotational deviation) R, translational parameter (translational deviation) t) that minimizes the deviation is calculated by performing regression analysis (step S31).

続いて、画像処理部52(出力部)は、算出された回転パラメータR及び並進パラメータ(並進ずれ)tをキャンセルした状態で、第1のデータpと第2のデータqとを合成し、合成した3次元形状のずれを補正した3次元形状として出力する(ステップS32)。 Subsequently, the image processing unit 52 (output unit) synthesizes the first data pi and the second data q i in a state where the calculated rotation parameter R and the translation parameter (translation deviation) t are cancelled. , Output as a three-dimensional shape corrected for deviation of the synthesized three-dimensional shape (step S32).

なお、より滑らかな表面を実現するために、画像処理部52は、以下の算出式を用いて、サンプル深さデータs(x)の補間を行って深さ関数d(x)を算出することができる。

Figure 0006752468
ここで、g(x)は、サンプル点x近傍でのd(x)の線形近似値であり、φ||x−x||は、重みp(x)の値である。重みp(x)は、xで最大で、xから離れたxで最小となる。重み関数φは、以下の式のものを用いることができる。
Figure 0006752468
ここで、Rは、近似半径である。 In order to realize a smoother surface, the image processing unit 52 calculates the depth function d (x) by interpolating the sample depth data s (x) using the following calculation formula. Can be done.
Figure 0006752468
Here, g i (x) is a linear approximation value of d (x) in the vicinity of the sample point x i , and φ || x−x i || is a value of the weight p i (x). Weight p i (x) is the largest at x i, the minimum x away from x i. As the weighting function φ, the following equation can be used.
Figure 0006752468
Here, R w is an approximate radius.

また、重みp(x)は、以下のサンプル集合

Figure 0006752468
を用いたフィッティング(Rは、半径の閾値)を行って、以下の式の係数aを決定することにより、算出することができる。
pi(x)=a・(x−x)+s(x) In addition, the weight p i (x), the following sample set
Figure 0006752468
It can be calculated by performing fitting using (R p is a threshold value of radius) and determining the coefficient a of the following equation.
pi (x) = a · (x-x i ) + s (x i )

画像処理部52(形状出力部52B)は、上述のようにして、3次元形状データの合成を行って、計測対象全体の3次元形状を生成する(ステップS7)。生成された3次元形状は、表示部50Cに表示されるとともに、記憶装置等に記憶される。その後、制御部50Bは、処理を終了する。 The image processing unit 52 (shape output unit 52B) synthesizes the three-dimensional shape data as described above to generate the three-dimensional shape of the entire measurement target (step S7). The generated three-dimensional shape is displayed on the display unit 50C and stored in a storage device or the like. After that, the control unit 50B ends the process.

以上詳細に説明したように、本実施の形態によれば、計測対象に投光される2次元パターンが、線分の接続状態によって区別可能な特徴を有するノードとエッジから成るグリッドグラフPから構成されているため、表面下散乱や輝度の低下が発生しても、そのノードの位置情報を読み取り易くなっている。この結果、計測対象の3次元形状、あるいはその大きさを安定して計測することができる。 As described in detail above, according to the present embodiment, the two-dimensional pattern projected onto the measurement target is composed of a grid graph P composed of nodes and edges having characteristics that can be distinguished by the connection state of the line segments. Therefore, even if subsurface scattering or a decrease in brightness occurs, the position information of the node can be easily read. As a result, the three-dimensional shape of the measurement target or its size can be stably measured.

すなわち、3次元形状計測装置100によれば、直線グリッド段差パターンと、DOEによる新しい小型のパターンプロジェクタ20の利用により、広い範囲の作動距離で、生体組織の形状復元を安定して高精度で行うことができる。 That is, according to the three-dimensional shape measuring device 100, the shape of the living tissue can be stably restored with high accuracy over a wide working distance by using the linear grid step pattern and the new small pattern projector 20 by DOE. be able to.

より詳細には、本実施の形態では、DOEによるパターンプロジェクタ20と,段差によるコードを埋め込んだ格子パターンを利用した、アクティブステレオ法(光切断法)による3次元形状計測装置100を開示した。この3次元形状計測装置100によれば、DOEの利用により、広い作業範囲で明瞭なパターン投影を実現することができるうえ、光エネルギーの利用効率も90%以上になった。さらに、段差によるコードを埋め込んだ直線による格子パターンにより、表面化散乱によるボケの影響を受けていても、パターンを正しく検出し、コードを認識することができた。また、本実施の形態に係る段差パターンの格子構造について、検出誤りを許容して照合をおこなう新しい検出処理を開示した。本実施の形態に係る3次元形状計測装置100によれば、人から切除された生体組織を,異なる作動距離で復元することに成功した。 More specifically, in the present embodiment, the pattern projector 20 by DOE and the three-dimensional shape measuring device 100 by the active stereo method (optical cutting method) using the grid pattern in which the code by the step is embedded are disclosed. According to the three-dimensional shape measuring device 100, by using DOE, clear pattern projection can be realized in a wide working range, and the utilization efficiency of light energy is 90% or more. Furthermore, the grid pattern of straight lines with embedded codes due to steps made it possible to correctly detect the pattern and recognize the code even if it was affected by blurring due to surface scattering. In addition, we have disclosed a new detection process that allows detection errors and collates the lattice structure of the step pattern according to the present embodiment. According to the three-dimensional shape measuring device 100 according to the present embodiment, it has succeeded in restoring the biological tissue excised from a human with different working distances.

なお、上記実施の形態では、DOEによる格子パターンを線分から構成されるものとしたが、縦直線上と横直線上にドットが形成された格子パターンであってもよい。また、格子点をコード化できるのであれば、他に様々な手法を適用することができる。例えば、各ノードにおけるドットの数でノードをコード化することも可能である。 In the above embodiment, the grid pattern by DOE is composed of line segments, but it may be a grid pattern in which dots are formed on the vertical straight line and the horizontal straight line. In addition, various other methods can be applied as long as the grid points can be encoded. For example, it is possible to code a node by the number of dots in each node.

なお、上記実施の形態では、計測用パターン21を、線分の接続状態によって区別可能な特徴を有するノードとエッジから成るものとしたが、パターンの対称性によって区別可能な特徴を有するノードとエッジから成るものとしてもよい。例えば、計測用パターン21は、局所的に回転対称あるいは線対称な特徴があり、その特徴の配置によってグラフのノードあるいはエッジが表されたパターンであってもよい。この場合、格子パターンを形成するにあたり、格子の線を直接画像パターンにするのではなく、画像上の模様の対称性から格子パターンを生成することができる。図18は、矩形状の点からなる画像で格子を表現した計測用パターン22の一例である。図19は、図18の計測用パターン22中の、格子点と格子の線の一例を示す。図19の矩形状の点Dは、図18の計測パターン22中、パターンが180度の回転対称となる中心点であり、計測用パターン22では、このような点Dが、格子上に配置されている。また、図19の縦線L1、横線L2は、図18の画像中で、周囲のパターンが鏡面対象となる中心線であり、このような中心線で、格子パターンの線を表すことができる。 In the above embodiment, the measurement pattern 21 is composed of nodes and edges having characteristics that can be distinguished by the connection state of the line segment, but the nodes and edges that have characteristics that can be distinguished by the symmetry of the pattern. It may consist of. For example, the measurement pattern 21 may have features that are locally rotationally symmetric or line-symmetrical, and the nodes or edges of the graph may be represented by the arrangement of the features. In this case, when forming the grid pattern, the grid pattern can be generated from the symmetry of the pattern on the image, instead of directly converting the grid lines into the image pattern. FIG. 18 is an example of a measurement pattern 22 in which a grid is represented by an image consisting of rectangular points. FIG. 19 shows an example of a grid point and a grid line in the measurement pattern 22 of FIG. The rectangular point D in FIG. 19 is a center point in which the pattern is rotationally symmetric by 180 degrees in the measurement pattern 22 of FIG. 18, and in the measurement pattern 22, such a point D is arranged on a grid. ing. Further, the vertical line L1 and the horizontal line L2 in FIG. 19 are center lines whose surrounding patterns are mirrored in the image of FIG. 18, and such center lines can represent the lines of the grid pattern.

図20は、このようなパターンを投影して撮影した画像の一例である。図21は、図20の白枠の部分の拡大図である。図22は、図21の各点で、180度回転による自己相関を求め、これによって各点の180度回転対称性を求め画像化した図である。図23は、図22の回転対称性のピークを求めることで、格子点を検出し、その格子点を画像化したものである。この後、格子点同士をつなぐ線については、投影によって平行四辺形状に歪んだ、格子のブロックを仮に定め、投影による歪みを考慮しながら線対称性を検出することで、抽出することができる。 FIG. 20 is an example of an image taken by projecting such a pattern. FIG. 21 is an enlarged view of the white frame portion of FIG. 20. FIG. 22 is an image obtained by obtaining the autocorrelation by rotating 180 degrees at each point in FIG. 21 and thereby obtaining the 180 degree rotational symmetry of each point. FIG. 23 shows a grid point detected by obtaining the peak of rotational symmetry of FIG. 22 and an image of the grid point. After that, the line connecting the grid points can be extracted by tentatively defining a grid block that is distorted into a parallel quadrilateral shape by projection and detecting line symmetry while considering the distortion due to projection.

このような計測用パターン22で、格子点や、格子の線に特徴を付与するには、複数の方法がある。例えば、図19で横線L2の箇所の画素を変化させても、横線L2は、前述の鏡面対象性を保つ。この性質を利用し、横線L2上の画素を変化させ、横線L2に特徴を付与することができる。この横線L2上の画素の変化によっては、格子点上での点対称性は必ずしも成立しないが、全体の画素中での変化量を調整すれば、格子点の点対称性は強いため、その検出は容易である。格子点や格子線の特徴を検出できれば、形状復元は上記実施の形態と同様にして、部分ブラフによる照合によって行うことができる。別の方法としては、格子を形成するブロック(長方形状の単一の格子)の内部に、他の点と区別可能な点を配置し、その点の位置をブロック内部で変化させることで、特徴を付けても良い。 In such a measurement pattern 22, there are a plurality of methods for adding features to grid points and grid lines. For example, even if the pixel at the location of the horizontal line L2 is changed in FIG. 19, the horizontal line L2 maintains the above-mentioned specularity. By utilizing this property, the pixels on the horizontal line L2 can be changed to give a feature to the horizontal line L2. The point symmetry on the grid points is not always established by the change of the pixels on the horizontal line L2, but if the amount of change in the entire pixel is adjusted, the point symmetry of the grid points is strong, so its detection. Is easy. If the characteristics of the grid points and grid lines can be detected, the shape restoration can be performed by collation with a partial bluff in the same manner as in the above embodiment. Alternatively, a point that can be distinguished from other points is placed inside the block that forms the grid (a single rectangular grid), and the position of that point is changed inside the block. May be attached.

また、対応計算部52Aは、前記パターンマッチングの一致度をデータ項とし、グラフの接続関係を平滑化項とすることで、マルコフ確率場モデル(MRF,Markov Random Field)最適化により対応点を算出するようにしてもよい。マルコフ場確率モデルは、グラフ構造中のノードにラベルが付与されているときに、ラベルの配置に対する確率を定義する方法であり、これによって、「自然なラベル配置」を確率として定義することができる。したがって、マルコフ場確率モデルを用いて、ノイズを除去しながらノードへのラベル付与を実現するアルゴリズムが複数提案されている。 Further, the correspondence calculation unit 52A calculates the correspondence point by optimizing the Markov random field model (MRF, Markov Random Field) by using the matching degree of the pattern matching as a data term and the connection relationship of the graph as a smoothing term. You may try to do it. The Markov field probability model is a method of defining the probability for label placement when a node in the graph structure is labeled, which allows "natural label placement" to be defined as the probability. .. Therefore, a plurality of algorithms have been proposed that realize labeling of nodes while removing noise by using a Markov field probability model.

これらのアルゴリズムのモデルでは、あるグラフノードが取るラベルの確率は、そのノードにおける局所的な性質(検出されたノード特徴)と、そのノードとエッジで接続されたノード、つまり隣接ノードのラベルにのみ依存する。全体としての確率が高いラベルの配置は、グラフ全体のラベル付けの対数尤度を表す関数の最適化の形で表される。これは、

Figure 0006752468
を最大化するようなラベルを求める問題である。上記の式の項のうち、第一項は、ラベルとデータ(ノード特徴)の一致度を表すのでデータ項と呼ばれ、第二項はラベリングの平滑性(グラフの接続関係)を表すので平滑化項と呼ばれる。 In the models of these algorithms, the label probabilities taken by a graph node are limited to the local properties of that node (detected node characteristics) and the labels of the nodes connected to that node at the edge, that is, the labels of adjacent nodes. Dependent. Label placement with a high probability as a whole is expressed in the form of optimization of a function that represents the log-likelihood of labeling the entire graph. this is,
Figure 0006752468
Is the problem of finding a label that maximizes. Of the terms in the above formula, the first term is called the data term because it represents the degree of matching between the label and the data (node features), and the second term is smooth because it represents the smoothness of labeling (connection relationship of graphs). It is called a chemical term.

上記実施の形態では、カメラで撮像された画像で検出されたグラフ構造の各ノードにおいて、対応するパターンのノードのIDが、ラベルにあたる。データ項では、そのノードを含む部分グラフでのパターンマッチングやエピポーラ拘束の充足を調べ、その一致度が高い対応ノード、あるいは、投票による得票が高い対応ノードに、高い対数尤度が割り当てられる。また、平滑化項では、ノードの接続性を調べ、カメラで撮像された画像で検出されたグラフのノードの接続性と、投影パターンのグラフのノードの接続性が、一致するエッジに高い対数尤度が割り当てられる。このようなラベルを求めるアルゴリズムとしては、graphcutアルゴリズムや、belief propagationアルゴリズムなどが知られている。 In the above embodiment, in each node of the graph structure detected in the image captured by the camera, the ID of the node of the corresponding pattern corresponds to the label. In the data term, pattern matching and satisfaction of epipolar constraints are examined in the subgraph including that node, and a high log-likelihood is assigned to the corresponding node with a high degree of matching or the corresponding node with a high vote. In the smoothing term, the connectivity of the nodes is examined, and the connectivity of the nodes of the graph detected in the image captured by the camera and the connectivity of the nodes of the graph of the projection pattern are highly log-likelihood at the matching edge. Degrees are assigned. As an algorithm for obtaining such a label, a graphcut algorithm, a belief propagation algorithm, and the like are known.

本実施の形態に係る3次元形状計測装置100は、例えば消化管における内視鏡による診断と治療に用いることができる。初期の胃の腫瘍において、3次元形状計測装置100を用いて測定される腫瘍のサイズは、治療方法を選択するときの重要な情報となる。 The three-dimensional shape measuring device 100 according to the present embodiment can be used, for example, for endoscopic diagnosis and treatment in the gastrointestinal tract. In early gastric tumors, the size of the tumor measured using the 3D shape measuring device 100 is important information when selecting a treatment method.

本実施の形態では、内視鏡1に用いられる3次元形状計測装置100について説明したが、本発明はこれには限られない。例えば、人間の動きや流体解析のロボット、分析および検査目的の視覚的な情報について、動的なシーンの3次元形状をキャプチャする場合に適用することができる。すなわち、ありとあらゆる物体の3次元形状の計測に適用可能である。 In the present embodiment, the three-dimensional shape measuring device 100 used for the endoscope 1 has been described, but the present invention is not limited to this. For example, it can be applied to capture the three-dimensional shape of a dynamic scene for human movements, robots for fluid analysis, and visual information for analysis and inspection purposes. That is, it can be applied to the measurement of the three-dimensional shape of any object.

この発明は、この発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、この発明の範囲を限定するものではない。すなわち、この発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 The present invention allows for various embodiments and modifications without departing from the broad spirit and scope of the invention. Moreover, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is indicated by the scope of claims, not by the embodiment. Then, various modifications made within the scope of the claims and the equivalent meaning of the invention are considered to be within the scope of the present invention.

本発明は、計測対象の3次元形状の計測に適用することができる。 The present invention can be applied to the measurement of the three-dimensional shape of the measurement target.

1 内視鏡、2 鉗子孔、3 挿入端、10 レーザ光源、10A レーザモジュール、10B 拡散板、10C 照明絞り、10D コリメータレンズ、20 パターンプロジェクタ、20A 光ファイバ、20B グリンレンズ、20C パターンチップ、20D 円筒部、21,22 計測用パターン、30 撮像光学系、30A 対物レンズ、40 照明光学系、40A 照明レンズ、50 コントローラ、50A 操作部、50B 制御部、50C 表示部、51 指令部、52 画像処理部、52A 対応計算部、52B 形状出力部、100 3次元形状計測装置、D 点、IL レーザ光、L 基線長、L1 縦線、L2 横線、M マーク、T ターゲット。 1 Endoscope, 2 Force hole, 3 Insertion end, 10 Laser light source, 10A laser module, 10B diffuser, 10C illumination aperture, 10D collimator lens, 20 pattern projector, 20A optical fiber, 20B green lens, 20C pattern chip, 20D Cylindrical part, 21 and 22 measurement patterns, 30 imaging optical system, 30A objective lens, 40 illumination optical system, 40A illumination lens, 50 controller, 50A operation unit, 50B control unit, 50C display unit, 51 command unit, 52 image processing Unit, 52A compatible calculation unit, 52B shape output unit, 100 3D shape measuring device, point D, IL laser beam, L baseline length, L1 vertical line, L2 horizontal line, M mark, T target.

Claims (11)

線分の接続状態によって区別可能な特徴を有するノードとエッジから成るグラフから構成される2次元パターンを計測対象に投光する投光部と、
前記計測対象に投光された前記2次元パターンを撮像する撮像部と、
前記撮像部で撮像された画像と前記2次元パターンについて、エピポーラ拘束に基づいて互いに対応する前記ノードの解の候補を選択し、前記解の候補同士の前記グラフでの接続状態に基づいて、前記画像に含まれる前記2次元パターンの誤りを解消し前記解の候補の中から正しい対応の解を得る対応計算部と、
前記対応の解に基づいてステレオ処理により前記計測対象の3次元形状を算出して出力する形状出力部と、
を備え
前記対応計算部は、
前記2次元パターンの前記グラフの部分グラフにおけるパターンマッチングを行って、前記画像に含まれる前記ノードと、前記2次元パターンにおける前記ノードとを対応付けることで、前記対応の解の候補を削減し、
前記2次元パターンは、縦横の線分からなり、縦直線に接続する左右の横線分の段差によって前記各ノードが特徴を持つグラフ構造のパターンである、
次元形状計測装置。
A light projecting portion for projecting a two-dimensional pattern formed on the measurement object from the graph consisting of nodes and edges with thus distinguishable features the line connection state,
An imaging unit that captures the two-dimensional pattern projected onto the measurement target, and
For the two-dimensional pattern and an image captured by the imaging unit, select a candidate of the solution of the node corresponding to each other on the basis of the epipolar constraint, based on the connection state in the graph of candidates among the solutions, the A correspondence calculation unit that eliminates the error of the two-dimensional pattern included in the image and obtains the correct correspondence solution from the solution candidates.
A shape output unit that calculates and outputs the three-dimensional shape of the measurement target by stereo processing based on the corresponding solution, and
Equipped with a,
The corresponding calculation unit
By performing pattern matching in the subgraph of the graph of the two-dimensional pattern and associating the node included in the image with the node in the two-dimensional pattern, the candidates for the corresponding solution are reduced.
The two-dimensional pattern is a pattern of a graph structure composed of vertical and horizontal line segments, and each node is characterized by a step of left and right horizontal line segments connected to a vertical straight line.
Three- dimensional shape measuring device.
前記対応計算部は、
前記パターンマッチングの一致度をデータ項とし、前記グラフの接続関係を平滑化項とすることで、マルコフ確率場モデル(MRF)最適化により対応点を算出する、
請求項に記載の3次元形状計測装置。
The corresponding calculation unit
Wherein the degree of matching of the pattern matching and data sections by the connection relationship of the graph and smoothing term, and calculates the corresponding points by Markov random field model (MRF) optimization,
The three-dimensional shape measuring device according to claim 1 .
前記対応計算部は、
前記部分グラフの前記ノードについて、前記パターンマッチングの一致度が閾値より高い場合に投票を行うことで、前記対応の解の候補から正しい対応点を得る、
請求項に記載の3次元形状計測装置。
The corresponding calculation unit
For said nodes of said subgraph, it said that the degree of coincidence of the pattern matching to vote is higher than the threshold value, obtaining a correct corresponding points from the corresponding candidate solutions,
The three-dimensional shape measuring device according to claim 1 .
前記対応計算部は、
前記部分グラフを複数用意し、それぞれの前記部分グラフでの投票を繰り返した合計得票数によって前記対応の解を決定する、
請求項に記載の3次元形状計測装置。
The corresponding calculation unit
The subgraphs preparing a plurality to determine a solution of the corresponding by the total number of votes repeated votes in each of the subgraphs,
The three-dimensional shape measuring device according to claim 3 .
前記形状出力部は、
前記対応の解に基づく前記線分の対応関係から、光切断法を用いて前記3次元形状を算出する、
請求項1からのいずれか一項に記載の3次元形状計測装置。
The shape output unit
The three-dimensional shape is calculated by using the optical cutting method from the correspondence relationship of the line segments based on the corresponding solution.
The three-dimensional shape measuring device according to any one of claims 1 to 4 .
前記2次元パターンに含まれる前記線分の連なりが、
曲線状に配置される、
請求項1からのいずれか一項に記載の3次元形状計測装置。
The series of line segments included in the two-dimensional pattern is
Arranged in a curved line,
The three-dimensional shape measuring device according to any one of claims 1 to 5 .
前記2次元パターンは、
回折光学素子によるレーザ光の回折により前記計測対象上に形成される、
請求項1からのいずれか一項に記載の3次元形状計測装置。
The two-dimensional pattern is
Formed on the measurement target by diffraction of laser light by a diffraction optical element,
The three-dimensional shape measuring device according to any one of claims 1 to 6 .
前記投光部が、内視鏡に組み込まれている、
請求項1からのいずれか一項に記載の3次元形状計測装置。
The light projecting unit is incorporated in the endoscope.
The three-dimensional shape measuring device according to any one of claims 1 to 7 .
異なる方向から計測された、前記計測対象の複数の3次元形状のデータが得られた場合に、
前記複数の3次元形状のデータのうち、第1のデータを構成する第1の線分と、前記第1のデータとは別の第2のデータを構成する、前記第1の線分とは方向の異なる第2の線分との間のずれを最小にするような、回転及び進の補正量を算出する算出部と、
前記算出部で算出された回転及び並進の前記補正量によって、前記第1のデータと前記第2のデータのずれを補正した形状を出力する出力部と、
を備える、
請求項1に記載の3次元形状計測装置。
If it is measured from different directions, data of a plurality of three-dimensional shape of the measurement object is obtained,
Of the plurality of three-dimensional shape data, the first line segment constituting the first data and the first line segment constituting the second data different from the first data are that minimizes the deviation between the direction different second segment, a calculation unit for calculating a correction amount of the rotation and parallel proceeds,
By the correction amount of the rotational and translational calculated by the calculation unit, and an output unit for outputting the corrected shape wherein the first data second displacement data,
To prepare
The three-dimensional shape measuring device according to claim 1.
3次元形状計測装置によって実行される3次元形状計測方法であって、
線分の接続状態によって区別可能な特徴を有するノードとエッジから成るグラフから構成される2次元パターンを計測対象に投光し、前記計測対象に投光された前記2次元パターンを撮像するパターン撮像ステップと、
前記パターン撮像ステップで撮像された画像と前記2次元パターンについて、エピポーラ拘束に基づいて互いに対応する前記ノードの解の候補を選択し、前記解の候補同士の前記グラフの接続状態に基づいて、前記画像に含まれる前記2次元パターンの誤りを解消し前記解の候補の中から正しい対応の解を得る対応計算ステップと、
前記対応の解に基づいてステレオ処理により前記計測対象の3次元形状を算出して出力する形状出力ステップと、
を含み、
前記対応計算ステップでは、
前記2次元パターンの前記グラフの部分グラフにおけるパターンマッチングを行って、前記画像に含まれる前記ノードと、前記2次元パターンにおける前記ノードとを対応付けることで、前記対応の解の候補を削減し、
前記2次元パターンは、縦横の線分からなり、縦直線に接続する左右の横線分の段差によって前記各ノードが特徴を持つグラフ構造のパターンである、
3次元形状計測方法。
A three-dimensional shape measuring method executed by a three-dimensional shape measuring device.
The two-dimensional pattern consisting of the graph consisting of nodes and edges with thus distinguishable features the line connection state is projected onto the target object, imaging the two-dimensional pattern which is projected to the measurement target Pattern imaging step and
Wherein for said 2-dimensional pattern image captured by the pattern imaging step, selects a candidate solution of the node corresponding to each other on the basis of the epipolar constraint, based on the connection state of the graph of candidates among the solutions, the A correspondence calculation step that eliminates the error of the two-dimensional pattern included in the image and obtains the correct correspondence solution from the solution candidates.
A shape output step that calculates and outputs the three-dimensional shape of the measurement target by stereo processing based on the corresponding solution, and
Only including,
In the corresponding calculation step,
By performing pattern matching in the subgraph of the graph of the two-dimensional pattern and associating the node included in the image with the node in the two-dimensional pattern, the candidates for the corresponding solution are reduced.
The two-dimensional pattern is a pattern of a graph structure composed of vertical and horizontal line segments, and each node is characterized by a step of left and right horizontal line segments connected to a vertical straight line.
Three-dimensional shape measurement method.
異なる方向から計測された、前記計測対象の複数の3次元形状のデータが得られた場合に、前記複数の3次元形状のデータのうち、第1のデータを構成する第1の線分と、前記第1のデータとは別の第2のデータを構成する、前記第1の線分とは方向の異なる第2の線分との間のずれを最小にするような、回転及び進の補正量を算出する算出ステップと、
前記算出ステップで算出された回転及び並進の前記補正量によって、前記第1のデータと前記第2のデータのずれを補正した形状を出力する出力ステップと、
を含む請求項10に記載の3次元形状計測方法。
Measured from different directions, when the data of a plurality of three-dimensional shape of the measurement object is obtained, among the data of the plurality of three-dimensional shape, the first segment constituting the first data, constituting the second data different from said first data, said that the first line segment to minimize the deviation between the second line segments of different directions, rotation and parallel -ary Calculation steps to calculate the correction amount and
By the correction amount of the rotation and translation calculated in the calculation step, and outputting the corrected shape wherein the first data second displacement data,
10. The three-dimensional shape measuring method according to claim 10 .
JP2016113925A 2016-06-07 2016-06-07 3D shape measuring device and 3D shape measuring method Active JP6752468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113925A JP6752468B2 (en) 2016-06-07 2016-06-07 3D shape measuring device and 3D shape measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113925A JP6752468B2 (en) 2016-06-07 2016-06-07 3D shape measuring device and 3D shape measuring method

Publications (2)

Publication Number Publication Date
JP2017217215A JP2017217215A (en) 2017-12-14
JP6752468B2 true JP6752468B2 (en) 2020-09-09

Family

ID=60657021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113925A Active JP6752468B2 (en) 2016-06-07 2016-06-07 3D shape measuring device and 3D shape measuring method

Country Status (1)

Country Link
JP (1) JP6752468B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4016162A4 (en) 2019-08-13 2022-10-12 FUJIFILM Corporation Endoscope system and method for operating same
CN114340471A (en) 2019-08-27 2022-04-12 富士胶片株式会社 Endoscope with a detachable handle
DE102019130950B3 (en) * 2019-11-15 2021-03-25 Lufthansa Technik Aktiengesellschaft Boroscope with pattern projection
WO2021132153A1 (en) 2019-12-26 2021-07-01 富士フイルム株式会社 Endoscope and endoscope system
EP4209821A4 (en) 2020-09-02 2024-02-21 Fujifilm Corp Endoscope system and method for operating same
WO2022209156A1 (en) * 2021-03-30 2022-10-06 ソニーグループ株式会社 Medical observation device, information processing device, medical observation method, and endoscopic surgery system
JP2022181645A (en) 2021-05-26 2022-12-08 富士フイルム株式会社 Endoscope work support device, endoscope work support system and operation method of endoscope work support device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438937B2 (en) * 1994-03-25 2003-08-18 オリンパス光学工業株式会社 Image processing device
JPH09138870A (en) * 1995-11-15 1997-05-27 Canon Inc Picture processor and picture processing method
US8649025B2 (en) * 2010-03-27 2014-02-11 Micrometric Vision Technologies Methods and apparatus for real-time digitization of three-dimensional scenes
JP6097903B2 (en) * 2011-07-15 2017-03-22 有限会社テクノドリーム二十一 Three-dimensional shape acquisition apparatus, processing method, and program
WO2014017566A1 (en) * 2012-07-24 2014-01-30 公立大学法人広島市立大学 Method and device for measuring heartbeat
WO2014020823A1 (en) * 2012-07-30 2014-02-06 独立行政法人産業技術総合研究所 Image processing system, and image processing method
JP6468802B2 (en) * 2014-01-20 2019-02-13 キヤノン株式会社 Three-dimensional measuring apparatus, three-dimensional measuring method and program

Also Published As

Publication number Publication date
JP2017217215A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6752468B2 (en) 3D shape measuring device and 3D shape measuring method
JP5631025B2 (en) Information processing apparatus, processing method thereof, and program
CN107735714B (en) Endoscope device
US20230083809A1 (en) Colonoscopy System and Method
CN102762142B (en) The laser enhancing on 3D surface is rebuild
US20170268872A1 (en) Dual-resolution 3d scanner and method of using
US8472701B2 (en) Position measuring apparatus
US10593037B2 (en) Method, apparatus, and system to identify branches of a blood vessel
CN108292433B (en) Detection and validation of shadows in intravascular images
WO2014155778A1 (en) Image processing device, endoscopic device, program and image processing method
JP6475311B1 (en) Optical tracking system and optical tracking method
CN110381841B (en) Clamp for medical imaging and using method thereof
KR102424135B1 (en) Structured light matching of a set of curves from two cameras
CN108369737B (en) Using heuristic graph search to segment layered images quickly and automatically
JP2014138691A (en) Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
JP2011516849A (en) 3D imaging system
JP2013178656A (en) Image processing device, image processing method, and image processing program
JP6614905B2 (en) Three-dimensional measuring apparatus and control method thereof
Ben-Hamadou et al. Construction of extended 3D field of views of the internal bladder wall surface: A proof of concept
JP7297891B2 (en) Systems and Methods for Multimodal Sensing of Depth in Vision Systems for Automated Surgical Robots
JP6485616B2 (en) Appearance measurement system, image processing method, and program
JP2019150574A (en) Three-dimensional shape data creation method and three-dimensional shape data creation system
KR102253350B1 (en) Optical tracking system and optical tracking method
JP2022001984A (en) Image processing method, program, and storage medium
JP2024009548A (en) Three-dimensional shape measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200812

R150 Certificate of patent or registration of utility model

Ref document number: 6752468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250