JP2001167272A - Device and method for measuring and displaying object - Google Patents

Device and method for measuring and displaying object

Info

Publication number
JP2001167272A
JP2001167272A JP34943499A JP34943499A JP2001167272A JP 2001167272 A JP2001167272 A JP 2001167272A JP 34943499 A JP34943499 A JP 34943499A JP 34943499 A JP34943499 A JP 34943499A JP 2001167272 A JP2001167272 A JP 2001167272A
Authority
JP
Japan
Prior art keywords
information
image
profile information
profile
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP34943499A
Other languages
Japanese (ja)
Other versions
JP4445622B2 (en
JP2001167272A5 (en
Inventor
Katsumi Hirakawa
克己 平川
Jun Hasegawa
潤 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP34943499A priority Critical patent/JP4445622B2/en
Publication of JP2001167272A publication Critical patent/JP2001167272A/en
Publication of JP2001167272A5 publication Critical patent/JP2001167272A5/ja
Application granted granted Critical
Publication of JP4445622B2 publication Critical patent/JP4445622B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily grasp the positional relation of a three-dimensional(3D) form and an object. SOLUTION: When a measure line L is designated as a part to be measured in the left image of an object displayed on a monitor 130L for left image pickup, the correspondent points of respective points on the measure line L are found on the right image (not shown in the figure) of the object and the 3D form (3D data) of the measure line L is found while using the principle of triangulation. Then, the result is displayed as a profile T. The correlation of the measure line L and the profile T is found and a marker clearly showing the correlation is displayed on the measure line L and the profile T so that the correlation of the 3D form and the object can be easily grasped.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、撮像された被写体
像の任意の位置の距離を容易に計測することの可能な被
写体計測表示装置及び被写体計測表示方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a subject measuring and displaying apparatus and a subject measuring and displaying method capable of easily measuring the distance of an arbitrary position of a captured subject image.

【0002】[0002]

【従来の技術】近年、医療分野及び工業分野において、
内視鏡が広く用いられるようになった。通常の内視鏡に
よる観察像では、一般に対象物は平面的なものとなり、
凹凸等を認識し難い。そのため、最近では、内視鏡の先
端に左右2系統の撮像手段を配設し、この2系統の撮像
手段により撮像された左右画像から、ステレオ法により
対象の立体形状を推定し、この立体形状を、プロファイ
ルやワイヤフレームにより表示する技術が知られてい
る。
2. Description of the Related Art In recent years, in the medical field and the industrial field,
Endoscopes have become widely used. In a normal endoscope observation image, the object is generally planar,
It is difficult to recognize irregularities. For this reason, recently, two systems of left and right imaging means are arranged at the tip of the endoscope, and from the left and right images taken by the two systems of imaging means, a three-dimensional shape of the target is estimated by a stereo method. Are displayed by using a profile or a wire frame.

【0003】例えば、特開平6−339454号公報は
ステレオ内視鏡を用いて三角測量の原理により、特開昭
63−246716号公報は単眼内視鏡を用いて三角測
量の原理により対象までの距離、複数の対象点間の距離
を算出する技術が開示されている。
For example, Japanese Patent Application Laid-Open No. Hei 6-339454 discloses a method using a stereo endoscope based on the principle of triangulation, and Japanese Patent Application Laid-Open No. 63-246716 discloses a method using a monocular endoscope based on the principle of triangulation. A technique for calculating a distance and a distance between a plurality of target points is disclosed.

【0004】[0004]

【発明が解決しようとする課題】しかし、上述した先行
技術に開示されている技術では、計測対象である被写体
のプロファイル(立体形状を2次元的なグラフに変換表
示したもの)が表示する手段がない、もしくはワイヤー
フレームなどにより立体形状を表示する手段があるにし
ても、表示した立体形状と被写体像との対応関係が把握
しがたい問題がある。
However, in the technique disclosed in the above-mentioned prior art, means for displaying a profile of a subject to be measured (a three-dimensional shape converted into a two-dimensional graph) is displayed. However, even if there is a means for displaying a three-dimensional shape using a wire frame or the like, there is a problem that it is difficult to grasp the correspondence between the displayed three-dimensional shape and the subject image.

【0005】本発明はこのような事情を鑑み、立体形状
と被写体像との対応関係を容易に把握することが可能な
被写体計測表示装置および、被写体計測表示方法を提供
することを目的とする。
The present invention has been made in view of the above circumstances, and has as its object to provide a subject measurement and display device and a subject measurement and display method capable of easily grasping the correspondence between a three-dimensional shape and a subject image.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明による第1の被写体計測表示装置は、被写体
像を撮像する撮像手段と、前記撮像手段から得られた複
数の画像信号から、前記被写体像の立体形状を推定する
立体形状推定手段と、前記立体形状推定手段で推定され
た立体形状情報に基づいて前記被写体像中の所定部位の
プロファイル情報を作成するプロファイル情報作成手段
と、前記プロファイル情報作成手段で作成されたプロフ
ァイル情報を表示するプロファイル情報表示手段と、前
記プロファイル情報表示手段で表示されたプロファイル
情報と前記撮像手段から取得された撮像信号との対応関
係情報を取得する対応関係情報取得手段と、前記対応関
係情報取得情報手段で取得された対応関係情報を表示す
る対応関係情報表示手段とを具備したことを特徴とす
る。
In order to achieve the above object, a first object measuring and displaying apparatus according to the present invention comprises: an image pickup means for picking up an object image; and a plurality of image signals obtained from the image pickup means. Three-dimensional shape estimating means for estimating the three-dimensional shape of the subject image; profile information creating means for creating profile information of a predetermined portion in the subject image based on the three-dimensional shape information estimated by the three-dimensional shape estimating means; Profile information display means for displaying profile information created by the profile information creation means, and correspondence relationship for acquiring correspondence information between the profile information displayed by the profile information display means and the imaging signal acquired from the imaging means Information acquisition means, and correspondence information display for displaying the correspondence information acquired by the correspondence information acquisition information means Characterized by comprising a stage.

【0007】第1の被写体計測表示方法は、被写体像を
撮像する撮像行程と、前記撮像行程で取得された複数の
画像信号から、前記被写体像の立体形状を推定する立体
形状推定行程と、前記立体形状推定行程で推定された立
体形状情報に基づいて前記被写体像中の所定部位のプロ
ファイル情報を作成するプロファイル情報作成行程と、
前記プロファイル情報作成行程で作成されたプロファイ
ル情報を表示するプロファイル情報表示行程と、前記プ
ロファイル情報表示行程で表示されたプロファイル情報
と前記撮像行程にて取得された撮像信号との対応関係情
報を取得する対応関係情報取得行程と、前記対応関係情
報取得行程で取得された対応関係情報を表示する対応関
係情報表示行程とを具備したことを特徴とする。
The first subject measurement and display method includes an imaging step of capturing a subject image, a three-dimensional shape estimation step of estimating a three-dimensional shape of the subject image from a plurality of image signals acquired in the imaging step, A profile information creation step of creating profile information of a predetermined portion in the subject image based on the three-dimensional shape information estimated in the three-dimensional shape estimation step;
A profile information display step of displaying profile information created in the profile information creation step, and correspondence information between the profile information displayed in the profile information display step and the imaging signal acquired in the imaging step are acquired. It is characterized by comprising a correspondence information acquisition step and a correspondence information display step of displaying the correspondence information acquired in the correspondence information acquisition step.

【0008】第2の被写体計測表示装置は、被写体像を
撮像する撮像手段と、前記撮像手段で取得された複数の
画像信号から、前記被写体像の立体形状を推定する立体
形状推定手段と、前記立体形状推定手段で推定された立
体形状情報に基づいて前記被写体像中の所定部位のプロ
ファイル情報を作成するプロファイル情報作成手段と、
前記プロファイル情報作成手段で作成されたプロファイ
ル情報を表示するプロファイル情報表示手段と、前記プ
ロファイル情報表示手段で表示されたプロファイル情報
と前記撮像手段から取得された撮像信号との対応関係情
報を取得する対応関係情報取得手段と、前記プロファイ
ル情報作成手段で表示された前記プロファイル情報上で
任意の位置を指定可能な指定手段と、前記指定手段で指
定された指定情報と前記対応関係情報取得手段で取得さ
れた対応関係情報とに基づき、前記指定手段で指定され
た第1の位置情報を前記撮像信号中における第2の位置
情報として取得する位置情報取得手段と、前記位置情報
取得手段で得られた第2の位置情報に基づき、前記撮像
信号に基づき表示される被写体像上に前記指定手段によ
る指定位置情報を表示する指定位置情報表示手段とを具
備したことを特徴とする。
The second object measurement and display device includes an image pickup means for picking up an object image, a three-dimensional shape estimating means for estimating a three-dimensional shape of the object image from a plurality of image signals obtained by the image pickup means, Profile information creating means for creating profile information of a predetermined portion in the subject image based on the three-dimensional shape information estimated by the three-dimensional shape estimation means,
Profile information display means for displaying profile information created by the profile information creation means, and correspondence for acquiring correspondence information between the profile information displayed by the profile information display means and the imaging signal acquired from the imaging means. Relationship information acquisition means, designation means capable of designating an arbitrary position on the profile information displayed by the profile information creation means, designation information designated by the designation means and acquired by the correspondence information acquisition means Position information acquisition means for acquiring the first position information designated by the designation means as second position information in the image signal, based on the correspondence information, and the second position information acquired by the position information acquisition means. Based on the position information of 2, the designated position information by the designation means is placed on the subject image displayed based on the imaging signal. Characterized by comprising a Shimesuru designated-position information display means.

【0009】第2の被写体計測表示方法は、被写体像を
撮像する撮像行程と、前記撮像行程で取得された複数の
画像信号から、前記被写体像の立体形状を推定する立体
形状推定行程と、前記立体形状推定行程で推定された立
体形状情報に基づいて前記被写体像中の所定部位のプロ
ファイル情報を作成するプロファイル情報作成行程と、
前記プロファイル情報作成手段で作成されたプロファイ
ル情報を表示するプロファイル情報表示行程と、前記プ
ロファイル情報作成行程で表示されたプロファイル情報
と前記撮像行程で取得された撮像信号との対応関係情報
を取得する対応関係情報取得行程と、前記プロファイル
情報表示行程で表示された前記プロファイル情報上で任
意の位置を指定可能な指定行程と、前記指定手段で指定
された指定情報と前記対応関係情報取得手段で取得され
た対応関係情報とに基づき、前記指定行程で指定された
第1の位置情報を前記撮像信号中における第2の位置情
報として取得する位置情報取得行程と、前記位置情報取
得行程で得られた第2の位置情報に基づき、前記撮像信
号に基づき表示される被写体像上に前記指定行程による
指定位置情報を表示する指定位置情報表示行程とを具備
したことを特徴とする。
The second subject measurement and display method includes an imaging step of capturing a subject image, a three-dimensional shape estimation step of estimating a three-dimensional shape of the subject image from a plurality of image signals acquired in the imaging step, and A profile information creation step of creating profile information of a predetermined portion in the subject image based on the three-dimensional shape information estimated in the three-dimensional shape estimation step;
A profile information display step of displaying profile information created by the profile information creation means; and a correspondence acquisition of correspondence information between the profile information displayed in the profile information creation step and the imaging signal acquired in the imaging step. A relation information acquisition step, a designation step capable of designating an arbitrary position on the profile information displayed in the profile information display step, and designation information designated by the designation means and acquired by the correspondence information acquisition means. A position information acquisition step of acquiring the first position information designated in the designated step as second position information in the imaging signal, based on the corresponding relationship information, and a second position information acquired in the position information acquisition step. Based on the position information of 2, the designated position information by the designated process is displayed on the subject image displayed based on the imaging signal. Characterized by comprising the designated-position information display step for.

【0010】[0010]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。本実施の形態においては、適用す
る計測内視鏡として、先端に2系統の対物レンズを備え
たステレオ内視鏡を用いる。
Embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, as a measurement endoscope to be applied, a stereo endoscope provided with two objective lenses at the tip is used.

【0011】(第1実施の形態)図1〜図11は本発明
の第1実施の形態に係わり、図1は計測用内視鏡装置の
構成を示すブロック図、図2は内視鏡の挿入部先端部の
説明図、図3は計測用内視鏡装置の機能構成を示すブロ
ック図、図4はホストコンピュータの構成を示すブロッ
ク図、図5は外部記憶装置の構成を示すブロック図、図
6は三次元座標系の説明図、図7は三次元座標算出原理
のための説明図、図8は計測結果を描画する流れを示す
フローチャート、図9はウィンドウ表示例、図10は歪
曲収差補正に関する説明図、図11は立体形状(三次元
データ)を図形(二次元データ)に変換する手段を示す
説明図である。
(First Embodiment) FIGS. 1 to 11 relate to a first embodiment of the present invention, FIG. 1 is a block diagram showing a configuration of an endoscope apparatus for measurement, and FIG. FIG. 3 is a block diagram showing a functional configuration of an endoscope device for measurement, FIG. 4 is a block diagram showing a configuration of a host computer, FIG. 5 is a block diagram showing a configuration of an external storage device, 6 is an explanatory diagram of a three-dimensional coordinate system, FIG. 7 is an explanatory diagram for the principle of three-dimensional coordinate calculation, FIG. 8 is a flowchart showing a flow of drawing a measurement result, FIG. 9 is a window display example, and FIG. FIG. 11 is an explanatory view showing a means for converting a three-dimensional shape (three-dimensional data) into a figure (two-dimensional data).

【0012】(構成)図3に示すように、本実施の形態
において採用する計測用内視鏡装置は、ステレオ式ビデ
オイメージエンドスコープ(以下、単に「内視鏡」と称
する)101と、この内視鏡101によって撮像される
右画像及び左画像の各画像信号を信号処理する右画像用
ビデオプロセッサ110R及び左画像用ビデオプロセッ
サ110Lと、この各ビデオプロセッサ110R,11
0Lから出力される、例えばRGB信号による各映像信
号を記憶する右画像用フレームメモリ112R及び左画
像用フレームメモリ112Lと、この各フレームメモリ
112R,112Lから出力される、例えばRGB信号
による映像信号を入力して、右画像,左画像を表示する
右画像用モニタ130R及び左画像用モニタ130L
と、各フレームメモリ112R,112Lに記憶された
画像を用いて、立体計測演算を行うホストコンピュータ
120と、このホストコンピュータ120に接続された
外部記憶140と、ホストコンピュータ120に接続さ
れてモニタ130R,130Lに表示されるカーソルの
操作や計測対象点の指定及び計測対象領域の設定等を行
うマウス145とを備えている。
(Configuration) As shown in FIG. 3, a measuring endoscope apparatus employed in the present embodiment is a stereo video endoscope (hereinafter, simply referred to as "endoscope") 101, and A video processor for right image 110R and a video processor for left image 110L that perform signal processing on each of image signals of a right image and a left image captured by the endoscope 101, and the video processors 110R and 11 respectively.
0L, for example, a right image frame memory 112R and a left image frame memory 112L for storing video signals based on RGB signals, and video signals based on, for example, RGB signals output from the frame memories 112R and 112L. A right image monitor 130R and a left image monitor 130L that input and display a right image and a left image
And a host computer 120 that performs a stereoscopic measurement operation using the images stored in the frame memories 112R and 112L, an external storage 140 connected to the host computer 120, and a monitor 130R connected to the host computer 120. The mouse 145 is used to operate a cursor displayed on 130L, specify a measurement target point, set a measurement target area, and the like.

【0013】両ビデオプロセッサ110R,110L
は、互いに同期した信号処理を行うように設定されてい
る。又、本実施の形態では、各フレームメモリ112
R,112Lは、R,G,B用の各メモリを複数組備え
ており、1組には画像が記憶され、他の組にはカーソル
が書き込まれ、各組に書き込まれた信号を足し合わせる
ことにより、各モニタ130R,130Lの画面上に画
像とカーソルとを表示できる。
Both video processors 110R, 110L
Are set to perform signal processing synchronized with each other. Also, in the present embodiment, each frame memory 112
The R and 112L have a plurality of sets of memories for R, G and B. One set stores an image, the other set stores a cursor, and adds the signals written to each set. Thereby, an image and a cursor can be displayed on the screen of each of the monitors 130R and 130L.

【0014】又、図4に示すように、ホストコンピュー
タ120は、CPU121、右フレームメモリインター
フェース122R、左フレームメモリインターフェース
122L、メインメモリ123、外部記憶インターフェ
ース124、マウスインターフェース125、キーボー
ド126及びCRT127を備え、これらは、バスによ
って互いに接続されている。
As shown in FIG. 4, the host computer 120 includes a CPU 121, a right frame memory interface 122R, a left frame memory interface 122L, a main memory 123, an external storage interface 124, a mouse interface 125, a keyboard 126 and a CRT 127. , These are connected to each other by a bus.

【0015】又、右フレームメモリインターフェース1
22R、左フレームメモリインターフェース122L
は、それぞれ、右画像用フレームメモリ112R及び左
画像用フレームメモリ112Lに接続され、これらとの
間で画像データの送受を行うと共に、各インターフェー
ス122R,122Lを介して、フレームメモリ112
R,112Lに対するカーソル制御を行うように設定さ
れている。又、外部記憶インターフェース124は、外
部記憶140に接続され、画像データ及び計測対象点位
置情報の送受を行うように設定されている。又、マウス
インターフェース125は、マウス145に接続され
る。
Also, the right frame memory interface 1
22R, left frame memory interface 122L
Are connected to a right image frame memory 112R and a left image frame memory 112L, respectively, for transmitting and receiving image data to and from the right image frame memory 112R and the left image frame memory 112L via the interfaces 122R and 122L.
It is set to perform cursor control for R and 112L. The external storage interface 124 is connected to the external storage 140 and is set to transmit and receive image data and measurement target point position information. The mouse interface 125 is connected to the mouse 145.

【0016】図5に示すように、外部記憶140は、計
測対象点の位置情報を記憶し、ホストコンピュータ12
0と各種計測データの送受を行う計測データ情報用ファ
イル181と、ホストコンピュータ120と画像データ
の送受を行うステレオ画像マネージャー182と、この
ステレオ画像マネージャー182に連結され、左画像デ
ータを記憶する左用画像ファイル183Lと、ステレオ
画像マネージャー182に連結され、右画像データを記
憶する右用画像ファイル183Rとを備えている。
As shown in FIG. 5, the external storage 140 stores the position information of the measurement target point,
0, a measurement data information file 181 that sends and receives various measurement data, a stereo image manager 182 that sends and receives image data to and from the host computer 120, and a left image that is connected to the stereo image manager 182 and stores left image data. A right image file 183R, which is connected to the stereo image manager 182 and stores the right image data, is provided.

【0017】本実施の形態では、内視鏡101で得たス
テレオ画像を左右2枚1組で取り扱っており、ホストコ
ンピュータ120から2枚1組で送られて来たステレオ
画像は、ステレオ画像マネージャー182によって、左
用、右用各画像ファイル183L,183Rに振り分け
られて、記録される。又、ステレオ画像マネージャー1
82によって、各画像ファイル183L,183Rに記
録された画像は、2枚1組で呼び出される。
In the present embodiment, stereo images obtained by the endoscope 101 are handled as a pair of left and right images, and a stereo image sent from the host computer 120 in pairs is a stereo image manager. 182, the image files are sorted into left and right image files 183L and 183R and recorded. Also, stereo image manager 1
According to 82, the images recorded in each of the image files 183L and 183R are called in pairs.

【0018】又、図2に示すように内視鏡101は、細
長の挿入部102を備え、この挿入部102の先端部
に、複数の、例えば2つの観察窓と、照明窓とが設けら
れている。各観察窓の内側には、互いに視差を有する位
置に、右眼用対物レンズ系103R、左眼用対物レンズ
系103Lが設けられている。各対物レンズ系103
R,103Lの結像位置には、それぞれ、固体撮像素子
を用いた左、右撮像手段104L,104Rが配設され
ている。
As shown in FIG. 2, the endoscope 101 has an elongated insertion section 102, and a plurality of, for example, two observation windows and an illumination window are provided at the distal end of the insertion section 102. ing. Inside each observation window, a right-eye objective lens system 103R and a left-eye objective lens system 103L are provided at positions having parallax with each other. Each objective lens system 103
Left and right image pickup units 104L and 104R using solid-state image pickup devices are provided at image forming positions of R and 103L, respectively.

【0019】又、照明窓の内側には、配光レンズ105
が設けられ、この配光レンズ105の後端には、ファイ
ババンドルよりなるライトガイド106が連設されてい
る。このライトガイド106は、挿入部102内に挿通
され、入射端部には図示しない光源装置が接続される。
A light distribution lens 105 is provided inside the illumination window.
At the rear end of the light distribution lens 105, a light guide 106 made of a fiber bundle is provided continuously. The light guide 106 is inserted into the insertion portion 102, and a light source device (not shown) is connected to the incident end.

【0020】この光源装置から出力される照明光が、ラ
イトガイド106及び配光レンズ105を介して被写体
に照射され、この被写体からの反射光が、対物レンズ系
103R,103Lによって、それぞれ右画像、左画像
として、撮像手段104R,104Lに結像される。
Illumination light output from the light source device is applied to a subject via a light guide 106 and a light distribution lens 105, and reflected light from the subject is transmitted to the right and left images by objective lens systems 103R and 103L, respectively. An image is formed on the imaging units 104R and 104L as a left image.

【0021】次に、計測用内視鏡装置の機能ブロック構
成を図1を用いて説明する。
Next, a functional block configuration of the measuring endoscope apparatus will be described with reference to FIG.

【0022】撮像手段104R,104Lによって撮像
された被写体像の各画像信号は、それぞれ、ビデオプロ
セッサ110R,110Lに入力され、映像信号処理が
施される。各ビデオプロセッサ110R,110Lから
出力される各画像信号は、それぞれ、A/D変換器11
1R,111Lによりデジタル信号に変換された後、画
像メモリすなわち、各フレームメモリ112R,112
Lのうちの画像用のメモリに記憶される。
Each image signal of the subject image picked up by the image pickup means 104R, 104L is input to video processors 110R, 110L, respectively, and subjected to video signal processing. Each image signal output from each of the video processors 110R and 110L is supplied to an A / D converter 11
After being converted into digital signals by the 1R and 111L, the image memory, that is, each frame memory 112R and 112R
L is stored in the image memory.

【0023】そして、右画像、左画像用フレームメモリ
112R,112Lから読み出された画像信号は、それ
ぞれ、画像処理手段200で所定に画像処理された後、
表示制御手段201を経て、D/A変換器158R,1
58Lに出力され、ここでアナログ信号に変換された
後、右画像、左画像用モニタ130R,130Lにそれ
ぞれ入力される。そして、この両モニタ130R,13
0Lに、それぞれ、右画像、左画像が表示される。
The image signals read from the right and left image frame memories 112R and 112L are subjected to predetermined image processing by the image processing means 200, respectively.
Via the display control means 201, the D / A converter 158R, 1
After being converted to an analog signal, it is input to the right and left image monitors 130R and 130L. The two monitors 130R, 13R
A right image and a left image are displayed at 0L, respectively.

【0024】一方、カーソルの表示はカーソル表示手段
151によって処理され、又、カーソル表示は表示制御
手段201が管理する。カーソルは画面に重畳されて、
両モニタ130R、130Lのいずれか一方に表示され
る。
On the other hand, the display of the cursor is processed by the cursor display means 151, and the display of the cursor is managed by the display control means 201. The cursor is superimposed on the screen,
It is displayed on either one of the monitors 130R and 130L.

【0025】カーソルにより指定された計測点に対して
画像処理手段200が三次元位置の導出、立体形状と画
像上の計測点との対応表示などの処理を行い、表示制御
手段201を通して、処理結果がモニタに表示される。
The image processing means 200 performs processing such as deriving a three-dimensional position and displaying the correspondence between the three-dimensional shape and the measurement points on the image with respect to the measurement points designated by the cursor. Is displayed on the monitor.

【0026】又、表示制御手段201は、カーソル表示
の管理のほか、マルチウィンドウ表示に必要な処理を行
う。画像処理手段200、及び表示制御手段201にお
ける処理及び制御機能はホストコンピュータ120を動
作させることにより達成される。この場合、通常、表示
制御手段201の機能はオペレーティングシステムが有
している。
The display control means 201 performs not only management of cursor display but also processing necessary for multi-window display. The processing and control functions of the image processing means 200 and the display control means 201 are achieved by operating the host computer 120. In this case, the function of the display control means 201 is usually provided by the operating system.

【0027】尚、図3、図4に示す右画像、左画像用フ
レームメモリ112R,112Lは、本実施の形態では
ホストコンピュータ120の外部に設けているが、ホス
トコンピュータ120にPCIボードタイプのフレーム
メモリを利用して内蔵しても良い。又、図3においてス
テレオ画像の表示は右画像、左画像用モニタ130R,
130Lに対して行っているが、パソコンのCRT12
7に対して行うようにしても良い。
Although the right image and left image frame memories 112R and 112L shown in FIGS. 3 and 4 are provided outside the host computer 120 in the present embodiment, the host computer 120 has a PCI board type frame. It may be built in using a memory. In FIG. 3, the display of the stereo image is a right image, a left image monitor 130R,
Going to 130L, but CRT12 of personal computer
7 may be performed.

【0028】次に、このように構成された計測用内視鏡
装置により、立体形状の推定、推定した立体形状と画像
上の計測点の対応を表示する過程を、図8の計測結果を
描画する流れを示すフローチャートに従って説明する。
Next, the process of estimating the three-dimensional shape and displaying the correspondence between the estimated three-dimensional shape and the measurement points on the image by the endoscope apparatus for measurement configured as described above will be described with reference to FIG. This will be described with reference to a flowchart showing the flow of the operation.

【0029】以下では左画像で計測ラインLを指定し、
右画像に対して対応点を求めるものとして説明を行う
が、逆に右画像で計測する計測ラインを指定し、左画像
で対応点を求めても問題はない。
In the following, a measurement line L is designated in the left image,
The description will be made assuming that the corresponding point is obtained for the right image. However, there is no problem if the measurement line to be measured is specified in the right image and the corresponding point is obtained in the left image.

【0030】操作者は、図9に示すように、左画像用モ
ニタ130Lに表示されているステレオ画像の左画像に
おいて計測を行う部分として計測ラインLを指定する。
すると、右画像においては、計測ラインL上の各点の対
応点が求められる。そして、三角測量の原理を用いるこ
とで、計測ラインLの立体形状(三次元データ)が求め
られ、プロファイルとして表示する。
As shown in FIG. 9, the operator designates a measurement line L as a portion to be measured in the left image of the stereo image displayed on the left image monitor 130L.
Then, in the right image, a corresponding point of each point on the measurement line L is obtained. Then, by using the principle of triangulation, a three-dimensional shape (three-dimensional data) of the measurement line L is obtained and displayed as a profile.

【0031】以下の説明では、画像AをA(p,q)と
し、p及びqは画素の位置を表すものとする。又、画像
の大きさは、特に断りのない場合は水平及び垂直方向に
対しそれぞれSX及びSYであるものとする。
In the following description, it is assumed that the image A is A (p, q), and p and q indicate the positions of the pixels. Unless otherwise specified, the size of the image is SX and SY in the horizontal and vertical directions, respectively.

【0032】先ず、S1−1においてステレオ画像の左
画像上において、入力デバイスにより計測ラインLを指
定する。計測ラインL上の点をLi(i=0,…,N-
1)とする。計測ラインの指定はマウスなどのデバイス
により、例えば始点L0 と終点LN-1 を指定する。
First, in S1-1, a measurement line L is designated by an input device on the left image of the stereo image. A point on the measurement line L is represented by Li (i = 0,..., N-
1). The measurement line is designated by a device such as a mouse, for example, by designating a start point L0 and an end point LN-1.

【0033】S1−2において、左画像上で指定した点
Liに対応する右画像上の対応点を求める。対応点の検
出は、例えばエピポーララインを用いたテンプレートマ
ッチングにより行うことができる。
In S1-2, a corresponding point on the right image corresponding to the point Li specified on the left image is obtained. The corresponding points can be detected by, for example, template matching using epipolar lines.

【0034】S1−3において、三角測量の原理を用い
て三次元位置を求める。計測ラインL上の点Liのそれ
ぞれの三次元位置をDi(i=0,…N-1)、その座標
をDi(xi,yi,zi)とする。
In S1-3, a three-dimensional position is obtained using the principle of triangulation. The three-dimensional position of each point Li on the measurement line L is represented by Di (i = 0,..., N−1), and the coordinates thereof are represented by Di (xi, yi, zi).

【0035】S1−4において、三次元位置Diを二次
元グラフ(プロファイル)上に表示する。尚、二次元化
の手法は後述する。
In S1-4, the three-dimensional position Di is displayed on a two-dimensional graph (profile). The two-dimensional technique will be described later.

【0036】そして、図9に示すように、三次元位置D
iに対応するプロファイル上の点をTiとした場合、こ
の点Tiについて所定の間隔Itごとにマーカー(図に
おいては、点1,2,3,4)を描画する。つまり、i
%It=0の場合に点Tiにマーカーを描画する(%は
整数の割り算の余りを表す)。それ以外の点Tiではマ
ーカーの描画を行わない。
Then, as shown in FIG.
If the point on the profile corresponding to i is Ti, markers (points 1, 2, 3, and 4 in the figure) are drawn at predetermined intervals It for this point Ti. That is, i
When% It = 0, a marker is drawn at the point Ti (% represents the remainder of the integer division). At other points Ti, no marker is drawn.

【0037】尚、ここでいうマーカーとは描画位置を明
確に示すための目印であり、具体的には丸、四角などの
図形を使用する。又、マーカーに連続番号を付し、この
マーカーの近傍に番号を描画する。
Note that the marker here is a mark for clearly indicating the drawing position, and specifically, a figure such as a circle or a square is used. Also, a serial number is assigned to the marker, and the number is drawn near the marker.

【0038】S1−5において、図9に示すように計測
ラインLを画像上に描画する。この場合、プロファイル
と同様に、所定の間隔Itごとに計測ラインL上にマー
カー(図においては、点1,2,3,4)の描画を行
う。i%It=0の場合に、計測ラインL上の点Liに
マーカーを描画する(%は整数の割り算の余りを表
す)。
In S1-5, a measurement line L is drawn on the image as shown in FIG. In this case, markers (points 1, 2, 3, and 4 in the figure) are drawn on the measurement line L at predetermined intervals It, as in the case of the profile. When i% It = 0, a marker is drawn at the point Li on the measurement line L (% represents the remainder of the integer division).

【0039】それ以外の点Liではマーカーの描画は行
わない。この場合、プロファイルと同様にマーカーに連
続番号を付し、マーカーの近傍に番号を描画する。但
し、連続番号は対応する点Liと点Tiが同じ番号とな
るように付与する。
At other points Li, no marker is drawn. In this case, similar to the profile, the markers are assigned consecutive numbers, and the numbers are drawn near the markers. However, the serial numbers are given so that the corresponding points Li and Ti have the same number.

【0040】以上の処理により、プロファイルと画像と
の対応関係が明確となる。この場合、マーカーの区別を
つける方法は、連続番号をつけてマーカーの近傍に描画
する手法に限定されるものではなく、例えば、 1)対応するマーカーごとにマーカーの形状を変更す
る。 2)対応するマーカーごとに色を変更する。 等が考えられる。
By the above processing, the correspondence between the profile and the image becomes clear. In this case, the method of distinguishing the markers is not limited to the method of assigning consecutive numbers and drawing near the markers. For example, 1) changing the shape of the marker for each corresponding marker. 2) Change the color for each corresponding marker. And so on.

【0041】次に、S1−3における、対象までの距離
を算出する原理をより具体的に説明する。
Next, the principle of calculating the distance to the target in S1-3 will be described more specifically.

【0042】図6に示すように、対象物体の三次元座標
は、内視鏡挿入部102の先端における2つの対物レン
ズ103R、103Lの中心を通る直線の方向をX軸と
し、左側の対物レンズを原点OLとするXYZ座標系に
より表されるものとする。図7(a),(b)は得られ
る三次元座標系において内視鏡101の撮像系をX−
Z、Y−Z座標系に基づき表したものである。
As shown in FIG. 6, the three-dimensional coordinates of the target object are obtained by setting the direction of a straight line passing through the center of the two objective lenses 103R and 103L at the tip of the endoscope insertion section 102 as the X axis, and the left objective lens Is represented by an XYZ coordinate system with the origin OL. FIGS. 7A and 7B show an X-ray image pickup system of the endoscope 101 in the obtained three-dimensional coordinate system.
It is represented based on a Z, YZ coordinate system.

【0043】計測対象点Pはマウス145を用いた操作
により、フレームメモリ112R及び112L上で指定
される。計測対象点Pは、対物レンズ系103R及び1
03Lを通じ、撮像手段104R及び104L上に結像
したものである。ここでは、左右の光軸は平行であり、
それぞれ撮像手段104L及び104Rと直交するもの
とする。又、対物レンズ系103Rと撮像手段104
R、対物レンズ系103Lと撮像手段104Lは、それ
ぞれ平行に配置されている。
The measurement target point P is designated on the frame memories 112R and 112L by an operation using the mouse 145. The measurement target point P corresponds to the objective lens systems 103R and 103R.
The image is formed on the imaging means 104R and 104L through 03L. Here, the left and right optical axes are parallel,
It is assumed that they are orthogonal to the imaging units 104L and 104R, respectively. Also, the objective lens system 103R and the imaging means 104
R, the objective lens system 103L and the imaging means 104L are arranged in parallel with each other.

【0044】計測対象点Pの三次元座標(Xp,Yp,
Zp)は三角法を用いて算出される。図7において計測
対象点Pの各撮像手段104R,104L上での結像位
置は、原点OL(左対物レンズ系の中心)を基準とし
て、それぞれ(Lpx,Lpy)、(Rpx,Rpy)
として表される。但し、原点OLと右対物レンズ系の中
心ORのY座標は等しく、Lpy=Rpyであるため、
図7(b)では左側撮像系のみを示す。又、撮像手段1
04R及び104Lと光軸と交点をR1,L1とする。
The three-dimensional coordinates (Xp, Yp,
Zp) is calculated using trigonometry. In FIG. 7, the image forming positions of the measurement target point P on the imaging units 104R and 104L are (Lpx, Lpy) and (Rpx, Rpy) with respect to the origin OL (the center of the left objective lens system).
It is expressed as However, since the origin OL and the center OR of the right objective lens system have the same Y coordinate and Lpy = Rpy,
FIG. 7B shows only the left imaging system. Also, imaging means 1
Intersections of the optical axes 04R and 104L with the optical axis are R1 and L1.

【0045】尚、内視鏡による撮像画像は、一般に広角
レンズを使用しているため、歪曲収差による歪が存在す
る。本実施の形態においては、歪曲収差補正処理適用後
の結像位置を(Lpx,Lpy)及び(Rpx,Rpy)とす
る。歪曲収差補正処理は例えば以下のように行う。
Since an image picked up by an endoscope generally uses a wide-angle lens, there is distortion due to distortion. In the present embodiment, the image forming positions after the distortion correction processing is applied are (Lpx, Lpy) and (Rpx, Rpy). The distortion correction processing is performed, for example, as follows.

【0046】内視鏡を用いて、例えば図10(a)に示
す正方のます目を撮像した場合、得られる画像は図10
(b)に示されるようなものになる。この歪画像が正方
のます目画像になるように、各画素における補正値をあ
らかじめ決定しておき、実際の撮像画像に対しての補正
を行うことにより歪曲収差補正処理を実現することが可
能となる。より具体的な処理手法は、例えば、米国特許
第4,895,431号に開示されている。以下、本実
施の形態においては歪曲収差補正処理適用後の画像を取
り扱うものとする。
When, for example, a square grid shown in FIG. 10A is picked up by using an endoscope, the obtained image is shown in FIG.
The result is as shown in FIG. Correction values for each pixel are determined in advance so that this distorted image becomes a square grid image, and distortion correction processing can be realized by performing correction on an actual captured image. Become. A more specific processing method is disclosed in, for example, US Pat. No. 4,895,431. Hereinafter, in the present embodiment, it is assumed that the image after the distortion aberration correction processing is applied is handled.

【0047】図7においてDは左右の光軸間の距離、F
は対物レンズ系103Rと撮像手段104Rとの距離を
示し、この距離Fは対物レンズ系103Lと撮像手段1
04Lとの間も同じである。
In FIG. 7, D is the distance between the left and right optical axes, F
Indicates the distance between the objective lens system 103R and the imaging means 104R, and this distance F is the distance between the objective lens system 103L and the imaging means 1R.
The same applies to 04L.

【0048】計測対象点Pから内視鏡先端面上に下ろし
た垂線の足をQとすると、次に示す(A)(B)(C)
の関係が成り立つ。
Assuming that a foot of a perpendicular line lowered from the point P to be measured on the distal end surface of the endoscope is Q, the following (A), (B), and (C)
Holds.

【0049】図7(a)より (A)ΔPQOL∽ΔOLL1Lpx (B)ΔPOR Q∽ΔOR RPX R1 図7(b)より (C)ΔPQOL∽ΔOLL1LpyFrom FIG. 7A, (A) ΔPQOL∽ΔOLL1Lpx (B) ΔPOR Q∽ΔOR RPX R1 From FIG. 7B, (C) ΔPQOL∽ΔOLL1Lpy

【0050】L1Lpx、R1Rpx及びL1Lpyの
値は撮像素子面における距離として得ることができる。
すなわち、フレームメモリ112R及び112L上にお
ける結像位置と1画素あたりの画素サイズから求めれば
良い。
The values of L1Lpx, R1Rpx and L1Lpy can be obtained as distances on the image sensor surface.
That is, it may be obtained from the image formation position on the frame memories 112R and 112L and the pixel size per pixel.

【0051】又、図7(a)より (D)OLQ+QOR =D が成り立ち、図7(a)及び(b)より (E)OLL1=OR R1=F が成り立つ。FIG. 7A shows that (D) OLQ + QOR = D, and FIGS. 7A and 7B show that (E) OLL1 = ORR1 = F.

【0052】これらの条件((A)〜(E))により計
測対象点Pの座標(Xp,Yp,Zp)は、以下の式
(1)、(2)、(3)より求められる。
Under these conditions ((A) to (E)), the coordinates (Xp, Yp, Zp) of the measurement target point P can be obtained from the following equations (1), (2), and (3).

【0053】 Xp=DLpx/(Lpx−Rpx) …(1) Yp=DLpy/(Lpx−Rpx) …(2) Zp=DF/(Rpx−Lpx) …(3)Xp = DLpx / (Lpx−Rpx) (1) Yp = DLpy / (Lpx−Rpx) (2) Zp = DF / (Rpx−Lpx) (3)

【0054】以上により得られた計測対象点の三次元座
標より、内視鏡先端から計測対象点までの距離、複数の
計測対象点間の距離を求めることができる。
From the three-dimensional coordinates of the measurement target point obtained as described above, the distance from the endoscope end to the measurement target point and the distance between a plurality of measurement target points can be obtained.

【0055】S1−4における三次元座標をプロファイ
ル上に表示する手法は、以下のように行う。
The method of displaying the three-dimensional coordinates on the profile in S1-4 is performed as follows.

【0056】式(1)〜(3)で求まる座標は、図6の
座標系、図11(a)でいえばXYZ座標系による座標
値である。この座標値を横軸を計測ラインL、縦軸をX
YZ座標系のZ軸とした二次元座標系に変換しプロット
することで二次元化する。
The coordinates obtained by the equations (1) to (3) are coordinate values in the coordinate system of FIG. 6 or, in the case of FIG. 11A, the XYZ coordinate system. The horizontal axis represents the measurement line L and the vertical axis represents the coordinate value.
The data is converted to a two-dimensional coordinate system with the Z axis of the YZ coordinate system and plotted to make it two-dimensional.

【0057】つまりXYZ座標系による値を、図11の
X’Y’Z座標系に変換する(X’は計測ラインに平行
な座標、Y’はX’とZと垂直な軸とする)。変換後の
座標値のうちX’とZを使って二次元グラフを作成す
る。S1−1で指定される計測ラインLの始点と終点を
XYZ座標系において、L0 (XL0,YL0,F),LN-
1 (XLN-1,YLN-1,F)とする。
That is, the value in the XYZ coordinate system is converted to the X'Y'Z coordinate system in FIG. 11 (X 'is a coordinate parallel to the measurement line, and Y' is an axis perpendicular to X 'and Z). A two-dimensional graph is created using X ′ and Z among the coordinate values after the conversion. The start point and end point of the measurement line L specified in S1-1 are defined as L0 (XL0, YL0, F), LN- in the XYZ coordinate system.
1 (XLN-1, YLN-1, F).

【0058】左右の光軸が平行であり、画像平面が光軸
に垂直であるとした場合、画像上にどのような計測ライ
ンLを指定してもX軸とX’軸との関係は、Z軸周りの
回転しか生じない。従って、XY軸の二次元だけを考え
てX軸とX’軸とのなす角を考えれば良いことになる。
Assuming that the left and right optical axes are parallel and the image plane is perpendicular to the optical axis, the relationship between the X axis and the X 'axis is as follows regardless of what measurement line L is specified on the image. Only rotation about the Z axis occurs. Therefore, it is only necessary to consider the angle between the X axis and the X 'axis considering only the two dimensions of the XY axes.

【0059】このときの計測ラインLの始点と終点と
は、 L0 (XL0,YLO) LN-1 (XLN-1,YLN-1) …(4) となる。
At this time, the start point and the end point of the measurement line L are as follows: L0 (XL0, YL) LN-1 (XLN-1, YLN-1) (4)

【0060】又、X軸とX’軸とのなす角θは、 cosθ=(XL0XLN-1+YL0YLN-1)/{(XL0+XLN-11/2+( YL0+YLN-11/2} …(5) により求められる。求まったθを使ってXY座標系の値
をX’軸、Y’軸に変換する。
The angle θ between the X axis and the X ′ axis is cos θ = (XL0XLN-1 + YL0YLN-1) / {(XL0 2 + XLN-1 2 ) 1/2 + (YL0 2 + YLN-1 2 ) 1 / 2} is obtained by (5). The value of the XY coordinate system is converted into the X ′ axis and the Y ′ axis using the obtained θ.

【0061】[0061]

【数1】 (Equation 1)

【0062】そして、求めたX’と式(3)によるZと
を、図11(b)に示すようにX’Z座標系にプロット
し、これをプロファイルTとして表示する(図9参
照)。
Then, the obtained X ′ and Z according to the equation (3) are plotted on the X′Z coordinate system as shown in FIG. 11B, and are displayed as a profile T (see FIG. 9).

【0063】(第2実施の形態)図12、図13に本発
明の第2実施の形態を示す。尚、本実施の形態における
計測内視鏡装置の構成は第1実施の形態と同様であるた
め、ここでの説明は省略する。
(Second Embodiment) FIGS. 12 and 13 show a second embodiment of the present invention. Note that the configuration of the measurement endoscope apparatus according to the present embodiment is the same as that of the first embodiment, and thus description thereof will be omitted.

【0064】三次元計測を行った場合、プロファイル上
の任意の点と画像上の点との対応が確認できることが望
まれる場合がある。以下の説明では、プロファイルの任
意の点を指定して、それに対する画像上点を明示するこ
とにより対応を明らかにする機能について、図12の一
時マーカーを描画する流れを示すフローチャートに従っ
て説明する。
When three-dimensional measurement is performed, it may be desired that the correspondence between an arbitrary point on the profile and a point on the image can be confirmed. In the following description, a function of designating an arbitrary point of the profile and clarifying the correspondence by specifying the point on the image corresponding to the arbitrary point will be described with reference to the flowchart of FIG.

【0065】第1実施の形態の図8に示すフローチャー
トにおけるS1−1〜S1−5によりプロファイルを表
示するとともに、画像上に計測ラインLを描画する。こ
の場合、点Li,Di,Ti(0≦i≦N-1)は第1実
施の形態と同じ内容を示すものとする。
In step S1-1 to S1-5 in the flowchart shown in FIG. 8 of the first embodiment, a profile is displayed and a measurement line L is drawn on an image. In this case, the points Li, Di, and Ti (0 ≦ i ≦ N−1) indicate the same contents as in the first embodiment.

【0066】そして、先ず、S2−1によりプロファイ
ルに表示されている計測ラインT上の任意の点Tiを指
定する。指定する手段としてはマウスなどの入力デバイ
スを用い、所望の点上にカーソルを移動して、マウスで
あれば左ボタンを押すことにより指定する。この指定し
た点(以下「指定点」と称する)をTαとする。
Then, first, an arbitrary point Ti on the measurement line T displayed in the profile is designated in S2-1. An input device such as a mouse is used as the designation means, and the cursor is moved to a desired point. If the input device is a mouse, the designation is made by pressing the left button. This designated point (hereinafter referred to as “designated point”) is defined as Tα.

【0067】S2−2により指定点Tαに対する計測ラ
インL上の点(以下「計測点」と称する)を求める。点
Liの画像上の座標をLi(pi,qi)とすると、T
α(0≦α≦N-1)を指定した場合の三次元位置はDα
である。この点Dαに対応する計測点はLαであり、そ
の座標はLα(pα,qα)となる。
In S2-2, a point on the measurement line L with respect to the designated point Tα (hereinafter referred to as a "measurement point") is obtained. Assuming that the coordinates of the point Li on the image are Li (pi, qi), T
When α (0 ≦ α ≦ N-1) is specified, the three-dimensional position is Dα
It is. The measurement point corresponding to this point Dα is Lα, and its coordinates are Lα (pα, qα).

【0068】S2−3により、図13に示すように計測
ラインL上の点Lα(pα,qα)に一時マーカーを描
画し、Lαに対する計測点を明示する。この場合、一時
マーカとして、図形を一定間隔でフラッシュさせても良
い。
In S2-3, as shown in FIG. 13, a temporary marker is drawn at the point Lα (pα, qα) on the measurement line L, and the measurement point for Lα is specified. In this case, the graphic may be flashed at regular intervals as a temporary marker.

【0069】尚、ここでいう一時マーカーとは、マウス
の左ボタン、キーボードの特定のボタン等が押されたま
まの状態の間だけ表示されているマーカーを言う。
The temporary marker referred to here is a marker displayed only while the left button of the mouse, a specific button of the keyboard or the like is kept pressed.

【0070】S2−4によりマウスの左ボタンが押され
たままかどうか調べる。押されたままであればS2−3
に戻る。
In S2-4, it is checked whether the left button of the mouse is kept pressed. S2-3 if pressed
Return to

【0071】又、マウスの左ボタンが解放されていると
きは、S2−5により一時マーカーの表示を消去し、ル
ーチンを終了する。
If the left button of the mouse is released, the display of the temporary marker is deleted in S2-5, and the routine ends.

【0072】以上の処理により、一時マーカーを計測ラ
インL上に描画することで、プロファイルに表示された
計測ラインT上の任意の指定点に対する画像上の計測ラ
インL上の点との対応を、容易に知ることができる。
By drawing the temporary marker on the measurement line L by the above processing, the correspondence between an arbitrary designated point on the measurement line T displayed in the profile and a point on the measurement line L on the image can be determined. You can easily find out.

【0073】尚、計測点を明示する方法は、計測点上へ
の図形の描画に制限されるものでなく、例えば以下のよ
うなものがある。
Note that the method of specifying the measurement point is not limited to drawing a graphic on the measurement point, and for example, there is the following method.

【0074】1)計測点近傍へ計測点を指し示す矢印等
の図形の描画を行う。 2)対応する計測点上にマウスカーソルを移動する。但
し、不用意にカーソルを動かすことにより対応が分から
なくなってしまわないように、所定の期間はカーソルの
移動を禁止する。逆に画像上の計測点を指定手段により
指定し、対応するプロファイル上の点に一時マーカーを
描画しても良い。
1) Draw a figure such as an arrow pointing to the measurement point near the measurement point. 2) Move the mouse cursor over the corresponding measurement point. However, the movement of the cursor is prohibited for a predetermined period so that the careless movement of the cursor does not make the correspondence unclear. Conversely, a measurement point on the image may be specified by the specifying means, and a temporary marker may be drawn at a corresponding point on the profile.

【0075】(第3実施の形態)図14〜図16に本発
明の第3実施の形態を示す。尚、本実施の形態における
計測内視鏡装置の構成は第1実施の形態と同様であるた
め、ここでの説明は省略する。
(Third Embodiment) FIGS. 14 to 16 show a third embodiment of the present invention. Note that the configuration of the measurement endoscope apparatus according to the present embodiment is the same as that of the first embodiment, and thus description thereof will be omitted.

【0076】計測を行った場合、各計測結果の信頼性を
評価するということが行われる場合があり、その評価を
計測結果と同時に見ることが望まれる場合がある。以下
では信頼性を計測結果と同時に把握できる機能につい
て、図14に示すフローチャート従って説明する。
When the measurement is performed, the reliability of each measurement result may be evaluated, and it may be desired to view the evaluation simultaneously with the measurement result. In the following, a function that can grasp the reliability simultaneously with the measurement result will be described with reference to the flowchart shown in FIG.

【0077】先ず、S3−1においてステレオ画像の左
画像上で、計測ラインLを指定する。計測ラインL上の
点をLi(i=0,…,N-1)と表す。ラインの指定は
マウスなどの入力デバイスにより行う。
First, in S3-1, a measurement line L is specified on the left image of the stereo image. A point on the measurement line L is represented as Li (i = 0,..., N−1). The line is specified by an input device such as a mouse.

【0078】S3−2において、右画像の対応点を求め
る。
At S3-2, a corresponding point of the right image is obtained.

【0079】S3−3において、式(1)〜(3)によ
り三次元位置を求める。点Liのそれぞれの三次元位置
をDi(i=0,…,N-1)とし、その座標をDi(x
i,yi,zi)とする。
In S3-3, a three-dimensional position is obtained from the equations (1) to (3). The three-dimensional position of the point Li is Di (i = 0,..., N−1), and its coordinates are Di (x
i, yi, zi).

【0080】同時に、計測の信頼性を求める。点Diに
対する信頼性をTri(i=0,…,N-1)とする。
尚、信頼性を導出する手法については後述する。
At the same time, the reliability of the measurement is determined. The reliability for the point Di is Tri (i = 0,..., N−1).
The method for deriving the reliability will be described later.

【0081】S3−4において、図15に示すように三
次元位置をプロファイルTとして描画するが、信頼性T
riによりプロファイルDiの背景を着色する。着色の
方法については、後述する信頼性の導出手法を説明する
際に、併せて説明する。
In S3-4, a three-dimensional position is drawn as a profile T as shown in FIG.
The background of the profile Di is colored by ri. The coloring method will be described together with the method of deriving reliability described later.

【0082】この場合、信頼性のユーザへの提示方法は
プロファイルの背景着色に限定されるものではなく、例
えば以下のような方法がある。
In this case, the method of presenting the reliability to the user is not limited to the background coloring of the profile. For example, the following method is available.

【0083】1)信頼性を別グラフ(ヒストグラムな
ど)として、プロファイルとオーバーラップ、もしくは
プロファイルの近傍に描画する。
1) The reliability is drawn as a separate graph (eg, a histogram) in an area overlapping with the profile or in the vicinity of the profile.

【0084】2)プロファイルの任意の位置をクリック
することにより、その点の計測の信頼性を小ウィンドウ
に表示する。必要に応じて、計測結果を同時に表示す
る。
2) By clicking on an arbitrary position in the profile, the reliability of measurement at that point is displayed in a small window. If necessary, display the measurement results simultaneously.

【0085】この場合、信頼性は以下のようにして求め
る。
In this case, the reliability is obtained as follows.

【0086】計測の信頼性を、例えばブロックマッチン
グの相互相関値の先鋭度評価により求める。相関値Cr
は −1.0〜1.0の値を取り、マッチングを行った
画像同士が類似しているほど大きな値となる。
The reliability of the measurement is obtained, for example, by evaluating the sharpness of the cross-correlation value of the block matching. Correlation value Cr
Takes a value of -1.0 to 1.0, and becomes larger as the matched images are more similar.

【0087】一般的に、マッチングのテクスチャーが顕
著なほど相関値Crのグラフは先鋭度が高くなる傾向に
ある。そこで、相関値Crが1.0に近づくほど、換言
すれば先鋭度が大きいほど信頼性が高いと考え、以下の
式で信頼性Trを求める。
In general, the sharper the graph of the correlation value Cr, the higher the texture of the matching becomes. Therefore, it is considered that the reliability increases as the correlation value Cr approaches 1.0, in other words, the sharpness increases, and the reliability Tr is calculated by the following equation.

【0088】Tr=Crmax (p,q)・g(w) ここで、Crmax(p,q)は画像上の点(p,q)を
中心としたテンプレートを使用して所定の領域内で、マ
ッチングしたときの相関値Cr(p,q)の最大値とす
る。g(w)は係数であり、図16(b)に示すよう
に、wに対する単調減少関数である。又、このwは、図
16(a)に示すように、相関値Cr(p,q)が所定
の値Thより大きい値を持つ幅とする。尚、信頼性の評
価にはハレーションの有無などの情報を利用しても良
い。
Tr = Crmax (p, q) · g (w) Here, Crmax (p, q) is determined within a predetermined area using a template centered on the point (p, q) on the image. The maximum value of the correlation value Cr (p, q) when matching is performed. g (w) is a coefficient, and is a monotonically decreasing function with respect to w as shown in FIG. This w is a width in which the correlation value Cr (p, q) has a value larger than a predetermined value Th, as shown in FIG. Note that information such as the presence or absence of halation may be used for reliability evaluation.

【0089】信頼性をバックグランドへの着色として表
す場合は、例えば、 1)信頼性>0.8なら「青」 2)信頼性<0.2なら「赤」 という方法が考えられる。
When the reliability is expressed as coloring the background, for example, a method of 1) “blue” if reliability> 0.8 and 2) “red” if reliability <0.2 is considered.

【0090】尚、本実施の形態では、信頼性の表示はプ
ロファイルの背景として行ったが、左画像上に描画した
計測ラインLの色を信頼性に基づいて変更することによ
り行っても良い。
In the present embodiment, the reliability is displayed as the background of the profile, but may be displayed by changing the color of the measurement line L drawn on the left image based on the reliability.

【0091】(第4実施の形態)図17〜図20に本発
明の第4実施の形態を示す。尚、本実施の形態における
計測内視鏡装置の構成は第1実施の形態と同様であるた
め、ここでの説明は省略する。
(Fourth Embodiment) FIGS. 17 to 20 show a fourth embodiment of the present invention. Note that the configuration of the measurement endoscope apparatus according to the present embodiment is the same as that of the first embodiment, and thus description thereof will be omitted.

【0092】三次元計測を行い、左画像上の垂直方向を
計測ラインLとして指定し、それに対するプロファイル
を二次元グラフにより表示した場合のことを考える。
Assume that three-dimensional measurement is performed, a vertical direction on the left image is designated as a measurement line L, and a profile corresponding to the measurement line L is displayed by a two-dimensional graph.

【0093】第1実施の形態で示したように、三次元位
置を二次元グラフに描画するときに、その横軸は垂直方
向の計測ラインが選択される。
As described in the first embodiment, when a three-dimensional position is drawn on a two-dimensional graph, a vertical measurement line is selected on the horizontal axis.

【0094】しかし、図18に示すように、表示画面サ
イズの制限及び、ウィンドウの構成上の都合などによ
り、二次元グラフの横軸は水平方向に描画されるように
なっており変更できない場合、画像上の計測ラインLは
垂直方向に描画されているが、垂直方向に沿った点の三
次元位置は二次元位置に変換されて水平方向に沿って描
画されることになる。
However, as shown in FIG. 18, when the horizontal axis of the two-dimensional graph cannot be changed because the horizontal axis is drawn in the horizontal direction due to the limitation of the display screen size and the configuration of the window, etc. Although the measurement line L on the image is drawn in the vertical direction, the three-dimensional position of a point along the vertical direction is converted to a two-dimensional position and drawn along the horizontal direction.

【0095】このように計測ラインLの方向とプロファ
イルのプロット方向とが異なる場合に、画像上の計測ラ
インとプロファイルの対応が取り難いため、計測ライン
とプロファイルの方向とを一致させたいという要求があ
る。又は、単に観察時に画像の方向、或いはプロファイ
ルの方向を変えたいとの要求がある。
As described above, when the direction of the measurement line L is different from the plotting direction of the profile, it is difficult to make the correspondence between the measurement line and the profile on the image. is there. Alternatively, there is a demand to simply change the direction of an image or the direction of a profile during observation.

【0096】以下では、計測ラインLとプロファイル方
向とを調整できる機能について、図17の画像の回転処
理の流れを示すフローチャートに従って説明する。
Hereinafter, the function of adjusting the measurement line L and the profile direction will be described with reference to the flowchart of FIG. 17 showing the flow of image rotation processing.

【0097】第1実施の形態の図8におけるS1−1〜
S1−5によりプロファイル上に計測ラインTを表示す
るとともに、画像上に計測ラインLを描画する。
S1-1 to S1-1 in FIG. 8 of the first embodiment.
In S1-5, the measurement line T is displayed on the profile, and the measurement line L is drawn on the image.

【0098】このときの描画例を、図19(a)に示
す。但し、図19において、マーカーは省略している。
又、この場合の画像サイズをSX・SY、画像表示ウィ
ンドウサイズをWSX・WSYとする。
FIG. 19A shows a drawing example at this time. However, the marker is omitted in FIG.
In this case, the image size is SX / SY, and the image display window size is WSX / WSY.

【0099】ウィンドウ上の回転させる対象の近傍に、
図19(a)に示すような矢印を描画する。この場合、
画像が回転対象であり、以下では画像を例に説明する。
In the vicinity of the object to be rotated on the window,
An arrow as shown in FIG. 19A is drawn. in this case,
An image is a rotation target, and an image will be described below as an example.

【0100】先ず、S4−1において矢印上にマウスカ
ーソルを移動し、マウスの左ボタンを押し、ドラッグを
開始する。
First, in S4-1, the mouse cursor is moved on the arrow, and the left button of the mouse is pressed to start dragging.

【0101】ドラッグとはマウスカーソルを、移動した
いオブジェクト上に移動してボタンを押し、そのままの
状態でマウスカーソルを動かしてオブジェクトを移動さ
せる一般的なマウスの使用方法である。
Dragging is a general method of using a mouse in which a mouse cursor is moved over an object to be moved, a button is pressed, and the object is moved by moving the mouse cursor while keeping the state as it is.

【0102】S4−2において矢印をマウスカーソルの
移動方向、移動量に応じて回転する。図20(b)に示
すように、現在のマウスカーソルの位置と矢印中心とを
結ぶ直線と垂直方向とのなす角をθとし、マウスカーソ
ルの移動により矢印の回転と角度θの更新を行う。
In S4-2, the arrow is rotated according to the moving direction and the moving amount of the mouse cursor. As shown in FIG. 20B, an angle between a vertical line and a straight line connecting the current position of the mouse cursor and the center of the arrow is defined as θ, and the rotation of the arrow and the update of the angle θ are performed by moving the mouse cursor.

【0103】S4−3において矢印の回転に応じて画像
を回転し表示する。画像表示ウィンドウの中心を原点と
するXY座標を考え、画像を点A(p,q)とすると、
In S4-3, the image is rotated and displayed according to the rotation of the arrow. Considering the XY coordinates with the origin at the center of the image display window, and letting the image be a point A (p, q),

【数2】 により回転後の画像は点A’(p’,q’)となり、こ
の点A’(p’,q’)をウィンドウに表示する。
(Equation 2) As a result, the image after rotation becomes a point A ′ (p ′, q ′), and this point A ′ (p ′, q ′) is displayed on the window.

【0104】このとき回転後の画像を囲む最小矩形を新
たな画像と考えると、図20に示すように画像サイズ
は、 (SXcosθ+SYsinθ)・(SXsinθ+S
Ycosθ) となる。
At this time, assuming that the smallest rectangle surrounding the rotated image is a new image, the image size is (SXcos θ + SY sin θ) · (SX sin θ + S
Ycos θ).

【0105】したがって、θの値により、ウィンドウの
表示サイズをオーバーして表示できない部分が発生する
場合がある。このときはスクロールにより、画像のあら
ゆる部分を表示できるようにする。又、この場合、画面
サイズ、ウィンドウサイズに応じて、できるだけ表示で
きない領域が減少するように、画像表示ウィンドウサイ
ズを変更しても良い。
Therefore, depending on the value of θ, there may be a case where a portion exceeding the display size of the window cannot be displayed. At this time, all parts of the image can be displayed by scrolling. In this case, the image display window size may be changed according to the screen size and the window size so that the area that cannot be displayed is reduced as much as possible.

【0106】又、図20(a)に示す〜の領域のよ
うに、回転する角度によっては表示領域内に表示データ
が存在しない部分が発生する場合があるが、その部分は
所定のデータ値(例えば0)でパディングする。
Also, there may be a portion where no display data is present in the display area depending on the rotation angle, as shown in the area (1) shown in FIG. 20 (a). For example, padding with 0).

【0107】S4−4においてドラッグが終了したか、
つまり左ボタンが解放されたかを判断する。押されたま
まであればS4−2へ戻る。又、解放されたときはルー
チンを終了する。
In S4-4, whether the drag has been completed
That is, it is determined whether the left button has been released. If the button is kept pressed, the process returns to S4-2. When released, the routine ends.

【0108】画像を回転させた状態を、図19(b)に
示す。画像の回転により計測ラインLが水平に向いたた
め、画像の計測ラインLとプロファイルの横軸の方向と
が一致する。
FIG. 19B shows a state in which the image is rotated. Since the measurement line L is oriented horizontally by the rotation of the image, the measurement line L of the image coincides with the direction of the horizontal axis of the profile.

【0109】尚、画像が所定の大きさ以上の場合は、画
像表示によるちらつきを防止するため、矢印のドラッグ
中での画像回転及び表示は行わず、ドラッグ終了時に回
転した画像を描画すると良い。具体的にはS4−3とS
4−4とで行われる処理を入れ替えて、ドラッグ終了後
に描画を行う処理を行うようにする。
When the image is larger than a predetermined size, in order to prevent the image display from flickering, the image is not rotated and displayed while the arrow is being dragged, and the rotated image is preferably drawn at the end of the drag. Specifically, S4-3 and S4
The processing performed in step 4-4 is exchanged, and the processing for drawing after the drag is completed is performed.

【0110】画像の回転量の指定は矢印の回転に制限さ
れることはなく、単にメニュー、ボタンなどにあらかじ
め回転量の選択肢を用意しておき、回転量を選択する方
法、又はキーボードにより回転角を入力する方法も考え
られる。これらのいくつかを併用して用いるようにして
も良い。
The specification of the rotation amount of the image is not limited to the rotation of the arrow, but simply prepares a selection of the rotation amount in advance in a menu, a button, or the like, and selects the rotation amount, or a rotation angle using a keyboard. Is also conceivable. Some of these may be used in combination.

【0111】尚、本実施の形態では画像の回転を行った
が、プロファイルを回転しても同様の効果が得られる。
Although the image is rotated in the present embodiment, the same effect can be obtained by rotating the profile.

【0112】(第5実施の形態)図21、図22に本発
明の第5実施の形態を示す。尚、本実施の形態における
計測内視鏡装置の構成は第1実施の形態と同様であるた
め、ここでの説明は省略する。
(Fifth Embodiment) FIGS. 21 and 22 show a fifth embodiment of the present invention. Note that the configuration of the measurement endoscope apparatus according to the present embodiment is the same as that of the first embodiment, and thus description thereof will be omitted.

【0113】ステレオ画像の左、右画像はほぼ同じ領域
が撮像されている。観察を容易にするため、一方の画像
表示ウィンドウのスクロール操作に同期して、もう一方
の画像ウィンドウを自動的にスクロールさせたいとの要
望がある。以下においては、同期スクロールを実現する
機能を備える計測用内視鏡装置について説明する。
In the left and right images of the stereo image, substantially the same region is imaged. There is a demand that the other image window be automatically scrolled in synchronization with the scroll operation of one image display window in order to facilitate observation. Hereinafter, a measurement endoscope apparatus having a function of realizing synchronous scroll will be described.

【0114】図22(a)に左画像表示ウィンドウW
1、右画像表示ウィンドウW2の表示例を示す。ここで
は、両画像表示ウィンドウW1,W2のスクロールを、
スクロールバーを移動し、その移動量に応じて画像の表
示を変更する場合を例に説明する。
FIG. 22A shows the left image display window W.
1 shows a display example of a right image display window W2. Here, scrolling of both image display windows W1 and W2 is performed.
An example will be described in which the scroll bar is moved and the display of the image is changed according to the amount of movement.

【0115】各画像表示ウィンドウW1,W2のスクロ
ールはスクロールポジションとスクロール量という値に
より制御されているとする。スクロールポジションはス
クロールバーの位置を表す。スクロール量はユーザが移
動したスクロールバーの移動量である。
It is assumed that the scroll of each of the image display windows W1 and W2 is controlled by the values of the scroll position and the scroll amount. The scroll position indicates the position of the scroll bar. The scroll amount is the amount of movement of the scroll bar moved by the user.

【0116】スクロールポジションにスクロール量を加
減算することでスクロール状態を変化させる。つまり、
スクロールポジションによりスクロールバーの位置、画
像の表示領域が管理、決定されることとする。
The scroll state is changed by adding or subtracting the scroll amount to or from the scroll position. That is,
The position of the scroll bar and the display area of the image are managed and determined by the scroll position.

【0117】又、図22に示すチェックボックスがセッ
トされているときは同期スクロールするが、チェックさ
れていないときは各画像表示ウィンドウW1,W2は独
立にスクロールするものとする。
When the check box shown in FIG. 22 is set, the scrolling is performed synchronously. When the check box is not checked, the image display windows W1 and W2 scroll independently.

【0118】尚、この場合、画面の表示スペース、デザ
イン上の都合によっては、画像をフルスケール(1倍)
で表示しない場合がある。ここでは、左画像表示ウィン
ドウW1の縦サイズ、横サイズをそれぞれK1倍、右画
像表示ウィンドウW2の縦サイズ、横サイズをそれぞれ
K2倍で表示したものとして考える(K1、K2は実
数)。
In this case, depending on the display space of the screen and the convenience of the design, the image may be full-scale (1 ×).
May not be displayed. Here, it is assumed that the vertical size and the horizontal size of the left image display window W1 are displayed by K1 times, and the vertical size and the horizontal size of the right image display window W2 are displayed by K2 times (K1 and K2 are real numbers).

【0119】以下では、同期スクロールを実現する機能
について、図21の同期スクロールの流れを示すフロー
チャートに従って説明する。
In the following, the function of realizing the synchronous scroll will be described with reference to the flowchart of FIG. 21 showing the flow of the synchronous scroll.

【0120】先ず、S5−1において画像表示ウィンド
ウWi(i=1,2)のスクロールバーの移動を検出す
る。スクロールを検出したウィンドウを、メインウィン
ドウWαとし、非検出側のメインウィンドウをサブウィ
ンドウWβとする。又、メインウィンドウWαのスクロ
ール量をMαとする。
First, in S5-1, the movement of the scroll bar of the image display window Wi (i = 1, 2) is detected. The window in which scrolling is detected is referred to as a main window Wα, and the main window on the non-detection side is referred to as a subwindow Wβ. The scroll amount of the main window Wα is set to Mα.

【0121】S5−2においてチェックボックスがセッ
トされているかどうか調べる。セットされている場合
は、5−3ヘ進み、セットされていないときは、S5−
4へ進む。
At S5-2, it is checked whether the check box is set. If it is set, go to 5-3. If it is not set, go to S5-
Proceed to 4.

【0122】S5−3においてメインウィンドウWαの
スクロール処理を行う。スクロール処理とは、スクロー
ル量に応じたスクロールバーの移動と、メインウィンド
ウWαへの画像の描画を行うことを言う。
In S5-3, scroll processing of the main window Wα is performed. The scroll processing refers to movement of a scroll bar according to the scroll amount and drawing of an image on the main window Wα.

【0123】そして、メインウィンドウWαのスクロー
ル後のスクロールポジションStαを取得する。又、サ
ブウィンドウWβのスクロールポジションをStα・
(Kβ/Kα)にセットする。
Then, the scroll position Stα after the scroll of the main window Wα is obtained. Further, the scroll position of the sub-window Wβ is set to Stα ·
(Kβ / Kα).

【0124】次いで、サブウィンドウWβのスクロール
処理を行った後、同期スクロールの処理を終了する。
Next, after the scroll processing of the sub-window Wβ is performed, the synchronous scroll processing is terminated.

【0125】その結果、図22(b)に破線で示すよう
に、両ウィンドウW1,W2の一方のメインウインドウ
に対して他方のサブウインドウが同期スクロールする。
As a result, as shown by a broken line in FIG. 22B, one sub-window of both windows W1 and W2 scrolls synchronously with the other sub-window.

【0126】又、S5−2においてチェックボックスが
セットされてないと判断されて、S5−4ヘ進むと、メ
インウィンドウWαのみスクロール処理を行い、ルーチ
ンを終了する。
If it is determined in S5-2 that the check box is not set and the process proceeds to S5-4, the scroll processing is performed only on the main window Wα, and the routine ends.

【0127】このように、本実施の形態によれば、ステ
レオ画像の一方をスクロールすることにより、もう一方
の画像の同じ場所を自動的に表示することができる。
As described above, according to the present embodiment, by scrolling one of the stereo images, the same place in the other image can be automatically displayed.

【0128】尚、図22に示すチェックボックスがセッ
トされたときは、スクロールバーを操作する前に、画像
ウィンドウW1,W2のうちいずれかのウィンドウをメ
インウィンドウWαとして設定して、S5−3を実行
し、両ウインドウW1,W2のスクロールポジションを
一致させた後、同期スクロールへ移行させる。
When the check box shown in FIG. 22 is set, one of the image windows W1 and W2 is set as the main window Wα before the scroll bar is operated, and S5-3 is set. After execution, the scroll positions of both windows W1 and W2 are made to coincide with each other, and then a transition is made to synchronous scrolling.

【0129】尚、同期スクロールは、プロファイルTに
対して行っても良い。この場合、画像については、スク
ロールポジションごとに表示される計測ラインLの区
間、プロファイルについてスクロールポジションごとに
表示される三次元位置に対応するプロファイルTの区間
を記憶しておき、スクロール要求に応じて、対応する部
分が表示されるように制御する。
Incidentally, the synchronous scrolling may be performed on the profile T. In this case, for the image, the section of the measurement line L displayed for each scroll position and the section of the profile T corresponding to the three-dimensional position displayed for each scroll position for the profile are stored, and in response to a scroll request. , So that the corresponding part is displayed.

【0130】(第6実施の形態)図23〜図26に本発
明の第6実施の形態を示す。尚、本実施の形態における
計測内視鏡装置の構成は第1実施の形態と同様であるた
め、ここでの説明は省略する。
(Sixth Embodiment) FIGS. 23 to 26 show a sixth embodiment of the present invention. Note that the configuration of the measurement endoscope apparatus according to the present embodiment is the same as that of the first embodiment, and thus description thereof will be omitted.

【0131】画像上の任意の2点間の距離計測、及び計
測位置の微調整を簡単に行いたいという要望がある。そ
こで、任意の点での計測及び、計測位置の調整を簡単に
行える機能を、図23〜図25の距離計測の流れを示す
フローチャートに従って説明する。
There is a demand for easily measuring the distance between any two points on an image and finely adjusting the measurement position. Therefore, the function of easily performing measurement at an arbitrary point and adjusting the measurement position will be described with reference to the flowcharts of FIGS.

【0132】先ず、S6−1において左画像上の2点を
指定する(以下、指定点と呼ぶ)。2点の指定はマウス
などの入力デバイスを用いて行う。このとき、2点を通
る直線を計測ラインLとし、この計測ラインL上の点を
Li(i=0,…,N-1)とし、選択された2点をL
α、Lβとし、その座標をLα(pα,qα)、Lβ
(pβ,qβ)とする。
First, in S6-1, two points on the left image are designated (hereinafter referred to as designated points). The designation of the two points is performed using an input device such as a mouse. At this time, a straight line passing through the two points is defined as a measurement line L, a point on the measurement line L is defined as Li (i = 0,..., N−1), and the selected two points are defined as L.
α, Lβ, and their coordinates are Lα (pα, qα), Lβ
(Pβ, qβ).

【0133】S6−2において計測ラインL上の点につ
いて右画像の対応点を求める。次いで、(1)〜(3)
式により計測ラインL上の点までの三次元位置を求め
る。そして、点Liに対する三次元位置をDi(i=
0,…,N-1)とし、その座標をDi(xi,yi,z
i)とする。
In S6-2, a corresponding point on the right image is determined for a point on the measurement line L. Then, (1) to (3)
The three-dimensional position up to a point on the measurement line L is obtained by the equation. Then, the three-dimensional position with respect to the point Li is represented by Di (i =
0,..., N−1) and the coordinates are Di (xi, yi, z).
i).

【0134】S6−3においてS1−4と同様に三次元
位置を二次元グラフ(プロファイル)により表示する。
At S6-3, the three-dimensional position is displayed as a two-dimensional graph (profile) as at S1-4.

【0135】図26は左画像用モニタ130Lに画像お
よびプロファイルを表示した例である。点Di(xi,
yi,zi)に対応する二次元グラフ上の点をTi(i
=0,…,N-1)とする。
FIG. 26 shows an example in which an image and a profile are displayed on the left image monitor 130L. The point Di (xi,
The point on the two-dimensional graph corresponding to (yi, zi) is defined as Ti (i
= 0, ..., N-1).

【0136】S6−4において図26(a)のように計
測ラインL及び、指定点Lα、Lβを通過する所定の長
さの垂直を描画する。指定点の近傍にその距離d(例え
ば、3mm)を表示する。この距離dは次式により求め
る。
In S6-4, as shown in FIG. 26A, a measurement line L and a vertical line of a predetermined length passing through the designated points Lα and Lβ are drawn. The distance d (for example, 3 mm) is displayed near the designated point. This distance d is obtained by the following equation.

【0137】 d={(xβ−xα)+(yβ−yα)+(zβ−zα)1/2 …(6) S6−5において、図26(a)に示すようにプロファ
イルには指定点に対応する部分Tα、Tβを通過する所
定の長さの垂直線を描画し、垂直線の近傍にその間の距
離dを描画する。
D = {(xβ−xα) 2 + (yβ−yα) 2 + (zβ−zα) 2 } 1/2 (6) In S6-5, as shown in FIG. Draws a vertical line of a predetermined length passing through the portions Tα and Tβ corresponding to the designated point, and draws a distance d between the vertical lines near the vertical line.

【0138】S6−6においてマウス入力がドラッグか
クリックかを判定する。そして、マウス入力がドラッグ
のときは、S6−7へ進み、S6−7〜S6−9におい
て、ドラッグ状態を判別する。
In step S6-6, it is determined whether the mouse input is a drag or a click. If the mouse input is a drag, the process proceeds to S6-7, and in S6-7 to S6-9, the drag state is determined.

【0139】すなわち、先ず、S6−7において、ドラ
ッグが画像上か、プロファイル上かを判別し、画像上の
ときはS6−8へ進み、プロファイル上のときはS6−
9へ進み、それ以外のときはS6−12へ進む。
That is, first, in S6-7, it is determined whether the drag is on the image or on the profile. If the drag is on the image, the process proceeds to S6-8.
Go to S9, otherwise go to S6-12.

【0140】S6−8においては、ドラッグ開始位置が
左画像の垂線上もしくは近傍ならば計測位置変更モード
1(S6−10)へ進み、それ以外のときはS6−12
へ進む。
In S6-8, if the drag start position is on or near the vertical line of the left image, the flow advances to measurement position change mode 1 (S6-10); otherwise, S6-12.
Proceed to.

【0141】S6−9においては、ドラッグ開始位置が
プロファイルの垂直線上もしくは近傍ならば計測位置変
更モード2(S6−11)へ進み、それ以外のときはS
6−12へ進む。
In S6-9, if the drag start position is on or near the vertical line of the profile, the process proceeds to measurement position change mode 2 (S6-11).
Proceed to 6-12.

【0142】S6−10において、図26(b)に示す
ように、画像内の垂線をマウスのドラッグに従って移動
し、ドラッグが終了したとき垂線の移動を終了する。
In S6-10, as shown in FIG. 26B, the perpendicular in the image is moved according to the drag of the mouse, and when the drag is completed, the movement of the perpendicular is terminated.

【0143】そして、ドラッグが停止した位置での垂線
と交わる計測ラインL上の2点をそれぞれLα、Lβと
して垂線間の距離d(例えば、6mm)を、(6)式で
再計算し表示する。
Then, two points on the measurement line L intersecting with the perpendicular at the position where the dragging is stopped are defined as Lα and Lβ, respectively, and the distance d (for example, 6 mm) between the perpendiculars is recalculated and displayed by the equation (6). .

【0144】これにより同一の計測ラインLについて計
測位置の微調整が可能となる。又、このとき、プロファ
イル側の垂直線も垂直の位置変化に応じて移動し、同時
にそのとき距離dを表示する。
This makes it possible to finely adjust the measurement position for the same measurement line L. At this time, the vertical line on the profile side also moves according to the change in the vertical position, and at the same time, the distance d is displayed.

【0145】S6−11において、プロファイル側の垂
直線をマウスのドラッグに従って移動させ、ドラッグ終
了時に、垂直線の移動を終了する。
In S6-11, the vertical line on the profile side is moved in accordance with the drag of the mouse, and when the drag is completed, the movement of the vertical line ends.

【0146】そして、垂直線と交わるプロファイルT上
の2点をそれぞれTα、Tβに対応するLα、Lβを用
いて、距離dを(6)式で再計算し表示する。これによ
り、同一の計測ラインについて計測位置の微調整が可能
となる。このとき、左画像の垂線も垂直線の位置に対応
して移動し、移動後の距離dを表示する。
Then, two points on the profile T which intersect with the vertical line are re-calculated and displayed according to the equation (6) using Lα and Lβ corresponding to Tα and Tβ, respectively. This allows fine adjustment of the measurement position for the same measurement line. At this time, the vertical line of the left image also moves in accordance with the position of the vertical line, and displays the distance d after the movement.

【0147】又、S6−6でマウス入力がクリックであ
ると判定されて、S6−14へ進むと、S6−14、S
6−15で、マウスのクリック位置を調べ、左画像上で
且つ垂線近傍のときは、S6−12へ進み、それ以外の
ときは、S6−1へ戻り、計測ラインLを再設定する。
If it is determined in step S6-6 that the mouse input is a click, the flow advances to step S6-14.
In step 6-15, the mouse click position is checked. If the position is on the left image and near the perpendicular, the process proceeds to step S6-12. Otherwise, the process returns to step S6-1 to reset the measurement line L.

【0148】S6−12において、画面に表示されてい
るボタンの入力をチェックし、ボタンが押されていれ
ば、それに応じた処理を行い、処理が終了した後ルーチ
ンを終了する。又、ボタンが押されていないときは、そ
のままルーチンを終了する。
In S6-12, the input of the button displayed on the screen is checked, and if the button is pressed, the processing corresponding thereto is performed, and after the processing is completed, the routine ends. If the button has not been pressed, the routine ends.

【0149】図26に示すように、画面上には垂線左移
動、垂線右移動、垂直線左移動、垂直線右移動のボタン
がそれぞれ表示されており、垂線及び、垂直線を1〜数
画素単位などの微少単位で移動することができる。
As shown in FIG. 26, buttons for moving the vertical line left, moving the vertical line right, moving the vertical line left, and moving the vertical line right are displayed on the screen. It can be moved in minute units such as units.

【0150】押されたボタンに応じて以下の処理を行
う。但し、垂線と水平方向がなす角が45〜135度の
間は、垂線左移動は垂線上移動に対応する。垂線右移動
は同様に垂線下移動に対応する。
The following processing is performed according to the pressed button. However, when the angle between the perpendicular and the horizontal direction is between 45 and 135 degrees, the leftward movement of the perpendicular corresponds to the movement on the perpendicular. A rightward vertical movement also corresponds to a rightward vertical movement.

【0151】1)垂線左(上)移動 垂線を左(上)に移動する。垂線間の距離の再計算を行
い、垂線近傍に再描画する。プロファイルの垂直線を垂
線移動に応じて移動し、距離を再描画する。 2)垂線右(下)移動 垂線を右(下)に移動する。垂線間の距離の再計算を行
い、垂線近傍に再描画する。プロファイルの垂直線を垂
線移動に応じて移動し、距離を再描画する。 3)垂直線左移動 垂直線を左に移動する。垂直線間の距離を再計算を行
い、垂直線近傍に再描画する。画像の垂線を垂直線移動
に応じて移動し、距離を再描画する。 4)垂直線右移動 垂直線を右に移動する。垂直線間の距離の再計算を行
い、垂直線近傍に再描画する。画像の垂線を垂直線移動
に応じて移動し、距離を再描画する。
1) Vertical left (up) movement The vertical is moved left (up). Recalculate the distance between the perpendiculars and redraw near the perpendicular. Move the vertical line of the profile according to the perpendicular movement, and redraw the distance. 2) Move the perpendicular right (down) Move the perpendicular right (down). Recalculate the distance between the perpendiculars and redraw near the perpendicular. Move the vertical line of the profile according to the perpendicular movement, and redraw the distance. 3) Move vertical line left Move the vertical line to the left. Recalculate the distance between vertical lines and redraw near the vertical line. The vertical line of the image is moved according to the vertical line movement, and the distance is redrawn. 4) Move vertical line right Move the vertical line to the right. Recalculate the distance between vertical lines and redraw near the vertical line. The vertical line of the image is moved according to the vertical line movement, and the distance is redrawn.

【0152】尚、本実施の形態では2点間の距離を表示
したが、2点間の高さなど他の計測値を表示しても良
い。
Although the distance between two points is displayed in the present embodiment, other measured values such as the height between two points may be displayed.

【0153】[付記]以上、詳述したように本発明によ
れば以下に示す構成を得ることができる。 (付記項1)同一対象を異なる位置から撮像する撮影手
段と、撮像手段により得られる複数枚の画像から、計測
対象の立体形状を推定する手段と、推定した立体形状を
プロファイル情報に変換する手段と、変換されたプロフ
ァイル情報と画像との対応関係を求める手段と、プロフ
ァイル情報と画像との対応関係を表示する表示手段と、
を具備したことを特徴とする計測用内視鏡装置。このよ
うな構成よれば、計測対象の立体形状と画像上の計測点
との対応を表示手段に表示することができる。
[Appendix] As described above, according to the present invention, the following configuration can be obtained. (Additional Item 1) Imaging means for imaging the same object from different positions, means for estimating the three-dimensional shape of the measurement object from a plurality of images obtained by the imaging means, and means for converting the estimated three-dimensional shape into profile information A means for obtaining a correspondence between the converted profile information and the image, a display means for displaying the correspondence between the profile information and the image,
An endoscope device for measurement, comprising: According to such a configuration, the correspondence between the three-dimensional shape of the measurement target and the measurement points on the image can be displayed on the display means.

【0154】(付記項2)変換手段により変換されたプ
ロファイル情報及び/又は撮像手段により撮像された画
像を回転する手段と、回転されたプロファイル情報及び
/又は画像を表示する手段と、を具備したことを特徴と
する付記項1記載の計測用内視鏡装置。このような構成
よれば、計測対象の立体形状と画像を任意方向で表示す
ることができる。
(Additional Item 2) A means for rotating the profile information converted by the conversion means and / or the image captured by the imaging means, and a means for displaying the rotated profile information and / or the image are provided. The measurement endoscope apparatus according to claim 1, characterized in that: According to such a configuration, a three-dimensional shape and an image to be measured can be displayed in an arbitrary direction.

【0155】(付記項3)前記変換されたプロファイル
情報において指定点を指定する入力手段と、画像におい
て指定点に対応する計測ライン上の計測点を求める手段
と、前記計測点を明示する手段と、を具備したことを特
徴とする付記項1記載の計測用内視鏡装置。このような
構成によれば、計測対象立体形状の任意の点と画像上の
計測点との対応を表示することができる。
(Additional Item 3) Input means for designating a designated point in the converted profile information, means for obtaining a measurement point on a measurement line corresponding to the designated point in an image, and means for specifying the measurement point The measurement endoscope apparatus according to claim 1, further comprising: According to such a configuration, it is possible to display the correspondence between an arbitrary point of the measurement target three-dimensional shape and the measurement point on the image.

【0156】(付記項4)画像において計測ライン上の
計測点を指定する入力手段と、前記変換されたプロファ
イル情報において、指定された計測点に対応する対応点
を求める手段と、前記対応点を明示する手段と、を具備
したことを特徴とする付記項1記載の計測用内視鏡装
置。このような構成によれば、画像上の任意の計測点と
計測対象立体形状の対応を表示することができる。
(Additional Item 4) Input means for specifying a measurement point on a measurement line in the image, means for obtaining a corresponding point corresponding to the specified measurement point in the converted profile information, The measuring endoscope apparatus according to claim 1, further comprising means for specifying. According to such a configuration, the correspondence between an arbitrary measurement point on the image and the three-dimensional shape to be measured can be displayed.

【0157】(付記項5)立体形状推定結果の信頼性を
求める手段と、信頼性の数値及び/又は、図形により表
示する手段と、を具備したことを特徴とする付記項1記
載の計測用内視鏡装置。このような構成によれば、計測
の信頼性を立体形状とともに表示することができる。
(Additional Item 5) The measurement device according to additional item 1, characterized by comprising means for obtaining the reliability of the three-dimensional shape estimation result and means for displaying a numerical value and / or graphic of the reliability. Endoscope device. According to such a configuration, the reliability of measurement can be displayed together with the three-dimensional shape.

【0158】(付記項6)撮像手段により撮像された二
枚以上の画像を表示する手段と、二枚以上の画像を同期
してスクロールする手段と、を具備したことを特徴とす
る付記項1記載の計測用内視鏡装置。このような構成に
よれば、画像同士を同期してスクロールさせることがで
きる。
(Additional Item 6) An additional item 1 characterized by comprising means for displaying two or more images picked up by the image pickup means, and means for scrolling the two or more images synchronously. The endoscope device for measurement according to the above. According to such a configuration, images can be scrolled in synchronization with each other.

【0159】(付記項7)撮像手段により撮像された一
枚以上の画像を表示する手段と、一枚以上の画像及び変
換されたプロファイル情報を同期してスクロールする手
段と、を具備したことを特徴とする付記項1記載の計測
用内視鏡装置。このような構成によれば、画像とプロフ
ァイル情報とを同期してスクロールさせることができ
る。
(Supplementary note 7) It is provided that there are provided means for displaying one or more images picked up by the image pickup means, and means for synchronously scrolling one or more images and the converted profile information. The measurement endoscope apparatus according to claim 1, characterized in that: According to such a configuration, the image and the profile information can be scrolled synchronously.

【0160】(付記項8)変換されたプロファイル情報
上又は、画像上の2点を指定する入力手段と、指定され
た2点間の距離を求める手段と、距離を表示する手段を
有する手段と、を具備したことを特徴とする付記項1記
載の計測用内視鏡装置。このような構成によれば、画像
或いはプロファイル上での任意の2点間の距離などの計
測及び、計測点の微調整を行うことができる。
(Additional Item 8) Input means for designating two points on the converted profile information or image, means for obtaining the distance between the designated two points, and means having means for displaying the distance The measurement endoscope apparatus according to claim 1, further comprising: According to such a configuration, measurement of a distance between any two points on an image or a profile and fine adjustment of the measurement point can be performed.

【0161】[0161]

【発明の効果】以上、説明したように本発明によれば、
撮像手段により撮像した被写体像と、被写体像の所定部
位の立体形状に対応するプロファイル情報とを同時に表
示すると共に、このプロファイル情報と被写体像を撮像
した撮像信号との対応関係を示す対応関係情報を表示す
るようにしたので、立体形状と被写体像との位置関係を
容易に把握することができる。
As described above, according to the present invention,
At the same time, the subject image picked up by the image pickup means and profile information corresponding to the three-dimensional shape of a predetermined part of the subject image are displayed, and correspondence information indicating the correspondence between the profile information and an image pickup signal of the subject image is displayed. Since the display is performed, the positional relationship between the three-dimensional shape and the subject image can be easily grasped.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1実施の形態による計測用内視鏡装置の構成
を示すブロック図
FIG. 1 is a block diagram showing a configuration of a measurement endoscope apparatus according to a first embodiment.

【図2】同、内視鏡の挿入部先端部の説明図FIG. 2 is an explanatory view of a distal end portion of an insertion portion of the endoscope.

【図3】同、計測用内視鏡装置の機能構成を示すブロッ
ク図
FIG. 3 is a block diagram showing a functional configuration of the measurement endoscope apparatus.

【図4】同、ホストコンピュータの構成を示すブロック
FIG. 4 is a block diagram showing a configuration of the host computer.

【図5】同、外部記憶装置の構成を示すブロック図FIG. 5 is a block diagram showing a configuration of the external storage device.

【図6】同、三次元座標系の説明図FIG. 6 is an explanatory diagram of a three-dimensional coordinate system.

【図7】同、三次元座標算出原理を示す説明図FIG. 7 is an explanatory view showing the principle of calculating three-dimensional coordinates.

【図8】同、計測結果を描画する流れを示すフローチャ
ート
FIG. 8 is a flowchart showing a flow of drawing a measurement result.

【図9】同、ウィンドウ表示例を示す説明図FIG. 9 is an explanatory diagram showing an example of window display

【図10】同、歪曲収差補正に関する説明図FIG. 10 is an explanatory diagram relating to distortion correction.

【図11】同、立体形状(三次元データ)を図形(二次
元データ)に変換する手段を示す説明図
FIG. 11 is an explanatory view showing means for converting a three-dimensional shape (three-dimensional data) into a figure (two-dimensional data);

【図12】第2実施の形態による一時マーカーを描画す
る流れを示すフローチャート
FIG. 12 is a flowchart showing a flow of drawing a temporary marker according to the second embodiment;

【図13】同、ウィンドウ表示例を示す説明図FIG. 13 is an explanatory view showing an example of window display.

【図14】第3実施の形態による計測結果の信頼性を求
める流れを示すフローチャート
FIG. 14 is a flowchart showing a flow for obtaining reliability of a measurement result according to the third embodiment;

【図15】同、ウィンドウ表示例を示す説明図FIG. 15 is an explanatory diagram showing a window display example.

【図16】同、信頼性を求める原理を示す説明図FIG. 16 is an explanatory diagram showing a principle for obtaining reliability.

【図17】第4実施の形態による画像の回転処理の流れ
を示すフローチャート
FIG. 17 is a flowchart showing a flow of an image rotation process according to the fourth embodiment;

【図18】同、ウィンドウ表示例を示す説明図FIG. 18 is an explanatory diagram showing an example of a window display

【図19】同、画像の回転処理の際のウィンドウ表示例
を示す説明図
FIG. 19 is an explanatory diagram showing an example of a window display at the time of image rotation processing.

【図20】同、画像を回転処理する際の説明図FIG. 20 is an explanatory diagram when the image is rotated.

【図21】第5実施の形態による同期スクロールの流れ
を示すフローチャート
FIG. 21 is a flowchart showing the flow of synchronous scrolling according to the fifth embodiment.

【図22】同、ウィンドウ表示例を示す説明図FIG. 22 is an explanatory diagram showing a window display example.

【図23】第6実施の形態による距離計測の流れを示す
フローチャート(その1)
FIG. 23 is a flowchart illustrating a flow of distance measurement according to the sixth embodiment (part 1);

【図24】同、距離計測の流れを示すフローチャート
(その2)
FIG. 24 is a flowchart showing the flow of distance measurement (part 2).

【図25】同、距離計測の流れを示すフローチャート
(その3)
FIG. 25 is a flowchart showing the flow of distance measurement (part 3).

【図26】同、ウィンドウ表示例を示す説明図FIG. 26 is an explanatory view showing a window display example of the embodiment.

【符号の説明】[Explanation of symbols]

101 内視鏡 104L 左撮像手段 104R 右撮像手段 120 ホストコンピュータ 130L 左画像用モニタ 130R 右画像用モニタ L 計測ライン T プロファイル Lα、Lβ 指定点 P 計測対象点 101 Endoscope 104L Left imaging means 104R Right imaging means 120 Host computer 130L Left image monitor 130R Right image monitor L Measurement line T Profile Lα, Lβ Designated point P Measurement target point

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成11年12月24日(1999.12.
24)
[Submission date] December 24, 1999 (1999.12.
24)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0004[Correction target item name] 0004

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0004】[0004]

【発明が解決しようとする課題】しかし、上述した先行
技術に開示されている技術では、計測対象である被写体
のプロファイル(立体形状を2次元的なグラフに変換表
示したもの)表示する手段がない、もしくはワイヤー
フレームなどにより立体形状を表示する手段があるにし
ても、表示した立体形状と被写体像との対応関係が把握
しがたい問題がある。
However, in the technique disclosed in the above-mentioned prior art, means for displaying a profile of a subject to be measured (a three-dimensional shape converted into a two-dimensional graph) is displayed. However, even if there is a means for displaying a three-dimensional shape using a wire frame or the like, there is a problem that it is difficult to grasp the correspondence between the displayed three-dimensional shape and the subject image.

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0044[Correction target item name] 0044

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0044】計測対象点Pの三次元座標(Xp,Yp,
Zp)は三角法を用いて算出される。図7において計測
対象点Pの各撮像手段104R,104L上での結像位
置は、原点O (左対物レンズ系の中心)を基準とし
て、それぞれ(Lpx,Lpy)、(Rpx,Rpy)
として表される。但し、原点O と右対物レンズ系の中
心O のY座標は等しく、Lpy=Rpyであるため、
図7(b)では左側撮像系のみを示す。又、撮像手段1
04R及び104Lと光軸と交点をR1,L1とする。
The three-dimensional coordinates (Xp, Yp,
Zp) is calculated using trigonometry. Each imaging unit 104R of the measurement target point P in FIG. 7, the imaging position on the 104L, based on the origin O L (left center of the objective lens system), respectively (Lpx, Lpy), (Rpx , Rpy)
It is expressed as However, since the Y coordinate of the origin O L and the right objective lens system center O R of equal and are Lpy = RPy,
FIG. 7B shows only the left imaging system. Also, imaging means 1
Intersections of the optical axes 04R and 104L with the optical axis are R1 and L1.

【手続補正3】[Procedure amendment 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0049[Correction target item name] 0049

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0049】図7(a)より (A)ΔPQO ∽ΔO L1Lpx (B)ΔPO Q∽ΔO pxR1 図7(b)より (C)ΔPQO ∽ΔO L1Lpy[0049] FIG. 7 than (a) (A) ΔPQO L ∽ΔO L L1Lpx (B) ΔPO R Q∽ΔO R R px R1 FIG 7 (b) from (C) ΔPQO L ∽ΔO L L1Lpy

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0051[Correction target item name] 0051

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0051】又、図7(a)より (D)O Q+QO =D が成り立ち、図7(a)及び(b)より (E)O L1=O R1=F が成り立つ。FIG. 7A shows that (D) OL Q + QO R = D holds is, FIGS. 7 (a) and (b) from (E) O L L1 = O R R1 = F holds.

【手続補正5】[Procedure amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0057[Correction target item name] 0057

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0057】つまりXYZ座標系による値を、図11の
X’Y’Z座標系に変換する(X’は計測ラインに平行
な座標、Y’はX’とZと垂直な軸とする)。変換後の
座標値のうちX’とZを使って二次元グラフを作成す
る。S1−1で指定される計測ラインLの始点と終点を
XYZ座標系において、L (X L0 ,Y L0
F),L N−1 (X LN−1 ,Y LN−1 ,F)とす
る。
That is, the value in the XYZ coordinate system is converted to the X'Y'Z coordinate system in FIG. 11 (X 'is a coordinate parallel to the measurement line, and Y' is an axis perpendicular to X 'and Z). A two-dimensional graph is created using X ′ and Z among the coordinate values after the conversion. In the XYZ coordinate system a starting point and end point of the measurement line L specified by S1-1, L 0 (X L0, Y L0,
F), L N-1 (X LN-1 , Y LN-1 , F).

【手続補正6】[Procedure amendment 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0059[Correction target item name] 0059

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0059】このときの計測ラインLの始点と終点と
は、 L (X L0 ,Y LO ) L N−1 (X LN−1 ,Y LN−1 ) …(4) となる。
[0059] The start and end points of the measurement line L in this case, L 0 (X L0, Y LO) L N-1 (X LN-1, Y LN-1) ... a (4).

【手続補正7】[Procedure amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0060[Correction target item name] 0060

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0060】又、X軸とX’軸とのなす角θは、 cosθ=(X L0 LN−1 +Y L0 LN−1 )/{(X L0 +X LN −1 1/2+(Y L0 +Y LN−1 1/2} …(5) により求められる。求まったθを使ってXY座標系の値
をX’軸、Y’軸に変換する。
[0060] Further, the angle θ between the X-axis and the X 'axis, cosθ = (X L0 X LN -1 + Y L0 Y LN-1) / {(X L0 2 + X LN -1 2) 1/2 + (Y L0 2 + Y LN- 1 2) is obtained by 1/2} ... (5). The value of the XY coordinate system is converted into the X ′ axis and the Y ′ axis using the obtained θ.

【手続補正8】[Procedure amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0066[Correction target item name] 0066

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0066】そして、先ず、S2−1によりプロファイ
ルに表示されている計測ラインT上の任意の点Tiを指
定する。指定する手段としてはマウスなどの入力デバイ
スを用い、所望の点上にカーソルを移動して、マウスで
あれば左ボタンを押すことにより指定する。この指定し
た点(以下「指定点」と称する)をT α とする。
Then, first, an arbitrary point Ti on the measurement line T displayed in the profile is designated in S2-1. An input device such as a mouse is used as the designation means, and the cursor is moved to a desired point. If the input device is a mouse, the designation is made by pressing the left button. The specified point (hereinafter referred to as "designated point") and T α.

【手続補正9】[Procedure amendment 9]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0067[Correction target item name] 0067

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0067】S2−2により指定点T α に対する計測ラ
インL上の点(以下「計測点」と称する)を求める。点
Liの画像上の座標をLi(p ,q )とすると、T
α (0≦α≦N-1)を指定した場合の三次元位置はD α
である。この点D α に対応する計測点はL α であり、そ
の座標はL α (p α ,q α )となる。
[0067] S2-2 by determining the point on the measurement line L with respect to the specified point T α (hereinafter referred to as "measurement point"). If the coordinates of the point Li on the image are Li (p i , q i ), T
When α (0 ≦ α ≦ N-1) is specified, the three-dimensional position is D α
It is. Measurement point corresponding to the point D alpha is L alpha, its coordinates becomes L α (p α, q α ).

【手続補正10】[Procedure amendment 10]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0068[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0068】S2−3により、図13に示すように計測
ラインL上の点L α (p α ,q α )に一時マーカーを描
画し、L α に対する計測点を明示する。この場合、一時
マーカとして、図形を一定間隔でフラッシュさせても良
い。
In S2-3, as shown in FIG. 13, a temporary marker is drawn at a point L α (p α , q α ) on the measurement line L, and the measurement point for L α is specified. In this case, the graphic may be flashed at regular intervals as a temporary marker.

【手続補正11】[Procedure amendment 11]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0120[Correction target item name] 0120

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0120】先ず、S5−1において画像表示ウィンド
ウWi(i=1,2)のスクロールバーの移動を検出す
る。スクロールを検出したウィンドウを、メインウィン
ドウW α とし、非検出側のメインウィンドウをサブウィ
ンドウW β とする。又、メインウィンドウW α のスクロ
ール量をM α とする。
First, in S5-1, the movement of the scroll bar of the image display window Wi (i = 1, 2) is detected. The detected window scrolling, the main window W α, the main window of the non-detection side is set to be a sub-window W β. In addition, the scroll amount of the main window W α and M α.

【手続補正12】[Procedure amendment 12]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0122[Correction target item name] 0122

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0122】S5−3においてメインウィンドウW α
スクロール処理を行う。スクロール処理とは、スクロー
ル量に応じたスクロールバーの移動と、メインウィンド
ウW α への画像の描画を行うことを言う。
Perform the scroll processing of the main window W α in [0122] S5-3. A scroll processing refers to be carried out movement and the scroll bar in accordance with the scroll amount, the drawing of the image to the main window W α.

【手続補正13】[Procedure amendment 13]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0123[Correction target item name] 0123

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0123】そして、メインウィンドウW α のスクロー
ル後のスクロールポジションSt α を取得する。又、サ
ブウィンドウW β のスクロールポジションをSt α
(K β /K α )にセットする。
[0123] Then, to get the scroll position St α after scrolling of the main window W α. Further, the scroll position of the sub-window W β is set to St α ·
( / ).

【手続補正14】[Procedure amendment 14]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0124[Correction target item name] 0124

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0124】次いで、サブウィンドウW β のスクロール
処理を行った後、同期スクロールの処理を終了する。
[0124] Then, after the scroll processing of the sub-window W β, and ends the process of synchronization scroll.

【手続補正15】[Procedure amendment 15]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0126[Correction target item name] 0126

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0126】又、S5−2においてチェックボックスが
セットされてないと判断されて、S5−4ヘ進むと、メ
インウィンドウW α のみスクロール処理を行い、ルーチ
ンを終了する。
[0126] In addition, a check box is judged not to be set in S5-2, and advance f S5-4, performs a scroll processing only the main window W α, to end the routine.

【手続補正16】[Procedure amendment 16]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0128[Correction target item name] 0128

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0128】尚、図22に示すチェックボックスがセッ
トされたときは、スクロールバーを操作する前に、画像
ウィンドウW1,W2のうちいずれかのウィンドウをメ
インウィンドウW α として設定して、S5−3を実行
し、両ウインドウW1,W2のスクロールポジションを
一致させた後、同期スクロールへ移行させる。
[0128] Incidentally, when the check box shown in Figure 22 is set, before operating the scroll bar, and set one of the windows of the image window W1, W2 as the main window W alpha, S5-3 Is executed, and the scroll positions of both windows W1 and W2 are made to coincide with each other, and then the process proceeds to synchronous scrolling.

【手続補正17】[Procedure amendment 17]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0132[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0132】先ず、S6−1において左画像上の2点を
指定する(以下、指定点と呼ぶ)。2点の指定はマウス
などの入力デバイスを用いて行う。このとき、2点を通
る直線を計測ラインLとし、この計測ラインL上の点を
Li(i=0,…,N-1)とし、選択された2点を
α 、L β とし、その座標をL α (p α ,q α )、L β
(p β ,q β )とする。
First, in S6-1, two points on the left image are designated (hereinafter referred to as designated points). The designation of the two points is performed using an input device such as a mouse. At this time, a straight line passing through the two points is defined as a measurement line L, points on the measurement line L are defined as Li (i = 0,..., N−1), and the selected two points are defined as L α and L β. Let the coordinates be L α (p α , q α ), L β
(P β , q β ).

【手続補正18】[Procedure amendment 18]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0136[Correction target item name] 0136

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0136】S6−4において図26(a)のように計
測ラインL及び、指定点L α 、L β を通過する所定の長
さの垂直を描画する。指定点の近傍にその距離d(例え
ば、3mm)を表示する。この距離dは次式により求め
る。
In S6-4, as shown in FIG. 26A, a measurement line L and a vertical line having a predetermined length passing through the designated points L α and L β are drawn. The distance d (for example, 3 mm) is displayed near the designated point. This distance d is obtained by the following equation.

【手続補正19】[Procedure amendment 19]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0137[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0137】 d={(x β −x α +(y β −y α +(z β −z α 1/2 …(6) S6−5において、図26(a)に示すようにプロファ
イルには指定点に対応する部分T α 、T β を通過する所
定の長さの垂直線を描画し、垂直線の近傍にその間の距
離dを描画する。
[0137] d = {(x β -x α ) 2 + (y β -y α) 2 + (z β -z α) 2} in 1/2 ... (6) S6-5, FIG 26 (a) As shown in (1), a vertical line having a predetermined length passing through the portions T α and T β corresponding to the designated points is drawn on the profile, and a distance d between the vertical lines is drawn near the vertical line.

【手続補正20】[Procedure amendment 20]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0143[Correction target item name] 0143

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0143】そして、ドラッグが停止した位置での垂線
と交わる計測ラインL上の2点をそれぞれL α 、L β
して垂線間の距離d(例えば、6mm)を、(6)式で
再計算し表示する。
Then, two points on the measurement line L intersecting with the perpendicular at the position where the dragging is stopped are defined as L α and L β , respectively, and the distance d (for example, 6 mm) between the perpendiculars is recalculated by the equation (6). indicate.

【手続補正21】[Procedure amendment 21]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0146[Correction target item name] 0146

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0146】そして、垂直線と交わるプロファイルT上
の2点をそれぞれT α 、T β に対応するL α 、L β を用
いて、距離dを(6)式で再計算し表示する。これによ
り、同一の計測ラインについて計測位置の微調整が可能
となる。このとき、左画像の垂線も垂直線の位置に対応
して移動し、移動後の距離dを表示する。
Then, two points on the profile T which intersect with the vertical line are recalculated and displayed by the formula (6) using the distances L α and L β corresponding to T α and T β , respectively. This allows fine adjustment of the measurement position for the same measurement line. At this time, the vertical line of the left image also moves in accordance with the position of the vertical line, and displays the distance d after the movement.

【手続補正22】[Procedure amendment 22]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】符号の説明[Correction target item name] Explanation of sign

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【符号の説明】 101 内視鏡 104L 左撮像手段 104R 右撮像手段 120 ホストコンピュータ 130L 左画像用モニタ 130R 右画像用モニタ L 計測ライン T プロファイル L α 、L β 指定点 P 計測対象点For [Reference Numerals] 101 endoscope 104L left imaging unit 104R right imaging unit 120 the host computer 130L left image monitor 130R right image monitor L measurement line T profile L alpha, L beta designated point P measurement target point

【手続補正23】[Procedure amendment 23]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図16[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図16】 FIG. 16

【手続補正24】[Procedure amendment 24]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図21[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図21】 FIG. 21

【手続補正25】[Procedure amendment 25]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図26[Correction target item name] FIG. 26

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図26】 FIG. 26

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 G06F 15/62 390Z Fターム(参考) 2F065 AA04 AA06 AA53 BB05 CC16 DD00 DD06 FF01 FF05 FF09 JJ03 JJ05 JJ26 LL02 NN00 PP22 QQ03 QQ24 QQ36 QQ38 QQ40 SS13 UU05 2F112 AC06 BA02 BA05 CA02 CA08 DA30 FA03 FA07 FA21 FA23 FA36 FA38 FA45 2H040 BA15 BA22 GA02 GA10 GA11 4C061 AA00 AA29 BB06 CC06 DD00 HH52 HH53 LL02 LL08 MM00 NN05 NN07 TT20 WW01 WW06 WW10 WW13 WW15 WW18 WW20 YY02 5B057 AA07 BA02 BA17 BA29 CA08 CA13 CB08 CB13 CC03 CE09 CH11 DA04 DA08 DA16 DB03 DB09 DC03 DC09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) G06T 1/00 G06F 15/62 390Z F term (reference) 2F065 AA04 AA06 AA53 BB05 CC16 DD00 DD06 FF01 FF05 FF09 JJ03 JJ05 JJ26 LL02 NN00 PP22 QQ03 QQ24 QQ36 QQ38 QQ40 SS13 UU05 2F112 AC06 BA02 BA05 CA02 CA08 DA30 FA03 FA07 FA21 FA23 FA36 FA38 FA45 2H040 BA15 BA22 GA02 GA10 GA11 4C061 AA00 AA29 BB06 CC06 DD00 HH52 WW01 NN WW WW NN WW NN WW NN WW NN WW NN WW18 WW20 YY02 5B057 AA07 BA02 BA17 BA29 CA08 CA13 CB08 CB13 CC03 CE09 CH11 DA04 DA08 DA16 DB03 DB09 DC03 DC09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 被写体像を撮像する撮像手段と、 前記撮像手段から得られた複数の画像信号から、前記被
写体像の立体形状を推定する立体形状推定手段と、 前記立体形状推定手段で推定された立体形状情報に基づ
いて前記被写体像中の所定部位のプロファイル情報を作
成するプロファイル情報作成手段と、 前記プロファイル情報作成手段で作成されたプロファイ
ル情報を表示するプロファイル情報表示手段と、 前記プロファイル情報表示手段で表示されたプロファイ
ル情報と前記撮像手段から取得された撮像信号との対応
関係情報を取得する対応関係情報取得手段と、 前記対応関係情報取得情報手段で取得された対応関係情
報を表示する対応関係情報表示手段と、 を具備したことを特徴とする被写体計測表示装置。
An imaging unit configured to image a subject image; a plurality of image signals obtained from the imaging unit; a three-dimensional shape estimation unit configured to estimate a three-dimensional shape of the subject image; Profile information creating means for creating profile information of a predetermined portion in the subject image based on the obtained three-dimensional shape information; profile information display means for displaying profile information created by the profile information creating means; Correspondence information acquiring means for acquiring correspondence information between the profile information displayed by the means and the imaging signal acquired from the imaging means; correspondence for displaying the correspondence information acquired by the correspondence information acquisition information means A subject measurement display device, comprising: relation information display means.
【請求項2】 被写体像を撮像する撮像行程と、 前記撮像行程で取得された複数の画像信号から、前記被
写体像の立体形状を推定する立体形状推定行程と、 前記立体形状推定行程で推定された立体形状情報に基づ
いて前記被写体像中の所定部位のプロファイル情報を作
成するプロファイル情報作成行程と、 前記プロファイル情報作成行程で作成されたプロファイ
ル情報を表示するプロファイル情報表示行程と、 前記プロファイル情報表示行程で表示されたプロファイ
ル情報と前記撮像行程にて取得された撮像信号との対応
関係情報を取得する対応関係情報取得行程と、 前記対応関係情報取得行程で取得された対応関係情報を
表示する対応関係情報表示行程と、 を具備したことを特徴とする被写体計測表示方法。
2. An imaging process for capturing a subject image, a three-dimensional shape estimation process for estimating a three-dimensional shape of the subject image from a plurality of image signals acquired in the imaging process, and a three-dimensional shape estimation process. A profile information creating step of creating profile information of a predetermined portion in the subject image based on the obtained three-dimensional shape information; a profile information displaying step of displaying profile information created in the profile information creating step; and the profile information display. A correspondence information acquisition step of acquiring correspondence information between the profile information displayed in the step and the imaging signal acquired in the imaging step; and a correspondence displaying the correspondence information acquired in the correspondence information acquisition step. And a related information display step.
【請求項3】 被写体像を撮像する撮像手段と、 前記撮像手段で取得された複数の画像信号から、前記被
写体像の立体形状を推定する立体形状推定手段と、 前記立体形状推定手段で推定された立体形状情報に基づ
いて前記被写体像中の所定部位のプロファイル情報を作
成するプロファイル情報作成手段と、 前記プロファイル情報作成手段で作成されたプロファイ
ル情報を表示するプロファイル情報表示手段と、 前記プロファイル情報表示手段で表示されたプロファイ
ル情報と前記撮像手段から取得された撮像信号との対応
関係情報を取得する対応関係情報取得手段と、 前記プロファイル情報作成手段で表示された前記プロフ
ァイル情報上で任意の位置を指定可能な指定手段と、 前記指定手段で指定された指定情報と前記対応関係情報
取得手段で取得された対応関係情報とに基づき、前記指
定手段で指定された第1の位置情報を前記撮像信号中に
おける第2の位置情報として取得する位置情報取得手段
と、 前記位置情報取得手段で得られた第2の位置情報に基づ
き、前記撮像信号に基づき表示される被写体像上に前記
指定手段による指定位置情報を表示する指定位置情報表
示手段と、 を具備したことを特徴とする被写体計測表示装置。
3. An image pickup means for picking up an image of a subject, a three-dimensional shape estimating means for estimating a three-dimensional shape of the subject image from a plurality of image signals obtained by the image pick-up means, and an estimating means for estimating the three-dimensional shape. Profile information creating means for creating profile information of a predetermined portion in the subject image based on the obtained three-dimensional shape information; profile information display means for displaying profile information created by the profile information creating means; Correspondence information acquisition means for acquiring correspondence information between the profile information displayed by the means and the imaging signal acquired from the imaging means; and an arbitrary position on the profile information displayed by the profile information creation means. A designating means that can be designated; and a designation information designated by the designation means and a correspondence information acquisition means. A position information acquisition unit that acquires the first position information designated by the designation unit as second position information in the imaging signal based on the correspondence information acquired in the step; A designated position information display unit for displaying designated position information by the designation unit on a subject image displayed based on the image pickup signal based on the obtained second position information; Display device.
【請求項4】 被写体像を撮像する撮像行程と、 前記撮像行程で取得された複数の画像信号から、前記被
写体像の立体形状を推定する立体形状推定行程と、 前記立体形状推定行程で推定された立体形状情報に基づ
いて前記被写体像中の所定部位のプロファイル情報を作
成するプロファイル情報作成行程と、 前記プロファイル情報作成手段で作成されたプロファイ
ル情報を表示するプロファイル情報表示行程と、 前記プロファイル情報作成行程で表示されたプロファイ
ル情報と前記撮像行程で取得された撮像信号との対応関
係情報を取得する対応関係情報取得行程と、 前記プロファイル情報表示行程で表示された前記プロフ
ァイル情報上で任意の位置を指定可能な指定行程と、 前記指定手段で指定された指定情報と前記対応関係情報
取得手段で取得された対応関係情報とに基づき、前記指
定行程で指定された第1の位置情報を前記撮像信号中に
おける第2の位置情報として取得する位置情報取得行程
と、 前記位置情報取得行程で得られた第2の位置情報に基づ
き、前記撮像信号に基づき表示される被写体像上に前記
指定行程による指定位置情報を表示する指定位置情報表
示行程と、 を具備したことを特徴とする被写体計測表示方法。
4. An imaging process for imaging a subject image; a three-dimensional shape estimation process for estimating a three-dimensional shape of the subject image from a plurality of image signals acquired in the imaging process; A profile information creating step of creating profile information of a predetermined portion in the subject image based on the obtained three-dimensional shape information; a profile information displaying step of displaying profile information created by the profile information creating means; A correspondence information acquisition step of acquiring correspondence information between the profile information displayed in the process and the imaging signal acquired in the imaging step; and an arbitrary position on the profile information displayed in the profile information display step. A designation process that can be designated, designation information designated by the designation unit, and the correspondence information acquisition unit A position information acquisition step of acquiring the first position information designated in the designated step as second position information in the imaging signal, based on the correspondence information acquired in A designated position information display step of displaying designated position information by the designated step on a subject image displayed based on the image pickup signal based on the obtained second position information. Method.
JP34943499A 1999-12-08 1999-12-08 Three-dimensional measurement endoscope device, subject measurement display device, subject measurement display method of three-dimensional measurement endoscope, and subject measurement display method Expired - Fee Related JP4445622B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34943499A JP4445622B2 (en) 1999-12-08 1999-12-08 Three-dimensional measurement endoscope device, subject measurement display device, subject measurement display method of three-dimensional measurement endoscope, and subject measurement display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34943499A JP4445622B2 (en) 1999-12-08 1999-12-08 Three-dimensional measurement endoscope device, subject measurement display device, subject measurement display method of three-dimensional measurement endoscope, and subject measurement display method

Publications (3)

Publication Number Publication Date
JP2001167272A true JP2001167272A (en) 2001-06-22
JP2001167272A5 JP2001167272A5 (en) 2007-02-01
JP4445622B2 JP4445622B2 (en) 2010-04-07

Family

ID=18403728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34943499A Expired - Fee Related JP4445622B2 (en) 1999-12-08 1999-12-08 Three-dimensional measurement endoscope device, subject measurement display device, subject measurement display method of three-dimensional measurement endoscope, and subject measurement display method

Country Status (1)

Country Link
JP (1) JP4445622B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345735A (en) * 2001-05-30 2002-12-03 Olympus Optical Co Ltd Image processing measurement device and measurement endoscope
JP2003070719A (en) * 2001-08-31 2003-03-11 Olympus Optical Co Ltd Measurement endoscope
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
JP2008122759A (en) * 2006-11-14 2008-05-29 Olympus Corp Endoscopic device for measurement, program and recording medium
JP2008245838A (en) * 2007-03-29 2008-10-16 Olympus Medical Systems Corp Robotic arm system installed in endoscope apparatus
JP2008302073A (en) * 2007-06-08 2008-12-18 Olympus Corp Endoscopic image display device and endoscopic image display program
US7520854B2 (en) 2004-07-14 2009-04-21 Olympus Corporation Endoscope system allowing movement of a display image
WO2009057409A1 (en) * 2007-10-30 2009-05-07 Olympus Corporation Endoscope device
JP2011161019A (en) * 2010-02-10 2011-08-25 Olympus Corp Endoscope apparatus and program
WO2011118476A1 (en) * 2010-03-25 2011-09-29 株式会社東芝 Three dimensional distance measuring device and method
JP2012147857A (en) * 2011-01-17 2012-08-09 Olympus Medical Systems Corp Image processing apparatus
US8496575B2 (en) 2006-11-14 2013-07-30 Olympus Corporation Measuring endoscope apparatus, program and recording medium
JP2014050487A (en) * 2012-09-05 2014-03-20 Toshiba Corp Medical image processor, medical image processing method and medical image processing program
US8913110B2 (en) 2010-03-09 2014-12-16 Olympus Corporation Endoscope apparatus and measurement method
JP2016095458A (en) * 2014-11-17 2016-05-26 オリンパス株式会社 Endoscope device
JP2016161473A (en) * 2015-03-04 2016-09-05 株式会社キーエンス Optical displacement measurement system, imaging condition optimization method and imaging condition optimization program
WO2017038321A1 (en) * 2015-09-03 2017-03-09 オリンパス株式会社 Endoscope device and method for controlling display change in endoscope device
JP2020130634A (en) * 2019-02-20 2020-08-31 富士フイルム株式会社 Endoscope apparatus

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345735A (en) * 2001-05-30 2002-12-03 Olympus Optical Co Ltd Image processing measurement device and measurement endoscope
US6914623B2 (en) 2001-05-30 2005-07-05 Olympus Corporation Image processing measuring apparatus and measuring endoscope apparatus
JP2003070719A (en) * 2001-08-31 2003-03-11 Olympus Optical Co Ltd Measurement endoscope
US7520854B2 (en) 2004-07-14 2009-04-21 Olympus Corporation Endoscope system allowing movement of a display image
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
JP2008122759A (en) * 2006-11-14 2008-05-29 Olympus Corp Endoscopic device for measurement, program and recording medium
US8496575B2 (en) 2006-11-14 2013-07-30 Olympus Corporation Measuring endoscope apparatus, program and recording medium
JP2008245838A (en) * 2007-03-29 2008-10-16 Olympus Medical Systems Corp Robotic arm system installed in endoscope apparatus
JP2008302073A (en) * 2007-06-08 2008-12-18 Olympus Corp Endoscopic image display device and endoscopic image display program
US8004560B2 (en) 2007-10-30 2011-08-23 Olympus Corporation Endoscope apparatus
WO2009057409A1 (en) * 2007-10-30 2009-05-07 Olympus Corporation Endoscope device
JP2011161019A (en) * 2010-02-10 2011-08-25 Olympus Corp Endoscope apparatus and program
US8913110B2 (en) 2010-03-09 2014-12-16 Olympus Corporation Endoscope apparatus and measurement method
JP2011203108A (en) * 2010-03-25 2011-10-13 Toshiba Corp Apparatus and method for measuring three-dimensional distance
WO2011118476A1 (en) * 2010-03-25 2011-09-29 株式会社東芝 Three dimensional distance measuring device and method
US9214024B2 (en) 2010-03-25 2015-12-15 Kabushiki Kaisha Toshiba Three-dimensional distance measurement apparatus and method therefor
JP2012147857A (en) * 2011-01-17 2012-08-09 Olympus Medical Systems Corp Image processing apparatus
JP2014050487A (en) * 2012-09-05 2014-03-20 Toshiba Corp Medical image processor, medical image processing method and medical image processing program
JP2016095458A (en) * 2014-11-17 2016-05-26 オリンパス株式会社 Endoscope device
JP2016161473A (en) * 2015-03-04 2016-09-05 株式会社キーエンス Optical displacement measurement system, imaging condition optimization method and imaging condition optimization program
WO2017038321A1 (en) * 2015-09-03 2017-03-09 オリンパス株式会社 Endoscope device and method for controlling display change in endoscope device
US10419704B2 (en) 2015-09-03 2019-09-17 Olympus Corporation Endoscope device and method for controlling display change in endoscope device
JP2020130634A (en) * 2019-02-20 2020-08-31 富士フイルム株式会社 Endoscope apparatus
JP7069062B2 (en) 2019-02-20 2022-05-17 富士フイルム株式会社 Endoscope device

Also Published As

Publication number Publication date
JP4445622B2 (en) 2010-04-07

Similar Documents

Publication Publication Date Title
JP4445622B2 (en) Three-dimensional measurement endoscope device, subject measurement display device, subject measurement display method of three-dimensional measurement endoscope, and subject measurement display method
JP2001522098A (en) Image processing method and apparatus
US7232409B2 (en) Method and apparatus for displaying endoscopic images
US10600169B2 (en) Image processing system and image processing method
US7952594B2 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP5604739B2 (en) Image recognition apparatus, operation determination method, and program
JP6037683B2 (en) Measuring device, method of operating measuring device, and program
JP2001522098A5 (en)
JP6044426B2 (en) Information operation display system, display program, and display method
US8098263B2 (en) Image processing method and image processing apparatus
US20100188355A1 (en) Apparatus and method for detecting an object pointed by a user
JP2001075019A (en) Endoscope device
TW201408041A (en) Method and system for converting 2D images to 3D images and computer-readable medium
JP2002005659A (en) Measuring apparatus for stereoscopic image
JP2006329684A (en) Image measuring instrument and method
JP2778739B2 (en) Measurement endoscope device
JP7049220B2 (en) How to operate the image acquisition device and the image acquisition device
JP7341736B2 (en) Information processing device, information processing method and program
CN107884930B (en) Head-mounted device and control method
JP2014102687A (en) Information processing device, information processing system, and program
JP2019185475A (en) Specification program, specification method, and information processing device
JP2778725B2 (en) Measurement endoscope device
WO2013099305A1 (en) Endoscopic image processing device, method for setting position on endoscopic image, and recording medium
JPH11110588A (en) Three-dimensional image display
EP2762057A1 (en) Stereo endoscope apparatus and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R151 Written notification of patent or utility model registration

Ref document number: 4445622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees