JP2022073020A - 画像表示方法、表示制御装置、およびプログラム - Google Patents

画像表示方法、表示制御装置、およびプログラム Download PDF

Info

Publication number
JP2022073020A
JP2022073020A JP2020182765A JP2020182765A JP2022073020A JP 2022073020 A JP2022073020 A JP 2022073020A JP 2020182765 A JP2020182765 A JP 2020182765A JP 2020182765 A JP2020182765 A JP 2020182765A JP 2022073020 A JP2022073020 A JP 2022073020A
Authority
JP
Japan
Prior art keywords
image
reference model
point
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020182765A
Other languages
English (en)
Other versions
JP2022073020A5 (ja
Inventor
直樹 山本
Naoki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2020182765A priority Critical patent/JP2022073020A/ja
Priority to US17/510,909 priority patent/US20220136820A1/en
Publication of JP2022073020A publication Critical patent/JP2022073020A/ja
Publication of JP2022073020A5 publication Critical patent/JP2022073020A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Abstract

【課題】被写体の定量的な判断に適した画像を表示することができる画像表示方法、表示制御装置、およびプログラムを提供する。【解決手段】画像表示方法は、判断ステップ、生成ステップ、および表示ステップを有する。判断部は、前記判断ステップにおいて、2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、各点と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する。生成部は、前記生成ステップにおいて、画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせる。前記第1の点は前記条件を満たし、前記第2の点は前記条件を満たさない。表示制御部は、前記表示ステップにおいて前記画像をディスプレイに表示する。【選択図】図5

Description

本発明は、画像表示方法、表示制御装置、およびプログラムに関する。
ボイラー、パイプ、および航空機エンジン等の内部の傷および腐食等の観察および検査に工業用の内視鏡装置が使用されている。この内視鏡装置では、多様な観察物を観察および検査するための複数種類の光学アダプターが用意されている。光学アダプターは、内視鏡の先端部分に装着され、かつ交換可能である。このような内視鏡装置を使用した検査において、被写体の異常領域(欠陥または傷等)の大きさを定量的に計測したいという要望がある。この要望に応えるために、3次元計測機能が搭載された内視鏡装置が開発されている。例えば、内視鏡装置は、ユーザーによって画像上で指定された点の情報に基づいて被写体の幾何学的な大きさを計測する機能を有する。
一方、詳細な計測が実行される前にユーザーが異常領域の大きさを簡易に確認することが有効な場合がある。異常領域が非常に大きい場合、ユーザーは、検査対象物の修理が必要であると判断することができる。また、異常領域が非常に小さい場合、ユーザーは、検査対象物の使用を継続できると判断することができる。これらの場合において詳細な計測は不要である。計測モードの選択および計測位置の指定などの処理が必要であるため、詳細な計測は煩雑である。詳細な計測を省略することにより、検査の工数が削減される。ユーザーが異常領域の大きさを明確に判断できない場合に詳細な計測を実行することにより、検査の効率が向上する。
特許文献1および特許文献2は、ユーザーが画像上の被写体の大きさを目視で判断するための技術を開示している。特許文献1に開示された技術は、メッシュ状の目盛を2次元画像に重畳する機能を提供する。特許文献2に開示された技術は、1つ以上の軸によって形成された目盛を2次元画像または3次元画像に重畳する機能を提供する。
特許第4940036号公報 特許第4999046号公報
一般的に、2次元画像において、カメラの視点に近い被写体は大きく写り、カメラの視点から遠い被写体は小さく写る。透視投影を使用することにより得られた3次元画像においても、被写体の大きさは、視点と被写体との距離に依存する。
透視投影を使用することにより画像が表示された場合、視点に近い領域は相対的に大きく見え、視点から遠い領域は相対的に小さく見える。特許文献1に開示された技術および特許文献2に開示された技術において、目盛が画像に重ねられる。被写体が、視線の方向に沿った深さまたは高さを持つ領域を有する場合、その領域の大きさは、目盛が示す大きさと異なる可能性がある。したがって、ユーザーは、その領域の大きさを容易に判断することができない可能性がある。
本発明は、被写体の定量的な判断に適した画像を表示することができる画像表示方法、表示制御装置、およびプログラムを提供することを目的とする。
本発明は、判断部が、被写体の2次元画像に基づいて生成され、かつ2つ以上の点の3次元座標を含む3次元データを参照し、前記2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、前記2つ以上の点の各々と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する判断ステップと、生成部が、前記2つ以上の点と対応する2つ以上の画素を含む画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせ、前記第1の点は、前記2つ以上の点に含まれ、かつ前記条件を満たす点であり、前記第2の点は、前記2つ以上の点に含まれ、かつ前記条件を満たさない点である生成ステップと、表示制御部が、前記画像をディスプレイに表示する表示ステップと、を有する画像表示方法である。
本発明の画像表示方法において、前記判断部は、前記判断ステップにおいて、前記2つ以上の点の各々が前記基準モデルと交差するか否かを判断することにより、前記位置関係が前記条件を満たすか否かを判断する。
本発明の画像表示方法において、前記基準モデルは、2つ以上の基準図形が連続的に配置された構造を持ち、前記基準図形は、点、線、および面のいずれか1つである。
本発明の画像表示方法は、設定部が、前記基準モデルの形状、前記基準モデルの位置、前記基準モデルの方向、および前記2つ以上の基準図形の間隔の少なくとも1つを設定する設定ステップをさらに有する。
本発明の画像表示方法において、前記設定部は、前記設定ステップにおいて、前記2つ以上の点が示す3次元形状に基づいて前記方向および前記間隔の少なくとも1つを設定する。
本発明の画像表示方法は、算出部が、前記2つ以上の点が示す3次元形状の表面の法線方向を算出する方向算出ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記法線方向に基づいて前記基準モデルの前記方向を設定する。
本発明の画像表示方法は、算出部が、前記2つ以上の点が示す3次元形状の表面におけるエッジの方向を算出する方向算出ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記エッジの前記方向に基づいて前記基準モデルの前記方向を設定する。
本発明の画像表示方法は、算出部が、前記2つ以上の点が示す3次元形状の表面において細長い形状を持つ特徴領域の長手方向を算出する方向算出ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記長手方向に基づいて前記基準モデルの前記方向を設定する。
本発明の画像表示方法は、算出部が、前記2つ以上の点が示す3次元形状における特徴領域の大きさを算出する大きさ算出ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記大きさに基づいて前記間隔を設定する。
本発明の画像表示方法は、前記2つ以上の点に含まれる2つの点の各々の位置が入力装置を通して入力されたとき、受付部が前記位置を受け付ける受付ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記2つの点を通る線の方向に基づいて前記基準モデルの前記方向を設定する。
本発明の画像表示方法は、前記2つ以上の点に含まれる2つの点の各々の位置が入力装置を通して入力されたとき、受付部が前記位置を受け付ける受付ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記2つの点の間の距離に基づいて前記間隔を設定する。
本発明の画像表示方法は、前記算出部が、前記2次元画像上の点と対応する3次元空間の点と、前記2次元画像を取得したカメラとの距離を算出する距離算出ステップと、前記表示制御部が前記2次元画像および前記距離を前記ディスプレイに表示する画像表示ステップと、をさらに有し、前記算出部は、前記方向算出ステップにおいて、前記2次元画像上の前記点と対応する前記3次元形状上の点を含む領域の前記法線方向を算出する。
本発明の画像表示方法は、前記2つ以上の点に含まれる1つの点の位置が入力装置を通して入力されたとき、受付部が前記位置を受け付ける受付ステップをさらに有し、前記算出部は、前記方向算出ステップにおいて、前記受付ステップにおいて受け付けられた点を含む領域の法線方向を算出する。
本発明の画像表示方法において、前記画像は、前記2つ以上の点が示す3次元形状の画像であり、前記画像表示方法は、前記画像が前記ディスプレイに表示された後、前記表示制御部が前記基準モデルを前記ディスプレイに表示する基準モデル表示ステップと、前記ディスプレイに表示された前記基準モデルの位置、前記ディスプレイに表示された前記基準モデルの方向、および前記ディスプレイに表示された前記基準モデルの前記2つ以上の基準図形の間隔の少なくとも1つを変更する指示が入力装置を通して入力されたとき、受付部が前記指示を受け付ける受付ステップと、変更部が、前記指示に基づいて前記位置、前記方向、および前記間隔の少なくとも1つを変更する変更ステップと、をさらに有し、前記変更ステップが実行された後、前記判断ステップ、前記生成ステップ、および前記表示ステップが再度実行される。
本発明の画像表示方法において、前記画像は、前記2つ以上の点が示す3次元形状の画像であり、前記画像表示方法は、前記ディスプレイに表示された前記画像を移動させる指示が入力装置を通して入力されたとき、受付部が前記指示を受け付ける受付ステップと、変更部が、前記指示に基づいて前記2つ以上の点の前記3次元座標を変更する変更ステップと、をさらに有し、前記変更ステップが実行された後、前記判断ステップ、前記生成ステップ、および前記表示ステップが再度実行される。
本発明の画像表示方法において、前記基準モデルは、第1の方向に伸びる法線を持つ2つ以上の第1の平面、前記第1の方向と垂直な第2の方向に伸びる法線を持つ2つ以上の第2の平面、かつ前記第1の方向および前記第2の方向と垂直な第3の方向に伸びる法線を持つ2つ以上の第3の平面を含み、前記2つ以上の第1の平面は、前記第1の方向に互いに離れており、前記2つ以上の第2の平面は、前記第2の方向に互いに離れており、前記2つ以上の第3の平面は、前記第3の方向に互いに離れている。
本発明の画像表示方法において、前記基準モデルは、互いに異なる半径を持つ2つ以上の円筒面を持ち、前記2つ以上の円筒面の中心軸は互いに一致する。
本発明の画像表示方法において、前記基準モデルは、互いに異なる半径を持つ2つ以上の球面を持ち、前記2つ以上の球面の中心は互いに一致する。
本発明の画像表示方法において、前記基準モデルは、同じ点を通り、かつ3次元状に広がる2つ以上の直線を含む前記基準図形を持つ。
本発明の画像表示方法において、前記生成部は、前記生成ステップにおいて、前記第1の点と対応する前記画素の色と、前記第2の点と対応する前記画素の色とを異ならせる。
本発明の画像表示方法において、前記生成部は、前記生成ステップにおいて、前記第1の点と対応する前記画素の前記色を、基準点と前記第1の点との距離を示す色に設定する。
本発明は、被写体の2次元画像に基づいて生成され、かつ2つ以上の点の3次元座標を含む3次元データを参照し、前記2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、前記2つ以上の点の各々と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する判断部と、記2つ以上の点と対応する2つ以上の画素を含む画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせ、前記第1の点は、前記2つ以上の点に含まれ、かつ前記条件を満たす点であり、前記第2の点は、前記2つ以上の点に含まれ、かつ前記条件を満たさない点である生成部と、前記画像をディスプレイに表示する表示制御部と、を有する表示制御装置である。
本発明は、被写体の2次元画像に基づいて生成され、かつ2つ以上の点の3次元座標を含む3次元データを参照し、前記2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、前記2つ以上の点の各々と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する判断ステップと、前記2つ以上の点と対応する2つ以上の画素を含む画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせ、前記第1の点は、前記2つ以上の点に含まれ、かつ前記条件を満たす点であり、前記第2の点は、前記2つ以上の点に含まれ、かつ前記条件を満たさない点である生成ステップと、表示制御部が、前記画像をディスプレイに表示する表示ステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、画像表示方法、表示制御装置、およびプログラムは、被写体の定量的な判断に適した画像を表示することができる。
本発明の第1の実施形態による表示制御装置の構成を示すブロック図である。 本発明の第1の実施形態における基準モデルの例を示す図である。 本発明の第1の実施形態における基準モデルの例を示す図である。 本発明の第1の実施形態における基準モデルの例を示す図である。 本発明の第1の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第1の実施形態における3Dデータの点と基準モデルとの位置関係を示す図である。 本発明の第2の実施形態による内視鏡装置の全体構成を示す斜視図である。 本発明の第2の実施形態による内視鏡装置の内部構成を示すブロック図である。 本発明の第2の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第2の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第2の実施形態において表示部に表示された画像の例を示す図である。 本発明の第2の実施形態の変形例における基準モデルの例を示す図である。 本発明の第2の実施形態の変形例における基準モデルの例を示す図である。 本発明の第2の実施形態における被写体の3次元形状と基準モデルとの関係を示す図である。 本発明の第2の実施形態において生成された画像の例を示す図である。 本発明の第3の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第3の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第3の実施形態における被写体の3次元形状と基準モデルとの関係を示す図である。 本発明の第3の実施形態において表示部に表示された画像の例を示す図である。 本発明の第3の実施形態の第1の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第3の実施形態の第1の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第3の実施形態の第2の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第3の実施形態の第2の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第3の実施形態の第2の変形例において表示部に表示された画像の例を示す図である。 本発明の第3の実施形態の第2の変形例において表示部に表示された画像の例を示す図である。 本発明の第2の実施形態において生成された画像の例を示す図である。 本発明の第4の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第4の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第4の実施形態において表示部に表示された画像の例を示す図である。 本発明の第4の実施形態の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第4の実施形態の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第4の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第4の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第5の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第5の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第5の実施形態において表示部に表示された画像の例を示す図である。 本発明の第5の実施形態の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第5の実施形態の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第5の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第5の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第6の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第6の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第6の実施形態において表示部に表示された画像の例を示す図である。 本発明の第6の実施形態の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第6の実施形態の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第6の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第7の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第7の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第7の実施形態における被写体の3次元画像の例を示す図である。 本発明の第7の実施形態における被写体の3次元画像の例を示す図である。 本発明の第7の実施形態において表示部に表示された画像の例を示す図である。 本発明の第7の実施形態の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第7の実施形態の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第7の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第7の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第8の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第9の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第9の実施形態において表示部に表示された画像の例を示す図である。 本発明の第9の実施形態において表示部に表示された画像の例を示す図である。 本発明の第9の実施形態において表示部に表示された画像の例を示す図である。 本発明の第9の実施形態の変形例における画像表示処理の手順を示すフローチャートである。 本発明の第9の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第9の実施形態の変形例において表示部に表示された画像の例を示す図である。 本発明の第10の実施形態における基準モデルの例を示す図である。 本発明の第10の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第10の実施形態における画像表示処理の手順を示すフローチャートである。 本発明の第10の実施形態において表示部に表示された画像の例を示す図である。
以下、図面を参照し、本発明の実施形態を説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態による表示制御装置7の構成を示す。図1に示す表示制御装置7は、判断部70、生成部71、および表示制御部72を有する。
判断部70は、被写体の2次元画像(2D画像)に基づいて生成され、かつ2つ以上の点の3次元座標(3D座標)を含む3次元データ(3Dデータ)を参照する。判断部70は、上記の2つ以上の点を含む3次元空間(3D空間)において2次元状または3次元状に広がる図形を示す基準モデルを参照する。判断部70は、2つ以上の点の各々と基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する(判断ステップ)。生成部71は、上記の2つ以上の点と対応する2つ以上の画素を含む画像を生成する(生成ステップ)。生成部71は、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせる(生成ステップ)。第1の点は、上記の2つ以上の点に含まれ、かつ上記の条件を満たす点である。第2の点は、上記の2つ以上の点に含まれ、かつ上記の条件を満たさない点である。表示制御部72は、生成された画像をディスプレイに表示する(表示ステップ)。
図1に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。図1に示す各部は、1つまたは複数のプロセッサを含むことができる。図1に示す各部は、1つまたは複数の論理回路を含むことができる。
表示制御装置7のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、判断部70、生成部71、および表示制御部72の動作を規定する命令を含む。つまり、判断部70、生成部71、および表示制御部72の機能はソフトウェアにより実現されてもよい。
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により表示制御装置7に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
3Dデータは、2つ以上の点の3D座標を含む。3Dデータは、3つ以上の点の3D座標を含んでもよい。3Dデータは、各点のX座標、Y座標、およびZ座標を含む。例えば、X軸およびY軸は、2D画像を取得したカメラの光学系の光軸と垂直である。例えば、Z軸は、その光軸と平行である。以下では、3Dデータに含まれる3D座標を持つ2つ以上の点を、3Dデータに含まれる2つ以上の点と呼ぶ。
3Dデータは、1枚以上の2D画像を使用することにより生成される。例えば、structure from motionと呼ばれる技術を使用することにより、3Dデータを生成することができる。3Dデータは、ステレオ画像を使用することにより生成されてもよい。ステレオ画像は、第1の視点から見た被写体の2D画像と、第1の視点と異なる第2の視点から見た被写体の2D画像とを含む。3Dデータは、明部および暗部を持つパターン光が被写体に投影されたときに取得された2枚以上の2D画像を使用することにより生成されてもよい。3Dデータは、特殊な光が被写体に投影されたときに取得された1枚以上の2D画像を使用することにより生成されてもよい。1枚以上の2D画像を使用することにより3Dデータが生成される限り、3Dデータを生成する方法は上記の例に限らない。
基準モデルは3D空間において定義され、かつ基準モデルの少なくとも一部は規則性を持つ。例えば、基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。基準図形は、点、線、および面のいずれか1つである。基準図形がX軸、Y軸、またはZ軸と平行である必要はない。基準モデルは、2つ以上の第1の基準図形および2つ以上の第2の基準図形を含んでもよい。第1の基準図形および第2の基準図形は、互いに異なる。
図2は、基準モデルの例を示す。図2に示す例では、線が、基準モデルを形成する基準図形である。図2に示す基準モデルMD1は、直線である線分が繰り返し配置された構造を持つ。基準モデルMD1において、X軸と平行な線分LX1がY方向およびZ方向に周期的に配置され、Y軸と平行な線分LY1がX方向およびZ方向に周期的に配置され、Z軸と平行な線分LZ1がX方向およびY方向に周期的に配置されている。線分LX1、線分LY1、および線分LZ1は基準図形である。
基準モデルMD1は、4本以上の線分LX1、4本以上の線分LY1、および4本以上の線分LZ1を有する。4本以上の線分LX1は互いに平行であり、4本以上の線分LY1は互いに平行であり、4本以上の線分LZ1は互いに平行である。線分LX1、線分LY1、および線分LZ1の各々は所定の太さを持ってもよい。基準モデルMD1は、3次元状に広がる。
線分LX1は等間隔に配置され、線分LY1は等間隔に配置され、線分LZ1は等間隔に配置されている。基準モデルMD1は、立方体の辺のみが繰り返し配置された構造を持つ。線分LX1の間隔と、線分LY1の間隔と、線分LZ1の間隔とは互いに等しい。線分LX1の間隔と、線分LY1の間隔とが異なっていてもよい。線分LY1の間隔と、線分LZ1の間隔とが異なっていてもよい。線分LZ1の間隔と、線分LX1の間隔とが異なっていてもよい。したがって、基準モデルMD1は、直方体の辺のみが繰り返し配置された構造を持ってもよい。
線分LX1の間隔が均等である必要はない。例えば、所定位置と線分LX1との距離が大きくなるに従い、線分LX1の間隔が徐々に大きくなってもよい、または徐々に小さくなってもよい。線分LX1の間隔は、所定位置と線分LX1との距離と対応する対数に基づいて変化してもよい。同様に、線分LY1の間隔が均等である必要はなく、かつ線分LZ1の間隔が均等である必要はない。
基準モデルは、2つ以上の第1の平面、2つ以上の第2の平面、および2つ以上の第3の平面を含んでもよい。第1の平面は、第1の方向に伸びる法線を持ってもよい。第2の平面は、第1の方向と垂直な第2の方向に伸びる法線を持ってもよい。第3の平面は、第1の方向および第2の方向と垂直な第3の方向に伸びる法線を持ってもよい。2つ以上の第1の平面は、第1の方向に互いに離れていてもよい。2つ以上の第2の平面は、第2の方向に互いに離れていてもよい。2つ以上の第3の平面は、第3の方向に互いに離れていてもよい。
図3は、基準モデルの他の例を示す。図3に示す例では、平面が基準図形である。図3に示す基準モデルMD2は、平面が繰り返し配置された構造を持つ。基準モデルMD2において、X方向に伸びる法線L1を持つ平面SX1がX方向に周期的に配置され、Y方向に伸びる法線L2を持つ平面SY1がY方向に周期的に配置され、Z方向に伸びる法線L3を持つ平面SZ1がZ方向に周期的に配置されている。平面SX1は、YZ平面と平行である。平面SY1は、XZ平面と平行である。平面SZ1は、XY平面と平行である。平面SX1、平面SY1、および平面SZ1は基準図形である。例えば、X方向が第1の方向であり、Y方向が第2の方向であり、Z方向が第3の方向である。
基準モデルMD2は、2つ以上の平面SX1、2つ以上の平面SY1、および2つ以上の平面SZ1を有する。2つ以上の平面SX1は互いに平行であり、2つ以上の平面SY1は互いに平行であり、2つ以上の平面SZ1は互いに平行である。平面SX1、平面SY1、および平面SZ1の各々は所定の厚さを持ってもよい。基準モデルMD2は、3次元状に広がる。
平面SX1は等間隔に配置され、平面SY1は等間隔に配置され、平面SZ1は等間隔に配置されている。基準モデルMD2は、立方体が繰り返し配置された構造を持つ。平面SX1の間隔と、平面SY1の間隔と、平面SZ1の間隔とは互いに等しい。平面SX1の間隔と、平面SY1の間隔とが異なっていてもよい。平面SY1の間隔と、平面SZ1の間隔とが異なっていてもよい。平面SZ1の間隔と、平面SX1の間隔とが異なっていてもよい。したがって、基準モデルMD2は、直方体が繰り返し配置された構造を持ってもよい。
平面SX1の間隔が均等である必要はない。例えば、所定位置と平面SX1との距離が大きくなるに従い、平面SX1の間隔が徐々に大きくなってもよい、または徐々に小さくなってもよい。平面SX1の間隔は、所定位置と平面SX1との距離と対応する対数に基づいて変化してもよい。同様に、平面SY1の間隔が均等である必要はなく、かつ平面SZ1の間隔が均等である必要はない。
図4は、基準モデルの他の例を示す。図4に示す例では、点が基準図形である。図4に示す基準モデルMD3は、点が繰り返し配置された構造を持つ。基準モデルMD3において、点PT1がX方向、Y方向、およびZ方向の各々に周期的に配置されている。基準モデルMD3は、3次元状に広がる4つ以上の点PT1を有する。点PT1は、所定の半径を持つ球であってもよい。
基準モデルが3次元状に広がる例では、基準モデルを形成する2つ以上の基準図形の全てを含む平面は存在しない。
基準モデルは2次元状に広がってもよい。例えば、基準モデルは、1つの平面内に配置された2つ以上の線または3つ以上の点を有してもよい。1つの平面が基準モデルを形成してもよい。基準モデルが2次元状に広がる例では、基準モデルを形成する2つ以上の基準図形の全てを含む平面が存在する。
図5を使用して、第1の実施形態における画像表示処理について説明する。図5は、画像表示処理の手順を示す。
判断部70は、3Dデータおよび基準モデルを参照し、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する(ステップS1)。ステップS1は、判断ステップと対応する。
図6は、3D空間における3Dデータの点と基準モデルとの位置関係を示す。図6において、点P1、点P2、および基準モデルMD4が示されている。基準モデルMD4は、立方体の12本の辺によって形成されている。3Dデータは、点P1および点P2の各々の3D座標を含む。点P1は基準モデルMD4上にある。点P2は基準モデルMD4上にない。
例えば、位置関係の条件は、点と基準モデルとの距離に関する。例えば、その条件は、点が基準モデルと重なることを示す。
例えば、判断部70は、ステップS1において、3Dデータに含まれる2つ以上の点の各々が基準モデルと交差するか否かを判断する。図6に示す例では、判断部70は、点P1が基準モデルと交差し、かつ点P2が基準モデルと交差しないと判断する。
ステップS1の後、生成部71は、3Dデータに含まれる2つ以上の点と対応する2つ以上の画素を含む画像を生成する。その2つ以上の点は、位置関係の条件を満たす第1の点と、その条件を満たさない第2の点とに分類される。生成部71は、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせる(ステップS2)。ステップS2は、生成ステップと対応する。
図6に示す例では、点P1は第1の点であり、かつ点P2は第2の点である。生成部71は、ステップS2において、各画素のカラーデータを含む画像を生成する。その画像の各画素は、3Dデータに含まれる3D座標と関連付けられている。例えば、生成部71は、第1の点と対応する画素の色を第1の色に設定し、かつ第2の点と対応する画素の色を第1の色と異なる第2の色に設定する。この場合、画素の表示状態は色と対応する。
1つの画素が3D空間の各点と対応する必要はない。2つ以上の画素を含む領域が3D空間の各点と対応してもよい。第1の点の近傍にある第2の点と対応する画素の表示状態が、第1の点と対応する画素の表示状態と同じであってもよい。
画素の表示状態は色に限らない。例えば、生成部71は、第1の点と対応する画素を含む領域に、所定の形状を持つマーク等を重畳してもよい。3Dデータに含まれる2つ以上の点が点群として表示される場合、生成部71は、第1の点の大きさと第2の点の大きさとを異ならせてもよい。ユーザーが第1の点と対応する画素と、第2の点と対応する画素とを区別できる限り、画素の表示状態は上記の例に限らない。
例えば、生成部71は、ステップS2において、3Dデータを表示するための3次元画像(3D画像)を生成する。3D画像は、3Dデータが示す3次元形状(3D形状)の画像である。3D画像は、所定の視点から所定の視線方向に見た被写体の3D形状を示す。
3Dデータは、3Dデータを生成するために使用された1枚以上の2D画像の各々に含まれる点の2D座標を含んでもよい。3Dデータにおいて3D座標および2D座標が互いに関連付けられてもよい。3Dデータにおいて3D座標および2D座標は、その2D座標が含まれる2D画像と関連付けられてもよい。1枚以上の2D画像は、3Dデータにおける第1の点の3D座標と関連付けられた2D座標を持つ第1の画素を含む。また、1枚以上の2D画像は、3Dデータにおける第2の点の3D座標と関連付けられた2D座標を持つ第2の画素を含む。生成部71は、ステップS2において、1枚以上の2D画像における第1の画素の表示状態と、その2D画像における第2の画素の表示状態とを異ならせることにより2D画像を生成してもよい。
生成部71は、ステップS2において3D画像のみを生成してもよい。生成部71は、ステップS2において2D画像のみを生成してもよい。生成部71は、ステップS2において3D画像および2D画像を生成してもよい。
ステップS2の後、表示制御部72は、ステップS2において生成された画像をディスプレイに出力し、その画像をディスプレイに表示する(ステップS3)。ステップS3は、表示ステップと対応する。
生成部71がステップS2において3D画像のみを生成した場合、表示制御部72はステップS3においてその3D画像をディスプレイに表示する。生成部71がステップS2において2D画像のみを生成した場合、表示制御部72はステップS3においてその2D画像をディスプレイに表示する。生成部71がステップS2において3D画像および2D画像を生成した場合、表示制御部72はステップS3においてその3D画像およびその2D画像の少なくとも一方をディスプレイに表示する。
ディスプレイに表示された画像において、第1の点と対応する画素の表示形態と、第2の点と対応する画素の表示形態とが互いに異なる。そのため、ユーザーは、第1の点と対応する被写体の位置と、第2の点と対応する被写体の位置とを区別することができる。第1の点と基準モデルとの位置関係は、予め設定された条件を満たす。第1の点と対応する画素の集合は、スケールまたはガイドとして機能する。そのため、ユーザーは、第1の点の位置に基づいて、被写体における領域の大きさを容易に判断することができる。
本発明の各態様の表示制御方法は、判断ステップ(ステップS1)、生成ステップ(ステップS2)、および表示ステップ(ステップS3)を有する。
本発明の各態様は次の変形例を含んでもよい。生成部71は、生成ステップ(ステップS2)において、第1の点と対応する画素の色と、第2の点と対応する画素の色とを異ならせる。
第1の実施形態において、判断部70は、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係を判断する。生成部71は、第1の点と対応する画素と、第2の点と対応する画素とを含む画像を生成し、表示制御部72はその画像をディスプレイに表示する。第1の点は位置関係の条件を満たし、第2の点はその条件を満たさない。第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とは互いに異なる。これにより、表示制御装置7は、被写体の定量的な判断に適した画像を表示することができる。
(第2の実施形態)
本発明の第2の実施形態を説明する。以下では、表示制御装置が内視鏡装置である例を説明する。表示制御装置は、第1の実施形態に示される機能を有する装置でありさえすればよく、内視鏡装置に限らない。表示制御装置は、特定の装置またはシステムに実装された組み込み機器であってもよい。表示制御装置は、クラウド上の環境であってもよい。被写体は、工業製品である。
図7は、第2の実施形態による内視鏡装置1の外観を示す。図8は、内視鏡装置1の内部構成を示す。内視鏡装置1は、被写体を撮像し、画像を生成する。検査者は、種々の被写体の観察を実施するために、挿入部2の先端に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。
図7に示す内視鏡装置1は、挿入部2、本体部3、操作部4、および表示部5を有する。
挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被写体を撮像し、かつ撮像信号を本体部3に出力する。挿入部2の先端20には、光学アダプターが装着される。本体部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2で取得された被写体の画像および操作メニュー等を表示画面に表示する。
操作部4は、ユーザーインタフェース(入力装置)である。例えば、操作部4は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。ユーザーは、体の一部(例えば、指)または道具を使用することにより表示部5の画面をタッチする。
図8に示す本体部3は、内視鏡ユニット8、CCU(Camera Control Unit)9、および制御装置10を有する。内視鏡ユニット8は、図示していない光源装置および湾曲装置を有する。光源装置は、観察に必要な照明光を供給する。湾曲装置は、挿入部2に内蔵された湾曲機構を湾曲させる。挿入部2の先端20には撮像素子28が内蔵されている。撮像素子28は、イメージセンサである。撮像素子28は、光学アダプターによって形成された被写体の光学像を光電変換し、かつ撮像信号を生成する。CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を施す。CCU9は、前処理が施された撮像信号をNTSC信号等の映像信号に変換する。
制御装置10は、映像信号処理回路12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カードインタフェース15、外部機器インタフェース16、制御インタフェース17、およびCPU(Central Processing Unit)18を有する。
映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、視認性向上に関わる映像処理を実行する。例えば、その映像処理は、色再現、階調補正、ノイズ抑制、および輪郭強調などである。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18によって生成されたグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像、3D画像、および計測情報等を含む。計測情報は、計測結果等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。また、映像信号処理回路12は、CCU9から出力された映像信号に基づく画像データをCPU18に出力する。
ROM13は、CPU18が内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18が内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18は、ROM13に記録されたプログラムに基づいて内視鏡装置1の動作を制御する。
着脱可能な記録媒体であるメモリカード42がカードインタフェース15に接続される。カードインタフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御装置10に取り込む。また、カードインタフェース15は、内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
USB機器等の外部機器が外部機器インタフェース16に接続される。例えば、パーソナルコンピュータ(PC)41が外部機器インタフェース16に接続される。外部機器インタフェース16は、PC41へ情報を送信し、かつPC41から情報を受信する。これによって、PC41のモニタが情報を表示することができる。また、ユーザーは、PC41に指示を入力することにより、内視鏡装置1の制御に関する操作を実施することができる。
制御インタフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を実行する。制御インタフェース17は、ユーザーによって操作部4に入力された指示をCPU18に通知する。制御インタフェース17は、光源装置および湾曲装置を制御するための制御信号を内視鏡ユニット8に出力する。制御インタフェース17は、撮像素子28を制御するための制御信号をCCU9に出力する。
CPU18が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、PC41がプログラムを読み込んで実行してもよい。PC41は、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信することにより内視鏡装置1を制御してもよい。あるいは、PC41は、内視鏡装置1から映像信号を取得し、かつ取得された映像信号を処理してもよい。
上記のように、内視鏡装置1は、撮像素子28およびCPU18を有する。撮像素子28は、被写体を撮像し、かつ撮像信号を生成する。撮像信号は、被写体の画像を含む。したがって、撮像素子28は、被写体を撮像することにより生成された、その被写体の画像を取得する。撮像素子28によって取得された画像は映像信号処理回路12を経由してCPU18に入力される。
撮像素子28は、被写体の画像を取得する画像取得部の機能を有する。画像取得部は、画像入力装置であってもよい。例えば、PC41が表示制御装置として動作する場合、画像取得部は、内視鏡装置1と通信を実行する通信インタフェース(通信機)である。画像取得部は無線通信機であってもよい。画像取得部は、画像が記録された記録媒体から画像を読み出す読み出し回路であってもよい。
図9は、CPU18の機能構成を示す。CPU18の機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、および情報受付部185を含む。図9に示すブロックの少なくとも1つがCPU18と異なる回路で構成されてもよい。
図9に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図9に示す各部は、1つまたは複数のプロセッサを含むことができる。図9に示す各部は、1つまたは複数の論理回路を含むことができる。
制御部180は、被写体の2D画像(画像データ)を映像信号処理回路12から取得し、かつ図9に示す各部が実行する処理を制御する。
座標算出部181は、被写体の1枚以上の2D画像に基づいて被写体上の2つ以上の点の3D座標を算出し、かつその2つ以上の点の3D座標を含む3Dデータを生成する。例えば、3Dデータは、点群データ、サーフェースデータ、またはボリュームデータである。
判断部182は、図1に示す判断部70の機能を持つ。判断部182は、3Dデータおよび基準モデルを参照し、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する(判断ステップ)。例えば、基準モデルは、基準図形の配置状態を示すパラメータを含み、予めRAM14に記憶されている。例えば、位置関係の条件は、予めRAM14に記憶されている。判断部182は、第1の実施形態に示される方法と同じ方法で判断を実行することができる。
画像生成部183は、図1に示す生成部71の機能を持つ。画像生成部183は、3Dデータに含まれる2つ以上の点と対応する2つ以上の画素を含む画像を生成する(生成ステップ)。画像生成部183は、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせる(生成ステップ)。画像生成部183は、3D画像および2D画像の少なくとも一方を生成する。画像生成部183は、第1の実施形態に示される方法と同じ方法で画像を生成することができる。
表示制御部184は、図1に示す表示制御部72の機能を持つ。表示制御部184は、画像生成部183によって生成された画像を表示部5に出力し、その画像を表示部5に表示する(表示ステップ)。
例えば、表示制御部184は、3D映像信号または2D映像信号を、映像信号処理回路12を経由して表示部5へ出力する。3D映像信号は、画像生成部183によって生成された3D画像の各画素のカラーデータを含む。2D映像信号は、画像生成部183によって生成された2D画像の各画素のカラーデータを含む。
表示制御部184は、3D映像信号または2D映像信号を映像信号処理回路12に出力する。表示制御部184は、映像信号処理回路12によって実行される処理を制御する。映像信号処理回路12は、3D映像信号または2D映像信号を表示部5に出力する。表示部5は、映像信号処理回路12から出力された3D映像信号に基づいて3D画像を表示する。あるいは、表示部5は、映像信号処理回路12から出力された2D映像信号に基づいて2D画像を表示する。
表示制御部184は、映像信号処理回路12に、CCU9から出力された映像信号を表示部5に出力させる。これにより、表示制御部184は、撮像素子28によって生成された2D画像をライブ画像として表示部5に表示する。
表示制御部184は、各種情報を表示部5に表示する。つまり、表示制御部184は、画像上に各種情報を表示する。各種情報は、計測結果等を含む。各種情報は、カーソルを含んでもよい。カーソルは、ユーザーが画像上の特定の点を指定するためのマークである。
例えば、表示制御部184は、各種情報のグラフィック画像信号を生成する。表示制御部184は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18から出力されたグラフィック画像信号とを合成する。これにより、各種情報が画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、各種情報が重畳された画像を表示する。
ユーザーは、操作部4を操作することにより、各種情報を内視鏡装置1に入力する。操作部4は、ユーザーによって入力された情報を出力する。その情報は、入力部である制御インタフェース17に入力される。その情報は、制御インタフェース17からCPU18に出力される。情報受付部185は、操作部4を経由して内視鏡装置1に入力された情報を受け付ける。
例えば、ユーザーは、操作部4を操作することにより、カーソルの位置情報を内視鏡装置1に入力する。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより画像上の位置を示す位置情報を内視鏡装置1に入力する。情報受付部185は、内視鏡装置1に入力された位置情報を受け付ける。情報受付部185は、位置情報に基づいて画像上の位置を算出する。表示制御部184は、情報受付部185によって算出された位置にカーソルを表示する。
図10を使用することにより、第2の実施形態における画像表示処理について説明する。図10は、画像表示処理の手順を示す。
撮像素子28は、連続的に撮像信号を生成する。つまり、撮像素子28は、ライブ画像と対応する各フレームの撮像信号を生成する。表示制御部184は、映像信号処理回路12を制御することによりライブ画像を表示部5に表示する(ステップS101)。ライブ画像は被写体の2D画像であり、所定のフレームレートで順次更新される。つまり、ライブ画像は動画である。
ライブ画像が表示部5に表示されている間、ユーザーはライブ画像を観察する。被写体において傷などの領域が発見された場合、ユーザーは、操作部4を操作することにより、フリーズ指示を内視鏡装置1に入力する。情報受付部185は、フリーズ指示を受け付ける(ステップS102)。
ステップS102の後、表示制御部184は、映像信号処理回路12を制御することによりフリーズ画像を表示部5に表示する(ステップS103)。フリーズ画像は被写体の2D画像であり、1フレームの撮像信号と対応する。つまり、フリーズ画像は静止画である。
ステップS103の後、座標算出部181は、被写体の1枚以上の2D画像に基づいて被写体上の2つ以上の点の3D座標を算出し、かつその2つ以上の点の3D座標を含む3Dデータを生成する(ステップS104)。例えば、座標算出部181は、第1の画像および第2の画像を含むステレオ画像を使用する。例えば、フリーズ画像は第1の画像である。座標算出部181は、第1の画像および第2の画像を使用し、かつ三角測量の原理に基づいて3Dデータを生成する。
ステップS104の後、判断部182は、3Dデータおよび基準モデルを参照し、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する(ステップS105)。ステップS105は、判断ステップと対応する。
例えば、判断部182は、ステップS105において以下の処理を実行する。以下の例では、基準モデルは、図3に示す基準モデルMD2と同様に、基準図形である平面が繰り返し配置された構造を持つ。その平面は、所定の厚さを持つ。判断部182は、3Dデータに含まれる各点の3D座標を使用し、以下の判断を実行する。
判断部182は、X座標の絶対値を所定の値Dxで割り、かつ割り算の余りを算出する。値Dxは、X軸と垂直な平面の間隔と対応する。判断部182は、算出された余りが所定の閾値以下であるか否かを判断する。余りが閾値以下である場合、被写体の点は、X軸と垂直な平面上にある。
判断部182は、Y座標の絶対値を所定の値Dyで割り、かつ割り算の余りを算出する。値Dyは、Y軸と垂直な平面の間隔と対応する。値Dyは、値Dxと同じであってもよい。判断部182は、算出された余りが所定の閾値以下であるか否かを判断する。余りが閾値以下である場合、被写体の点は、Y軸と垂直な平面上にある。
判断部182は、Z座標の絶対値を所定の値Dzで割り、かつ割り算の余りを算出する。値Dzは、Z軸と垂直な平面の間隔と対応する。値Dzは、値Dxまたは値Dyと同じであってもよい。判断部182は、算出された余りが所定の閾値以下であるか否かを判断する。余りが閾値以下である場合、被写体の点は、Z軸と垂直な平面上にある。
判断部182は、上記の処理を実行することにより、被写体の点が基準モデル上にあるか否かを判断する。つまり、判断部182は、被写体の点が基準モデルと交差するか否かを判断する。上記の例では、位置関係の条件は、X座標、Y座標、またはZ座標に関する割り算の余りが閾値以下であることを示す。
判断部182は、X座標、Y座標、およびZ座標の一部のみに基づいて上記の判断を実行してもよい。例えば、判断部182は、X座標およびY座標のみに基づいて上記の判断を実行してもよい。したがって、正射影を使用することにより画像が表示される場合においても判断部182は、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係を判断することができる。
上記の例において、基準図形は、厚さを持たない平面であってもよい。判断部182は、上記の処理と同様の処理を実行することにより、被写体の点が基準モデル上または基準モデルの近傍にあるか否かを判断してもよい。算出された余りが0である場合、その点は基準モデル上にある。算出された余りが0よりも大きく、かつ閾値以下である場合、その点は基準モデルの近傍にある。
ステップS105の後、画像生成部183は、ステップS105において判断された位置関係に応じた色を持つ3D画像を生成する(ステップS106)。ステップS106は、生成ステップと対応する。
例えば、画像生成部183は、ステップS106において以下の処理を実行することにより、3D画像の各画素における画素値(R,G,B)を設定する。画素値(R,G,B)は、赤と対応する画素値Rと、緑と対応する画素値Gと、青と対応する画素値Bとを含む。X座標に関する割り算の余りのみが閾値以下である場合、画像生成部183は、画素値Rを255に設定し、画素値Gを0に設定し、画素値Bを0に設定する。Y座標に関する割り算の余りのみが閾値以下である場合、画像生成部183は、画素値Rを0に設定し、画素値Gを255に設定し、画素値Bを0に設定する。Z座標に関する割り算の余りのみが閾値以下である場合、画像生成部183は、画素値Rを0に設定し、画素値Gを0に設定し、画素値Bを255に設定する。
X座標に関する割り算の余りと、Y座標に関する割り算の余りとが閾値以下であり、かつZ座標に関する割り算の余りが閾値を超える場合、画像生成部183は、画素値Rおよび画素値Gを255に設定し、画素値Bを0に設定する。Y座標に関する割り算の余りと、Z座標に関する割り算の余りとが閾値以下であり、かつX座標に関する割り算の余りが閾値を超える場合、画像生成部183は、画素値Gおよび画素値Bを255に設定し、画素値Rを0に設定する。Z座標に関する割り算の余りと、X座標に関する割り算の余りとが閾値以下であり、かつY座標に関する割り算の余りが閾値を超える場合、画像生成部183は、画素値Bおよび画素値Rを255に設定し、画素値Gを0に設定する。X座標に関する割り算の余りと、Y座標に関する割り算の余りと、Z座標に関する割り算の余りとが閾値以下である場合、画像生成部183は、画素値R、画素値G、および画素値Bを255に設定する。
X座標に関する割り算の余りと、Y座標に関する割り算の余りと、Z座標に関する割り算の余りとが閾値を超える場合、画像生成部183は、以下の方法を使用することにより画素値(R,G,B)を設定する。3Dデータに含まれる3D座標は、3Dデータを生成するために使用された2D画像における2D座標と関連付けられている。つまり、3Dデータに含まれる各点は、2D画像の画素と関連付けられている。画像生成部183は、3D画像の各点と対応する画素値(R,G,B)を、その点の3D座標と関連付けられた2D座標における画素値に設定する。
X座標、Y座標、およびZ座標の少なくとも1つに関する割り算の余りが閾値以下である場合、そのX座標、そのY座標、およびそのZ座標を持つ点は第1の点である。X座標、Y座標、およびZ座標の各々に関する割り算の余りが閾値を超える場合、そのX座標、そのY座標、およびそのZ座標を持つ点は第2の点である。
画像生成部183は、上記の処理を実行することにより、基準モデル上の点と対応する画素を目立たせることができる。
画像生成部183は、ステップS105において判断された位置関係に応じた色を持つ2D画像を生成してもよい。その場合、画像生成部183は、その位置関係に基づいて2D画像の各画素における画素値(R,G,B)を変更する。画像生成部183は、映像信号処理回路12から取得された2D画像を使用することにより以下の処理を実行する。
例えば、X座標に関する割り算の余りが閾値以下である場合、画像生成部183は、そのX座標を含む3D座標と関連付けられた2D座標における画素値Rを255に変更する。Y座標に関する割り算の余りが閾値以下である場合、画像生成部183は、そのY座標を含む3D座標と関連付けられた2D座標における画素値Gを255に変更する。Z座標に関する割り算の余りが閾値以下である場合、画像生成部183は、そのZ座標を含む3D座標と関連付けられた2D座標における画素値Bを255に変更する。
ステップS106の後、表示制御部184は、ステップS106において生成された3D画像を表示部5に表示する(ステップS107)。ステップS107は、表示ステップと対応する。画像生成部183がステップS106において2D画像を生成した場合、表示制御部184は、ステップS107においてその2D画像を表示してもよい。表示制御部184は、ステップS107においてフリーズ画像と3D画像とを表示してもよい。表示制御部184は、ステップS107において、フリーズ画像を表示せず、かつ3D画像を表示してもよい。ステップS107が実行されたとき、画像表示処理が終了する。
図11は、ステップS107において表示部5に表示された画像の例を示す。表示制御部184は、3D画像G11および3D画像G12を表示部5に表示する。3D画像G11は、Z軸と平行な方向に見た被写体OB11の3D画像である。3D画像G12は、X軸と平行な方向に見た被写体OB11の3D画像である。被写体OB11は、領域R11および領域R12を有する。領域R11は、深さを持つ凹部である。領域R12は、被写体OB11の表面に形成された傷である。
3D画像G11および3D画像G12は、画素群PG11を含む。画素群PG11は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG11以外の画素は、基準モデルと交差しない第2の点と対応する。図11に示す例では、基準モデルを形成する基準図形は、厚さを持つ平面である。その平面と被写体OB11の表面とが交差する領域は線状である。3D画像G11において画素群PG11は、主に方向DR11に伸びる2つ以上の線上の画素と、主に方向DR11にほぼ垂直な方向DR12に伸びる2つ以上の線上の画素とを含む。同様に、3D画像G12において画素群PG11は、2つの方向の各々に伸びる線上の画素を含む。被写体OB11の平坦な表面において、画素群PG11は格子状(メッシュ状)に配置されている。
例えば、基準図形である2つ以上の線の間隔は3mmである。例えば、その線の幅は0.05mmである。ユーザーは、画素群PG11の位置を参照することにより、傷などの領域の大きさを容易に判断することができる。
表示制御部184は、3D画像G11および3D画像G12のいずれか一方を表示部5に表示してもよい。表示制御部184は、第1の状態および第2の状態を切り替えてもよい。第1の状態において、3D画像G11が表示部5に表示される。第2の状態において、3D画像G12が表示部5に表示される。
深さを持つ領域R11における画素群PG11の2つ以上の線の間隔INT11は、被写体OB11の最も広い領域における画素群PG11の2つ以上の線の間隔INT12よりも小さい。画素群PG11によって形成された目盛は、被写体OB11における領域の実際の大きさを示す。そのため、ユーザーは、被写体OB11における領域の大きさを定量的に判断することができる。
3D画像G11または3D画像G12の視点を変更する指示が操作部4を通して入力された場合、画像生成部183は、変更された視点から見た被写体の新たな3D画像を生成してもよい。表示制御部184は、3D画像G11または3D画像G12の代わりにその新たな3D画像を表示部5に表示してもよい。
第2の実施形態において、判断部182は、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係を判断する。画像生成部183は、第1の点と対応する画素と、第2の点と対応する画素とを含む画像を生成し、表示制御部184はその画像を表示部5に表示する。第1の点は位置関係の条件を満たし、第2の点はその条件を満たさない。第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とは互いに異なる。これにより、内視鏡装置1は、被写体の定量的な判断に適した画像を表示することができる。
ユーザーは、表示部5に表示された画像に基づいて被写体における領域の大きさを判断することができる。例えば、詳細な計測が実行される前にユーザーは異常領域の大きさを簡易に確認することができる。検査対象物の修理が必要である、または検査対象物の使用を継続できるとユーザーが判断できる場合、詳細な計測は不要である。そのため、検査の工数が削減される。
ユーザーは、画像における領域の位置によらずに、その領域の大きさを簡易に判断することができる。そのため、その領域が画像の中央に表示されるように視点を変更するための操作の負担は軽減される。ユーザーは、被写体の平坦な表面における領域の大きさに加えて、深さまたは高さを持つ領域の大きさを判断することができる。
制御部180は、画像生成部183によって生成された画像をメモリカード42等に記録してもよい。これにより、内視鏡装置1は、定量的な判断の証拠を記録することができる。
ライブ画像が更新される度にステップS104からステップS107が実行されてもよい。その場合、ユーザーは、被写体における領域の大きさを迅速に判断することができる。
(第2の実施形態の変形例)
本発明の第2の実施形態の変形例を説明する。以下では、基準モデルの形状の他の例を説明する。
図12は、基準モデルの例を示す。図12に示す例では、曲面が、基準モデルを形成する基準図形である。図12に示す基準モデルMD11は、円筒面が繰り返し配置された構造を持つ。基準モデルMD11は、基準図形である2つ以上の円筒面CY11を有する。2つ以上の円筒面CY11の中心軸AX11は共有され、2つ以上の円筒面CY11の間隔は互いに等しい。基準図形が円筒面である場合、内視鏡装置1は、筒状の構造を持つ被写体の表面を基準とする高さまたは深さの定量的な判断に適した画像を表示することができる。
基準モデルMD12は、互いに異なる半径を持つ2つ以上の円筒面CY11を持つ。2つ以上の円筒面CY11の中心軸AX11は互いに一致する。
図13は、基準モデルの他の例を示す。図13に示す例では、球面が基準図形である。図13に示す基準モデルMD12は、球面が繰り返し配置された構造を持つ。基準モデルMD12は、基準図形である2つ以上の球面SP11を有する。2つ以上の球面SP11の中心C11は共有され、2つ以上の球面SP11の間隔は互いに等しい。図13において、球面SP11の内部を視覚化するために、基準モデルMD12の一部が取り除かれている。実際には、内側に配置された球面SP11は、外側に配置された球面SP11によって覆われている。基準図形が球面である場合、内視鏡装置1は、球状の構造を持つ被写体の表面を基準とする高さまたは深さの定量的な判断に適した画像を表示することができる。
基準モデルMD12は、互いに異なる半径を持つ2つ以上の球面SP11を持つ。2つ以上の球面SP11の中心C11は互いに一致する。
2つ以上の基準モデルが使用されてもよい。例えば、2つ以上の基準モデルの各々は、立方体または直方体が繰り返し配置された構造を持つ。各基準モデルは、被写体の表面に沿って配置される。内視鏡装置1は、第3の実施形態で説明する方法を使用し、被写体の表面において2つ以上の基準モデルの各々が配置される領域の法線方向を検出してもよい。内視鏡装置1は、2つ以上の基準モデルの各々の方向をその法線方向に設定してもよい。
(第3の実施形態)
本発明の第3の実施形態を説明する前に、第2の実施形態における画像表示処理において生成された画像の例を説明する。図14は、第2の実施形態における画像表示処理に使用される被写体OB21の3D形状と基準モデルMD21との関係を示す。図14は、X軸と平行な方向に見た被写体OB21および基準モデルMD21を示す。
被写体OB21の3D形状は、被写体の3Dデータに含まれる3D座標を持つ点によって形成されている。基準モデルMD21は、方向DR21と垂直な第1の面と、方向DR22と垂直な第2の面と、図14に示されていない第3の面とによって形成されている。基準モデルMD21の第1の面および第2の面は線として示されている。基準モデルMD21の第3の面は、X軸と垂直である。図14に示す例では、被写体OB21の表面SF21の法線方向DR23は、基準モデルMD21の第1の面の法線方向(方向DR21)および基準モデルMD21の第2の面の法線方向(方向DR22)と異なる。
図15は、第2の実施形態における画像表示処理において生成された画像の例を示す。画像生成部183は、図15に示す3D画像G21を生成する。3D画像G21は、図11に示す3D画像G12と同様に、X軸と平行な方向に見た被写体OB21の3D形状を示す。3D画像G21は、画素群PG21を含む。画素群PG21は、図14に示す基準モデルMD21と交差する第1の点と対応する画素を含む。画素群PG21以外の画素は、基準モデルMD21と交差しない第2の点と対応する。画素群PG21は、方向DR24と垂直な第1の線上の画素と、方向DR25と垂直な第2の線上の画素とを含む。
画素群PG21を形成する第1の線と垂直な方向DR24は、被写体OB21の表面SF21の法線方向DR23と異なる。また、画素群PG21を形成する第2の線と垂直な方向DR25は、被写体OB21の表面SF21の法線方向DR23と異なる。そのため、ユーザーが、被写体OB21に形成された凹部の深さD21を正確に判断できない可能性がある。深さD21は、表面SF21の法線方向DR23における凹部の大きさを示す。第2の実施形態における画像表示処理では、基準モデルを形成する基準図形と垂直な方向(例えば、方向DR24および方向DR25)が被写体の表面と垂直な方向(例えば、法線方向DR23)と大きく異なる場合がある。
第3の実施形態における画像表示処理では、被写体の3D形状に基づいて基準モデルの方向(角度)が設定される。具体的には、被写体の3D形状の表面の法線方向に基づいて基準モデルの方向が設定される。第3の実施形態における画像表示処理では、基準モデルを形成する基準図形と垂直な方向が被写体の表面と垂直な方向に近づくため、ユーザーは被写体における領域の大きさを正確に判断することができる。
第3の実施形態において、図9に示すCPU18は、図16に示すCPU18aに変更される。図16は、CPU18aの機能構成を示す。CPU18aの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、法線方向算出部186、および基準モデル設定部187を含む。図16に示すブロックの少なくとも1つがCPU18aと異なる回路で構成されてもよい。図9に示す構成と同じ構成の説明を省略する。
図16に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図16に示す各部は、1つまたは複数のプロセッサを含むことができる。図16に示す各部は、1つまたは複数の論理回路を含むことができる。
法線方向算出部186は、3Dデータに含まれる2つ以上の点が示す3D形状の表面の法線方向を算出する(方向算出ステップ)。基準モデル設定部187は、その法線方向に基づいて基準モデルの方向を設定する(設定ステップ)。
基準モデル設定部187は、法線方向算出部186によって算出された法線方向に基づいて、3D形状を基準とする基準モデルの相対的な方向を設定してもよい。例えば、基準モデル設定部187は、法線方向算出部186によって算出された法線方向に基づいて3Dデータに含まれる3D座標を変更することにより基準モデルの相対的な方向を設定してもよい。
図17を使用することにより、第3の実施形態における画像表示処理について説明する。図17は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS104の後、法線方向算出部186は、被写体の表面の法線方向を算出する(ステップS111)。ステップS111は、方向算出ステップと対応する。
例えば、法線方向算出部186は、ステップS111において以下の処理を実行する。法線方向算出部186は、3Dデータを使用することにより、被写体の3D形状の特徴を判断する。法線方向算出部186は、その特徴に基づいて、3Dデータに含まれる2つ以上の点を2つ以上の領域(セグメント)に分割する。例えば、法線方向算出部186は、Euclidean Cluster Extractionを使用することにより、2つ以上の点の各々を2つ以上の領域のうちの1つに割り当てる。これにより、法線方向算出部186は、3D形状の領域を2つ以上の領域に分割する。法線方向算出部186は、最も大きなセグメントの法線方向を算出する。
ステップS111の後、基準モデル設定部187は、基準モデルの方向を設定する(ステップS112)。ステップS112は、設定ステップと対応する。
例えば、基準モデル設定部187は、ステップS112において以下の処理を実行する。基準モデル設定部187は、被写体の表面の法線の負方向に伸びるZ’軸を定義し、かつZ’軸と垂直なX’軸およびY’軸を定義する。基準モデル設定部187は、3Dデータの各点の3D座標を、X’軸、Y’軸、およびZ’軸によって定義された座標系における3D座標に変換する。つまり、基準モデル設定部187は、X座標をX’座標に変換し、Y座標をY’座標に変換し、Z座標をZ’座標に変換する。これにより、基準モデル設定部187は、3Dデータの各点と基準モデルとの位置関係を変更する。つまり、基準モデル設定部187は、3Dデータの各点を基準とする基準モデルの方向を変更する。図3に示す基準モデルMD2と同様の基準モデルが使用される場合、その基準モデルを形成する面の3つの法線方向の1つは、被写体の表面の法線方向と平行な方向に設定される。
ステップS112の後、判断部182は、ステップS105において、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係を判断する。このとき、判断部182は、X軸、Y軸、およびZ軸によって定義された座標系における3D座標の代わりにX’軸、Y’軸、およびZ’軸によって定義された新たな座標系における3D座標を使用する。
図18は、第3の実施形態における画像表示処理に使用される被写体OB21の3D形状と基準モデルMD21との関係を示す。図18は、図14と同様に、X軸と平行な方向に見た被写体OB21および基準モデルMD21を示す。基準モデルMD21は、方向DR21と垂直な第1の面と、方向DR22と垂直な第2の面と、図18に示されていない第3の面とによって形成されている。基準モデル設定部187は、基準モデルMD21を形成する第1の面の法線方向(方向DR21)が被写体OB21の表面SF21の法線方向DR23と平行になるように第1の面の法線方向を設定する。
図19は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB21の3D画像G22を表示部5に表示する。3D画像G22は、図11に示す3D画像G12と同様に、X軸と平行な方向に見た被写体OB21の3D形状を示す。3D画像G22は、画素群PG22を含む。画素群PG22は、図18に示す基準モデルMD21と交差する第1の点と対応する画素を含む。画素群PG22以外の画素は、基準モデルMD21と交差しない第2の点と対応する。画素群PG22は、方向DR26と垂直な第1の線上の画素と、方向DR27と垂直な第2の線上の画素とを含む。
画素群PG22を形成する第1の線と垂直な方向DR26は、被写体OB21の表面SF21の法線方向DR23と平行である。つまり、その第1の線は、表面SF21と平行である。その第1の線の位置は、表面SF21と垂直な方向における距離を示す。そのため、ユーザーは、被写体OB21に形成された凹部の深さD21を正確に判断することができる。
本発明の各態様は次の変形例を含んでもよい。基準モデル設定部187は、設定ステップ(ステップS112)において、3Dデータに含まれる2つ以上の点が示す3D形状に基づいて基準モデルの方向を設定する。
本発明の各態様は次の変形例を含んでもよい。法線方向算出部186は、方向算出ステップ(ステップS111)において、3Dデータに含まれる2つ以上の点が示す3D形状の表面の法線方向を算出する。基準モデル設定部187は、設定ステップ(ステップS112)において、その法線方向に基づいて基準モデルの方向を設定する。
第3の実施形態において、被写体の表面の法線方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第3の実施形態の第1の変形例)
本発明の第3の実施形態の第1の変形例を説明する。第3の実施形態の第1の変形例における画像表示処理では、ライブ画像上の所定の点と対応する3Dデータの点における3D形状に基づいて基準モデルの方向が設定される。
図16に示すCPU18aは、図20に示すCPU18bに変更される。図20は、CPU18bの機能構成を示す。CPU18bの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、法線方向算出部186、基準モデル設定部187、および距離算出部188を含む。図20に示すブロックの少なくとも1つがCPU18bと異なる回路で構成されてもよい。図16に示す構成と同じ構成の説明を省略する。
図20に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図20に示す各部は、1つまたは複数のプロセッサを含むことができる。図20に示す各部は、1つまたは複数の論理回路を含むことができる。
距離算出部188は、ライブ画像上の点と対応する3D空間の点と、そのライブ画像を取得したカメラ(撮像素子28)との距離を算出する(距離算出ステップ)。例えば、ライブ画像上のその点は、ライブ画像の中心である。例えば、距離算出部188は、3D空間の点とカメラ中心(光学中心)との距離を算出する。表示制御部184は、ライブ画像およびその距離を表示部5に表示する(画像表示ステップ)。例えば、ユーザーは、その距離が計測に適しているか否かを確認することができる。法線方向算出部186は、ライブ画像上のその点と対応する3D形状上の点を含む領域の法線方向を算出する(方向算出ステップ)。
図21を使用することにより、第3の実施形態の第1の変形例における画像表示処理について説明する。図21は、画像表示処理の手順を示す。図17に示す処理と同じ処理の説明を省略する。
ステップS101の後、距離算出部188は、ライブ画像上の点と対応する3D空間の点と、そのライブ画像を取得したカメラとの3D距離を算出する(ステップS113)。ステップS113は、距離算出ステップと対応する。
例えば、距離算出部188は、ステップS113において以下の処理を実行する。例えば、距離算出部188は、第1の画像および第2の画像を含むステレオ画像を使用する。例えば、ライブ画像は第1の画像である。距離算出部188は、第1の画像および第2の画像を使用し、かつ三角測量の原理に基づいて、第1の画像上の点と対応する3D空間の点の3D座標を算出する。距離算出部188は、その3D座標を持つ点とカメラ中心との3D距離を算出する。
ステップS113の後、表示制御部184は、ステップS113において算出された3D距離をライブ画像上に表示する(ステップS114)。ステップS101およびステップS114は、画像表示ステップと対応する。ステップS114の後、ステップS102が実行される。ステップS101、ステップS113、およびステップS114は繰り返し実行されてもよい。
ステップS104の後、法線方向算出部186は、ライブ画像上の点と対応する3D形状上の点を含む領域の法線方向を算出する(ステップS111a)。ステップS111aは、方向算出ステップと対応する。ステップS111aの後、ステップS112が実行される。
例えば、法線方向算出部186は、ステップS111aにおいて以下の処理を実行する。3Dデータに含まれる3D座標は、3Dデータを生成するために使用された2D画像における2D座標と関連付けられている。つまり、3Dデータに含まれる各点は、2D画像の画素と関連付けられている。法線方向算出部186は、ライブ画像上の点と対応する画素と関連付けられている3Dデータの点を特定する。法線方向算出部186は、特定された点を含む領域の法線方向を算出する。その領域は、被写体の表面の領域であって、3Dデータに含まれる3つ以上の点を含む。例えば、その領域は、特定された点と、その特定された点の近傍の2つ以上の点を含む。例えば、その領域は、被写体の表面全体の一部である。3Dデータは、4つ以上の点の3D座標を含んでもよい。
本発明の各態様は次の変形例を含んでもよい。距離算出部188は、距離算出ステップ(ステップS113)において、ライブ画像(2D画像)上の点と対応する3D空間の点と、ライブ画像を取得したカメラとの距離を算出する。表示制御部184は、画像表示ステップ(ステップS101およびステップS114)において、ライブ画像およびその距離を表示部5(ディスプレイ)に表示する。法線方向算出部186は、方向算出ステップ(ステップS111a)において、ライブ画像上の点と対応する3D形状上の点を含む領域の法線方向を算出する。
第3の実施形態の第1の変形例において、ライブ画像上の所定の点と対応する3Dデータの点における被写体の表面の法線方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第3の実施形態の第2の変形例)
本発明の第3の実施形態の第2の変形例を説明する。第3の実施形態の第2の変形例における画像表示処理では、ユーザーによって指定された位置の3D形状に基づいて基準モデルの方向が設定される。
図16に示すCPU18aは、図22に示すCPU18cに変更される。図22は、CPU18cの機能構成を示す。CPU18cの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、法線方向算出部186、基準モデル設定部187、および基準点設定部189を含む。図22に示すブロックの少なくとも1つがCPU18cと異なる回路で構成されてもよい。図16に示す構成と同じ構成の説明を省略する。
図22に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図22に示す各部は、1つまたは複数のプロセッサを含むことができる。図22に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる1つの点の位置が操作部4または表示部5を通して入力されたとき、情報受付部185は、その位置を受け付ける(受付ステップ)。基準点設定部189は、その位置と対応する点を特定する。その点は、上記の2つ以上の点に含まれる。基準点設定部189は、その点を基準点として設定する。基準点設定部189は、基準点を表示部5に表示された画像と関連付けることにより、基準点をその画像に設定する。基準点は3D座標を持つ。基準点設定部189によって設定された基準点の情報は、RAM14に保持される。法線方向算出部186は、基準点における3D形状の表面の法線方向を算出する(算出ステップ)。
図23を使用することにより、第3の実施形態の第2の変形例における画像表示処理について説明する。図23は、画像表示処理の手順を示す。図17に示す処理と同じ処理の説明を省略する。
ステップS104の後、表示制御部184は、ステップS104において生成された3Dデータの3D画像を表示部5に表示する(ステップS121)。
ステップS121の後、情報受付部185は、操作部4または表示部5を通して1つの点の位置を受け付ける。基準点設定部189は、情報受付部185によって受け付けられた位置と対応する基準点を設定する(ステップS122)。ステップS122は、受付ステップと対応する。
ステップS122の後、法線方向算出部186は、基準点における被写体の表面の法線方向を算出する(ステップS111b)。ステップS111bは、方向算出ステップと対応する。ステップS111bの後、ステップS112が実行される。
例えば、法線方向算出部186は、ステップS111bにおいて以下の処理を実行する。法線方向算出部186は、基準点を含む領域の法線方向を算出する。その領域は、被写体の表面の領域であって、3Dデータに含まれる3つ以上の点を含む。3つ以上の点は、基準点を含む。
図24は、ステップS121において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB31の3D画像G31を表示部5に表示する。被写体OB31は、領域R31および領域R32を有する。領域R31は、深さを持つ凹部である。領域R32は、被写体OB31の表面に形成された傷である。
カーソルが3D画像上に表示される例では、ユーザーは、カーソルを3D画像上の所望の位置に移動させ、かつ所定の操作を実行する。このとき、情報受付部185は、その位置を受け付ける。表示部5がタッチパネルである例では、ユーザーは表示部5の画面をタッチする。このとき、情報受付部185は、タッチされた位置を受け付ける。基準点設定部189は、ステップS122において、その位置と対応する基準点を設定する。
図24に示す例では、基準点設定部189は基準点P31を設定する。表示制御部184は、基準点P31を示すマークを3D画像G31上に表示してもよい。
情報受付部185は、ステップS103において表示されたフリーズ画像上の位置を受け付けてもよい。その場合、表示制御部184がステップS121を実行する必要はない。フリーズ画像は、3Dデータを生成するための2D画像を含む。情報受付部185はその2D画像上の位置を受け付けてもよく、かつ基準点設定部189はその位置に基準点を設定してもよい。
3Dデータに含まれる3D座標は、3Dデータを生成するために使用された2D画像における2D座標と関連付けられている。つまり、3Dデータに含まれる各点は、2D画像の画素と関連付けられている。基準点設定部189は、情報受付部185によって受け付けられた2D画像上の位置と対応する画素と関連付けられている3Dデータの点を特定してもよい。基準点設定部189は、特定された点を基準点として設定してもよい。
図25は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB31の3D画像G32を表示部5に表示する。図25に示す被写体OB31は、図24に示す被写体OB31と同様に、領域R31および領域R32を有する。
3D画像G32は、画素群PG31を含む。画素群PG31は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG31以外の画素は、基準モデルと交差しない第2の点と対応する。
法線方向算出部186は、ステップS111bにおいて、基準点P31における被写体OB31の表面の法線方向を算出する。基準モデル設定部187は、ステップS112において、基準モデルを形成する面の法線方向を、基準点P31における被写体OB31の表面の法線方向と平行な方向に設定する。
本発明の各態様は次の変形例を含んでもよい。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる1つの点の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS122)において、その位置を受け付ける。法線方向算出部186は、方向算出ステップ(ステップS111b)において、その点を含む領域の法線方向を算出する。
第3の実施形態の第2の変形例において、ユーザーによって指定された位置における被写体の表面の法線方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第4の実施形態)
本発明の第4の実施形態を説明する前に、第2の実施形態における画像表示処理において生成された画像の例を説明する。図26は、第2の実施形態における画像表示処理において生成された画像の例を示す。画像生成部183は、図26に示す3D画像G41を生成する。3D画像G41は、被写体OB41の3D形状を示す。被写体OB41は、領域R41を有する。領域R41は、被写体OB41の表面に形成された傷であり、細長い形状を持つ。被写体OB41は、直線状のエッジE41を有する。
3D画像G41は、画素群PG41を含む。画素群PG41は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG41以外の画素は、基準モデルと交差しない第2の点と対応する。画素群PG41は、方向DR41と垂直な第1の線上の画素と、方向DR42と垂直な第2の線上の画素とを含む。
画素群PG41を形成する第1の線と垂直な方向DR41は、被写体OB41のエッジE41と垂直な方向DR43と異なる。また、画素群PG41を形成する第2の線と垂直な方向DR42は、被写体OB41のエッジE41と垂直な方向DR43と異なる。そのため、ユーザーが、エッジE41を基準とする領域R41の長さLG41を正確に判断できない可能性がある。長さLG41は、エッジE41と垂直な方向DR43における領域R41の大きさを示す。第2の実施形態における画像表示処理では、基準モデルを形成する基準図形と垂直な方向(例えば、方向DR41および方向DR42)が被写体のエッジと垂直な方向(例えば、方向DR43)と大きく異なる場合がある。
第4の実施形態における画像表示処理では、被写体の3D形状の表面におけるエッジの方向に基づいて基準モデルの方向が設定される。第4の実施形態における画像表示処理では、基準モデルを形成する基準図形と垂直な方向が被写体のエッジと垂直な方向に近づくため、ユーザーは被写体における領域の大きさを正確に判断することができる。
第4の実施形態において、図9に示すCPU18は、図27に示すCPU18dに変更される。図27は、CPU18dの機能構成を示す。CPU18dの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、およびエッジ方向算出部190を含む。図27に示すブロックの少なくとも1つがCPU18dと異なる回路で構成されてもよい。図9に示す構成と同じ構成の説明を省略する。
図27に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図27に示す各部は、1つまたは複数のプロセッサを含むことができる。図27に示す各部は、1つまたは複数の論理回路を含むことができる。
エッジ方向算出部190は、3Dデータに含まれる2つ以上の点が示す3D形状の表面におけるエッジの方向を算出する(方向算出ステップ)。エッジは、3D形状と3D空間との境界である。例えば、エッジは直線状に伸びる。エッジは、曲線状に伸びてもよい。基準モデル設定部187は、そのエッジの方向に基づいて基準モデルの方向を設定する(設定ステップ)。
基準モデル設定部187は、エッジ方向算出部190によって算出された方向に基づいて、3D形状を基準とする基準モデルの相対的な方向を設定してもよい。例えば、基準モデル設定部187は、エッジ方向算出部190によって算出された方向に基づいて3Dデータに含まれる3D座標を変更することにより基準モデルの相対的な方向を設定してもよい。
エッジ方向算出部190は、エッジの方向に加えてエッジの位置を算出する(位置算出ステップ)。基準モデル設定部187は、そのエッジの位置に基づいて基準モデルの位置を設定する(設定ステップ)。
基準モデル設定部187は、エッジ方向算出部190によって算出された位置に基づいて、3D形状を基準とする基準モデルの相対的な位置を設定してもよい。例えば、基準モデル設定部187は、エッジ方向算出部190によって算出された位置に基づいて3Dデータに含まれる3D座標を変更することにより基準モデルの相対的な位置を設定してもよい。
図28を使用することにより、第4の実施形態における画像表示処理について説明する。図28は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS104の後、エッジ方向算出部190は、被写体の表面におけるエッジの方向および位置を算出する(ステップS131)。ステップS131は、方向算出ステップおよび位置算出ステップと対応する。
例えば、エッジ方向算出部190は、ステップS131において以下の処理を実行する。エッジ方向算出部190は、3Dデータを使用することにより、被写体の3D形状の特徴を判断する。エッジ方向算出部190は、その特徴に基づいて、3Dデータに含まれる2つ以上の点を2つ以上の領域(セグメント)に分割する。この処理は、第3の実施形態における法線方向算出部186が実行する処理と同様である。エッジ方向算出部190は、最も大きなセグメントの3Dデータに基づいて被写体の表面と垂直な法線を算出し、かつ法線方向の変化に基づいて被写体のエッジを検出する。エッジ方向算出部190は、検出されたエッジと平行な方向を算出する。
ステップS131の後、基準モデル設定部187は、基準モデルの方向および位置を設定する(ステップS132)。ステップS132は、設定ステップと対応する。
例えば、基準モデル設定部187は、ステップS132において以下の処理を実行する。基準モデル設定部187は、エッジと平行な方向に伸びるX’軸を定義し、かつX’軸と垂直なY’軸およびZ’軸を定義する。あるいは、基準モデル設定部187は、エッジと平行な方向に伸びるY’軸を定義し、かつY’軸と垂直なX’軸およびZ’軸を定義する。エッジと平行な方向がX方向と近い場合、基準モデル設定部187は、エッジと平行な方向に伸びるX’軸を定義する。エッジと平行な方向がY方向と近い場合、基準モデル設定部187は、エッジと平行な方向に伸びるY’軸を定義する。基準モデル設定部187は、エッジ上の点を、X’軸、Y’軸、およびZ’軸によって定義された座標系の原点として定義する。
基準モデル設定部187は、3Dデータの各点の3D座標を、X’軸、Y’軸、およびZ’軸によって定義された座標系における3D座標に変換する。つまり、基準モデル設定部187は、X座標をX’座標に変換し、Y座標をY’座標に変換し、Z座標をZ’座標に変換する。これにより、基準モデル設定部187は、3Dデータの各点と基準モデルとの位置関係を変更する。つまり、基準モデル設定部187は、3Dデータの各点を基準とする基準モデルの方向および位置を変更する。図3に示す基準モデルMD2と同様の基準モデルが使用される場合、その基準モデルを形成する面の3つの法線方向の1つは、エッジと垂直な方向に設定される。また、その基準モデルを形成する1つの面の位置は、エッジの位置に設定される。
ステップS132の後、判断部182は、ステップS105において、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係を判断する。このとき、判断部182は、X軸、Y軸、およびZ軸によって定義された座標系における3D座標の代わりにX’軸、Y’軸、およびZ’軸によって定義された新たな座標系における3D座標を使用する。
図29は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB41の3D画像G42を表示部5に表示する。図29に示す被写体OB41は、図26に示す被写体OB41と同様に、領域R41およびエッジE41を有する。
3D画像G42は、画素群PG42を含む。画素群PG42は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG42以外の画素は、基準モデルと交差しない第2の点と対応する。
エッジ方向算出部190は、ステップS131において、エッジE41の方向を算出する。基準モデル設定部187は、ステップS132において、基準モデルを形成する面の法線方向を、エッジE41と垂直な方向DR43に設定する。基準モデル設定部187は、ステップS132において、基準モデルを形成する1つの面の位置を、エッジE41の位置に設定する。
画素群PG42は、方向DR44と垂直な第1の線上の画素と、方向DR45と垂直な第2の線上の画素とを含む。画素群PG42を形成する第1の線と垂直な方向DR44は、エッジE41と垂直である。つまり、その第1の線は、エッジE41と平行である。また、画素群PG42を形成する1つの第1の線は、エッジE41と重なる。エッジE41と重なる第1の線と異なる第1の線の位置は、エッジE41と垂直な方向DR43におけるエッジE41からの距離を示す。そのため、ユーザーは、エッジE41を基準とする領域R41の長さLG41を正確に判断することができる。
エッジ方向算出部190は、ステップS131においてエッジの位置を算出する必要はない。したがって、エッジ方向算出部190は、ステップS131においてエッジの方向のみを算出してもよい。
基準モデル設定部187は、ステップS132において基準モデルの位置を設定する必要はない。したがって、基準モデル設定部187は、ステップS132において基準モデルの方向のみを設定してもよい。
本発明の各態様は次の変形例を含んでもよい。エッジ方向算出部190は、方向算出ステップ(ステップS131)において、3Dデータに含まれる2つ以上の点が示す3D形状の表面におけるエッジの方向を算出する。基準モデル設定部187は、設定ステップ(ステップS132)において、エッジの方向に基づいて基準モデルの方向を設定する。
本発明の各態様は次の変形例を含んでもよい。エッジ方向算出部190は、位置算出ステップ(ステップS131)において、3Dデータに含まれる2つ以上の点が示す3D形状の表面におけるエッジの位置を算出する。基準モデル設定部187は、設定ステップ(ステップS132)において、エッジの位置に基づいて基準モデルの位置を設定する。
第4の実施形態において、被写体の表面におけるエッジの方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
さらに、被写体の表面におけるエッジの位置に基づいて基準モデルの位置が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさをより正確に判断するのに適した画像を表示することができる。
(第4の実施形態の変形例)
本発明の第4の実施形態の変形例を説明する。第4の実施形態の変形例における画像表示処理では、ユーザーによって指定された位置の3D形状に基づいて基準モデルの方向および位置が設定される。
図27に示すCPU18dは、図30に示すCPU18eに変更される。図30は、CPU18eの機能構成を示す。CPU18eの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、基準点設定部189、およびエッジ方向算出部190を含む。図30に示すブロックの少なくとも1つがCPU18eと異なる回路で構成されてもよい。図27に示す構成と同じ構成の説明を省略する。
図30に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図30に示す各部は、1つまたは複数のプロセッサを含むことができる。図30に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5を通して入力されたとき、情報受付部185は、その位置を受け付ける(受付ステップ)。基準点設定部189は、その位置と対応する点を特定する。その点は、上記の2つ以上の点に含まれる。基準点設定部189は、その点を基準点として設定する。基準点設定部189は、基準点を表示部5に表示された画像と関連付けることにより、基準点をその画像に設定する。基準点設定部189は、2つの基準点を設定する。2つの基準点の各々は3D座標を持つ。基準点設定部189によって設定された2つの基準点の情報は、RAM14に保持される。エッジ方向算出部190は、2つの基準点を通る直線の方向を算出する。
図31を使用することにより、第4の実施形態の変形例における画像表示処理について説明する。図31は、画像表示処理の手順を示す。図28に示す処理と同じ処理の説明を省略する。
ステップS104の後、表示制御部184は、ステップS104において生成された3Dデータの3D画像を表示部5に表示する(ステップS141)。
ステップS141の後、情報受付部185は、操作部4または表示部5を通して2つの点の各々の位置を受け付ける。基準点設定部189は、情報受付部185によって受け付けられた位置と対応する基準点を設定する。これにより、基準点設定部189は、2つの基準点を設定する(ステップS142)。ステップS142は、受付ステップと対応する。
ステップS142の後、エッジ方向算出部190は、2つの基準点を通る3次元直線(3D直線)を算出する。その3D直線の方向はエッジの方向と対応し、その3D直線の位置はエッジの位置と対応する(ステップS131a)。ステップS131aの後、ステップS132が実行される。
図32は、ステップS141において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB41の3D画像G43を表示部5に表示する。図32に示す被写体OB41は、図26に示す被写体OB41と同様に、領域R41を有する。領域R41は、被写体OB41の表面に形成された傷であり、細長い形状を持つ。被写体OB41は、図26に示す被写体OB41と同様に、直線状のエッジE41を有する。
ユーザーは、カーソルを移動させる、または表示部5の画面をタッチすることにより、エッジE41上の2つの位置を内視鏡装置1に入力する。基準点設定部189は、ステップS142において、その2つの位置の各々と対応する基準点を設定する。
図32に示す例では、基準点設定部189は基準点P41および基準点P42を設定する。表示制御部184は、基準点P41および基準点P42の各々を示すマークを3D画像G43上に表示してもよい。
情報受付部185は、ステップS103において表示されたフリーズ画像上の位置を受け付けてもよい。その場合、表示制御部184がステップS141を実行する必要はない。フリーズ画像は、3Dデータを生成するための2D画像を含む。情報受付部185はその2D画像上の位置を受け付けてもよく、かつ基準点設定部189はその位置に基準点を設定してもよい。
図33は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB41の3D画像G44を表示部5に表示する。図33に示す被写体OB41は、図32に示す被写体OB41と同様に、領域R41およびエッジE41を有する。
3D画像G44は、画素群PG43を含む。画素群PG43は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG43以外の画素は、基準モデルと交差しない第2の点と対応する。
エッジ方向算出部190は、ステップS131aにおいて、基準点P41および基準点P42を通る3D直線を算出する。基準モデル設定部187は、ステップS132において、基準モデルを形成する面の法線方向を、3D直線と垂直な方向に設定する。基準モデル設定部187は、ステップS132において、基準モデルを形成する1つの面の位置を、3D直線の位置に設定する。
エッジ方向算出部190は、ステップS131aにおいてエッジの位置を算出する必要はない。したがって、エッジ方向算出部190は、ステップS131aにおいてエッジの方向のみを算出してもよい。
基準モデル設定部187は、ステップS132において基準モデルの位置を設定する必要はない。したがって、基準モデル設定部187は、ステップS132において基準モデルの方向のみを設定してもよい。
本発明の各態様は次の変形例を含んでもよい。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS142)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS132)において、2つの点を通る線の方向に基づいて基準モデルの方向を設定する。
本発明の各態様は次の変形例を含んでもよい。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS142)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS132)において、2つの点を通る線の位置に基づいて基準モデルの位置を設定する。
第4の実施形態の変形例において、2つの基準点を通る線の方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
さらに、2つの基準点を通る線の位置に基づいて基準モデルの位置が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさをより正確に判断するのに適した画像を表示することができる。
(第5の実施形態)
前述した図26に示す3D画像G41は、領域R41およびエッジE41を有する被写体OB41の3D形状を示す。領域R41は、被写体OB41の表面に形成された傷であり、細長い形状を持つ。図26に示す画素群PG41を形成する第1の線と垂直な方向DR41は、領域R41の長手方向と異なる。また、画素群PG41を形成する第2の線と垂直な方向DR42は、領域R41の長手方向と異なる。そのため、ユーザーが、エッジE41を基準とする領域R41の長さLG41を正確に判断できない可能性がある。
第5の実施形態における画像表示処理では、被写体の3D形状の表面において細長い形状を持つ特徴領域が検出され、特徴領域の長手方向に基づいて基準モデルの方向が設定される。第5の実施形態における画像表示処理では、基準モデルを形成する基準図形と垂直な方向が、特徴領域の長手方向に近づくため、ユーザーは被写体における領域の大きさを正確に判断することができる。
第5の実施形態において、図9に示すCPU18は、図34に示すCPU18fに変更される。図34は、CPU18fの機能構成を示す。CPU18fの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、および領域方向算出部191を含む。図34に示すブロックの少なくとも1つがCPU18fと異なる回路で構成されてもよい。図9に示す構成と同じ構成の説明を省略する。
図34に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図34に示す各部は、1つまたは複数のプロセッサを含むことができる。図34に示す各部は、1つまたは複数の論理回路を含むことができる。
領域方向算出部191は、3Dデータに含まれる2つ以上の点が示す3D形状の表面において細長い形状を持つ特徴領域の長手方向を算出する(方向算出ステップ)。基準モデル設定部187は、その長手方向に基づいて基準モデルの方向を設定する(設定ステップ)。基準モデル設定部187は、特徴領域の位置に基づいて基準モデルの位置を設定する(設定ステップ)。
例えば、第1の方向における特徴領域の長さ(幅)は、第1の方向と垂直な第2の方向における特徴領域の長さ(幅)よりも大きい。例えば、特徴領域の長手方向は、第1の方向である。
基準モデル設定部187は、領域方向算出部191によって算出された長手方向に基づいて、3D形状を基準とする基準モデルの相対的な方向を設定してもよい。例えば、基準モデル設定部187は、領域方向算出部191によって算出された長手方向に基づいて3Dデータに含まれる3D座標を変更することにより基準モデルの相対的な方向を設定してもよい。
基準モデル設定部187は、特徴領域の位置に基づいて、3D形状を基準とする基準モデルの相対的な位置を設定してもよい。例えば、基準モデル設定部187は、特徴領域の位置に基づいて3Dデータに含まれる3D座標を変更することにより基準モデルの相対的な位置を設定してもよい。
基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。基準モデル設定部187は、特徴領域の大きさに基づいて2つ以上の基準図形の間隔を設定する(設定ステップ)。例えば、基準モデル設定部187は、特徴領域の長手方向における特徴領域の長さに基づいて、2つ以上の基準図形の間隔を設定する。
図35を使用することにより、第5の実施形態における画像表示処理について説明する。図35は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS104の後、領域方向算出部191は、被写体の表面において細長い形状を持つ特徴領域を検出し、特徴領域の長手方向を算出する(ステップS151)。ステップS151は、方向算出ステップと対応する。
例えば、領域方向算出部191は、ステップS151において以下の処理を実行する。領域方向算出部191は、Deep Learningのような機械学習を使用することにより特徴領域を検出する。領域方向算出部191は、特徴領域を2つ以上の小領域に分割し、かつ各小領域の長手方向を算出する。領域方向算出部191は、2つ以上の小領域の長手方向の平均を算出することにより特徴領域の長手方向を算出する。
ステップS151の後、基準モデル設定部187は、基準モデルの方向、位置、および間隔を設定する(ステップS152)。ステップS152は、設定ステップと対応する。
例えば、基準モデル設定部187は、ステップS152において以下の処理を実行する。基準モデル設定部187は、特徴領域の長手方向に伸びるX’軸を定義し、かつX’軸と垂直なY’軸およびZ’軸を定義する。あるいは、基準モデル設定部187は、特徴領域の長手方向に伸びるY’軸を定義し、かつY’軸と垂直なX’軸およびZ’軸を定義する。特徴領域の長手方向がX方向と近い場合、基準モデル設定部187は、特徴領域の長手方向に伸びるX’軸を定義する。特徴領域の長手方向がY方向と近い場合、基準モデル設定部187は、特徴領域の長手方向に伸びるY’軸を定義する。基準モデル設定部187は、特徴領域の端点を、X’軸、Y’軸、およびZ’軸によって定義された座標系の原点として定義する。
基準モデル設定部187は、3Dデータの各点の3D座標を、X’軸、Y’軸、およびZ’軸によって定義された座標系における3D座標に変換する。つまり、基準モデル設定部187は、X座標をX’座標に変換し、Y座標をY’座標に変換し、Z座標をZ’座標に変換する。これにより、基準モデル設定部187は、3Dデータの各点と基準モデルとの位置関係を変更する。つまり、基準モデル設定部187は、3Dデータの各点を基準とする基準モデルの方向を変更する。図3に示す基準モデルMD2と同様の基準モデルが使用される場合、その基準モデルを形成する面の3つの法線方向の1つは、特徴領域の長手方向に設定される。また、その基準モデルを形成する1つの面の位置は、特徴領域の端点に設定される。
基準モデル設定部187は、特徴領域の長手方向における特徴領域の長さを算出する。例えば、基準モデル設定部187は、特徴領域の長手方向に互いに離れた2つの端点の3D距離を特徴領域の長さとして算出する。基準モデル設定部187は、特徴領域の長さに基づいて基準モデルの間隔を設定する。例えば、基準モデル設定部187は、基準モデルの間隔を特徴領域の長さ以下の整数に設定する。例えば、特徴領域の長さが3.2mmである場合、基準モデル設定部187は、基準モデルの間隔を3mmに設定する。基準モデル設定部187は、基準モデルの間隔を特徴領域の長さ以下の所定値に設定してもよく、所定値は整数以外の値であってもよい。例えば、特徴領域の長さが0.72mmである場合、基準モデル設定部187は、基準モデルの間隔を0.5mmに設定してもよい。
ステップS152の後、判断部182は、ステップS105において、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係を判断する。このとき、判断部182は、X軸、Y軸、およびZ軸によって定義された座標系における3D座標の代わりにX’軸、Y’軸、およびZ’軸によって定義された新たな座標系における3D座標を使用する。
図36は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB51の3D画像G51を表示部5に表示する。図36に示す被写体OB51は、領域R51を有する。領域R51は、被写体OB51の表面に形成された傷であり、細長い形状を持つ。
3D画像G51は、画素群PG51を含む。画素群PG51は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG51以外の画素は、基準モデルと交差しない第2の点と対応する。
領域方向算出部191は、ステップS151において、領域R51の長手方向DR51を算出する。基準モデル設定部187は、ステップS152において、基準モデルを形成する面の法線方向を領域R51の長手方向DR51に設定する。基準モデル設定部187は、ステップS152において、基準モデルを形成する1つの面の位置を、領域R51の端点P51の位置に設定する。基準モデル設定部187は、ステップS152において、長手方向DR51における領域R51の長さLG51に基づいて基準モデルの間隔を設定する。
画素群PG51は、方向DR52と垂直な第1の線上の画素と、方向DR53と垂直な第2の線上の画素とを含む。画素群PG51を形成する第1の線と垂直な方向DR52は、領域R51の長手方向DR51と平行である。つまり、その第1の線は、領域R51の長手方向DR51と垂直である。また、画素群PG51を形成する1つの第1の線は、領域R51の端点P51を通る。端点P51を通る第1の線と異なる第1の線の位置は、領域R51の長手方向DR51における端点P51からの距離を示す。そのため、ユーザーは、領域R51の長さLG51を正確に判断することができる。
基準モデル設定部187は、ステップS152において基準モデルの位置を設定する必要はない。基準モデル設定部187は、ステップS152において基準モデルの間隔を設定する必要はない。したがって、基準モデル設定部187は、ステップS152において基準モデルの方向のみを設定してもよい。基準モデル設定部187は、ステップS152において基準モデルの方向および位置を設定してもよい。基準モデル設定部187は、ステップS152において基準モデルの方向および間隔を設定してもよい。
本発明の各態様は次の変形例を含んでもよい。領域方向算出部191は、方向算出ステップ(ステップS151)において、3Dデータに含まれる2つ以上の点が示す3D形状の表面において細長い形状を持つ特徴領域の長手方向を算出する。基準モデル設定部187は、設定ステップ(ステップS152)において、その長手方向に基づいて基準モデルの方向を設定する。
本発明の各態様は次の変形例を含んでもよい。基準モデル設定部187は、設定ステップ(ステップS152)において、特徴領域の位置に基づいて基準モデルの位置を設定する。
本発明の各態様は次の変形例を含んでもよい。基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。基準モデル設定部187は、設定ステップ(ステップS152)において、特徴領域の大きさに基づいて、2つ以上の基準図形の間隔を設定する。
本発明の各態様は次の変形例を含んでもよい。基準モデル設定部187は、設定ステップ(ステップS152)において、3Dデータに含まれる2つ以上の点が示す3D形状に基づいて基準モデルの方向および2つ以上の基準図形の間隔の少なくとも1つを設定する。基準モデル設定部187は、基準モデルの方向および2つ以上の基準図形の間隔のいずれか一方のみを設定してもよい。基準モデル設定部187は、基準モデルの方向および2つ以上の基準図形の間隔を設定してもよい。
第5の実施形態において、被写体の表面における特徴領域の長手方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
さらに、被写体の表面における特徴領域の位置に基づいて基準モデルの位置が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさをより正確に判断するのに適した画像を表示することができる。
さらに、被写体の表面における特徴領域の大きさに基づいて基準モデルの間隔が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさをより正確に判断するのに適した画像を表示することができる。
(第5の実施形態の変形例)
本発明の第5の実施形態の変形例を説明する。第5の実施形態の変形例における画像表示処理では、ユーザーによって指定された位置の3D形状に基づいて基準モデルの方向、位置、および間隔が設定される。
図34に示すCPU18fは、図37に示すCPU18gに変更される。図37は、CPU18gの機能構成を示す。CPU18gの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、基準点設定部189、および領域方向算出部191を含む。図37に示すブロックの少なくとも1つがCPU18gと異なる回路で構成されてもよい。図34に示す構成と同じ構成の説明を省略する。
図37に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図37に示す各部は、1つまたは複数のプロセッサを含むことができる。図37に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5を通して入力されたとき、情報受付部185は、その位置を受け付ける(受付ステップ)。基準点設定部189は、その位置と対応する点を特定する。その点は、上記の2つ以上の点に含まれる。基準点設定部189は、その点を基準点として設定する。基準点設定部189は、基準点を表示部5に表示された画像と関連付けることにより、基準点をその画像に設定する。基準点設定部189は、2つの基準点を設定する。2つの基準点の各々は3D座標を持つ。基準点設定部189によって設定された2つの基準点の情報は、RAM14に保持される。領域方向算出部191は、2つの基準点を通る直線の方向を算出する。
図38を使用することにより、第5の実施形態の変形例における画像表示処理について説明する。図38は、画像表示処理の手順を示す。図35に示す処理と同じ処理の説明を省略する。
ステップS104の後、表示制御部184は、ステップS104において生成された3Dデータの3D画像を表示部5に表示する(ステップS161)。
ステップS161の後、情報受付部185は、操作部4または表示部5を通して2つの点の各々の位置を受け付ける。基準点設定部189は、情報受付部185によって受け付けられた位置と対応する基準点を設定する。これにより、基準点設定部189は、2つの基準点を設定する(ステップS162)。ステップS162は、受付ステップと対応する。
ステップS162の後、領域方向算出部191は、2つの基準点を通る3D直線を算出する。その3D直線の方向は、細長い形状を持つ特徴領域の長手方向と対応し、その3D直線の位置は特徴領域の位置と対応する(ステップS151a)。ステップS151aの後、ステップS152が実行される。
図39は、ステップS161において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB51の3D画像G52を表示部5に表示する。図39に示す被写体OB51は、図36に示す被写体OB51と同様に、領域R51を有する。領域R51は、被写体OB51の表面に形成された傷であり、細長い形状を持つ。
ユーザーは、カーソルを移動させる、または表示部5の画面をタッチすることにより、領域R51上の2つの位置を内視鏡装置1に入力する。例えば、その2つの位置は、領域R51の2つの端点の位置である。基準点設定部189は、ステップS162において、その2つの位置の各々と対応する基準点を設定する。
図39に示す例では、基準点設定部189は基準点P52および基準点P53を設定する。表示制御部184は、基準点P52および基準点P53の各々を示すマークを3D画像G52上に表示してもよい。
情報受付部185は、ステップS103において表示されたフリーズ画像上の位置を受け付けてもよい。その場合、表示制御部184がステップS161を実行する必要はない。フリーズ画像は、3Dデータを生成するための2D画像を含む。情報受付部185はその2D画像上の位置を受け付けてもよく、かつ基準点設定部189はその位置に基準点を設定してもよい。
図40は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB51の3D画像G53を表示部5に表示する。図40に示す被写体OB51は、図39に示す被写体OB51と同様に、領域R51を有する。
3D画像G53は、画素群PG52を含む。画素群PG52は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG52以外の画素は、基準モデルと交差しない第2の点と対応する。
領域方向算出部191は、ステップS151aにおいて、基準点P52および基準点P53を通る3D直線を算出する。基準モデル設定部187は、ステップS152において、基準モデルを形成する面の法線方向を、3D直線の方向に設定する。基準モデル設定部187は、ステップS152において、基準モデルを形成する1つの面の位置を、基準点P52の位置に設定する。基準モデル設定部187は、ステップS152において、基準点P52と基準点P53との3次元距離(3D距離)に基づいて基準モデルの間隔を設定する。
本発明の各態様は次の変形例を含んでもよい。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS162)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS152)において、2つの点を通る線の方向に基づいて基準モデルの方向を設定する。
本発明の各態様は次の変形例を含んでもよい。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS162)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS152)において、2つの点のいずれか1つの位置に基づいて基準モデルの位置を設定する。
本発明の各態様は次の変形例を含んでもよい。基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS162)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS152)において、2つの点の間の距離に基づいて、2つ以上の基準図形の間隔を設定する。
第5の実施形態の変形例において、2つの基準点を通る線の方向に基づいて基準モデルの方向が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
さらに、基準点の位置に基づいて基準モデルの位置が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさをより正確に判断するのに適した画像を表示することができる。
さらに、2つの基準点の間の距離に基づいて基準モデルの間隔が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさをより正確に判断するのに適した画像を表示することができる。
(第6の実施形態)
本発明の第6の実施形態による内視鏡装置1は、基準モデルの位置を設定する機能を持つ。第6の実施形態において、図9に示すCPU18は、図41に示すCPU18hに変更される。図41は、CPU18hの機能構成を示す。CPU18hの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、および基準モデル設定部187を含む。図41に示すブロックの少なくとも1つがCPU18hと異なる回路で構成されてもよい。図9に示す構成と同じ構成の説明を省略する。
図41に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図41に示す各部は、1つまたは複数のプロセッサを含むことができる。図41に示す各部は、1つまたは複数の論理回路を含むことができる。
基準モデル設定部187は、基準モデルの位置を設定する(設定ステップ)。
図42を使用することにより、第6の実施形態における画像表示処理について説明する。図42は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS104の後、基準モデル設定部187は、基準モデルの位置を設定する(ステップS171)。ステップS171は、設定ステップと対応する。ステップS171の後、ステップS105が実行される。
例えば、基準モデル設定部187は、ステップS171において以下の処理を実行する。制御部180は、ライブ画像上の点と対応する3D空間の点とカメラ中心(光学中心)との距離を算出する。例えば、ライブ画像上のその点は、ライブ画像の中心である。表示制御部184は、その距離をライブ画像上に表示する。基準モデル設定部187は、ライブ画像上のその点と対応する3Dデータの点を抽出し、かつ基準モデルの位置を3Dデータのその点の位置に設定する。
図43は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB61の3D画像G61を表示部5に表示する。被写体OB61は、領域R61および領域R62を有する。領域R61は、深さを持つ凹部である。領域R62は、被写体OB61の表面に形成された傷である。
3D画像G61は、画素群PG61を含む。画素群PG61は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG61以外の画素は、基準モデルと交差しない第2の点と対応する。
制御部180は、ステップS101において基準点P61とカメラ中心との距離を算出する。基準モデル設定部187は、ステップS171において、基準モデルの座標系の原点を基準点P61に設定することにより基準モデルの位置を設定する。
画素群PG61は、主に方向DR61に伸びる2つ以上の線上の画素と、主に方向DR61にほぼ垂直な方向DR62に伸びる2つ以上の線上の画素とを含む。画素群PG61を形成する1つの第1の線および1つの第2の線は、基準点P61を通る。そのため、ユーザーは、基準点P61からの距離を正確に判断することができる。
本発明の各態様は次の変形例を含んでもよい。基準モデル設定部187は、設定ステップ(ステップS171)において基準モデルの位置を設定する。
第6の実施形態において、基準モデルの位置が設定される。例えば、基準モデルの位置は、ユーザーが注目する点と対応する基準点の位置に基づいて設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第6の実施形態の変形例)
本発明の第6の実施形態の変形例を説明する。第6の実施形態の変形例における画像表示処理では、ユーザーによって指定された位置に基づいて基準モデルの位置が設定される。
図41に示すCPU18hは、図44に示すCPU18iに変更される。図44は、CPU18iの機能構成を示す。CPU18iの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、および基準点設定部189を含む。図44に示すブロックの少なくとも1つがCPU18iと異なる回路で構成されてもよい。図41に示す構成と同じ構成の説明を省略する。
図44に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図44に示す各部は、1つまたは複数のプロセッサを含むことができる。図44に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる1つの点の位置が操作部4または表示部5を通して入力されたとき、情報受付部185は、その位置を受け付ける(受付ステップ)。基準点設定部189は、その位置と対応する点を特定する。その点は、上記の2つ以上の点に含まれる。基準点設定部189は、その点を基準点として設定する。基準点設定部189は、基準点を表示部5に表示された画像と関連付けることにより、基準点をその画像に設定する。基準点は3D座標を持つ。基準点設定部189によって設定された基準点の情報は、RAM14に保持される。基準モデル設定部187は、基準点の位置に基づいて基準モデルの位置を設定する(設定ステップ)。
図45を使用することにより、第6の実施形態の変形例における画像表示処理について説明する。図45は、画像表示処理の手順を示す。図42に示す処理と同じ処理の説明を省略する。
ステップS104の後、表示制御部184は、ステップS104において生成された3Dデータの3D画像を表示部5に表示する(ステップS181)。
ステップS181の後、情報受付部185は、操作部4または表示部5を通して1つの点の位置を受け付ける。基準点設定部189は、情報受付部185によって受け付けられた位置と対応する基準点を設定する(ステップS182)。ステップS182は、受付ステップと対応する。ステップS182の後、ステップS171が実行される。
図46は、ステップS181において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB61の3D画像G62を表示部5に表示する。図46に示す被写体OB62は、図43に示す被写体OB61と同様に、領域R61および領域R62を有する。
ユーザーは、カーソルを移動させる、または表示部5の画面をタッチすることにより、被写体OB61上の位置を内視鏡装置1に入力する。例えば、その位置は、領域R61における位置である。基準点設定部189は、ステップS182において、その位置と対応する基準点を設定する。
図46に示す例では、基準点設定部189は基準点P62を設定する。表示制御部184は、基準点P62を示すマークを3D画像G62上に表示してもよい。
情報受付部185は、ステップS103において表示されたフリーズ画像上の位置を受け付けてもよい。その場合、表示制御部184がステップS181を実行する必要はない。フリーズ画像は、3Dデータを生成するための2D画像を含む。情報受付部185はその2D画像上の位置を受け付けてもよく、かつ基準点設定部189はその位置に基準点を設定してもよい。
基準モデル設定部187は、ステップS171において、基準モデルを形成する1つの面の位置を、基準点P62の位置に設定する。
情報受付部185は、ステップS182において2つ以上の点の位置を受け付けてもよい。基準点設定部189は、ステップS182において2つ以上の基準点を設定してもよい。基準モデル設定部187は、ステップS171において、その2つ以上の基準点の位置に基づいて基準モデルの位置を設定してもよい。例えば、基準モデル設定部187は、基準モデルを形成する1つの面の位置を、2つの基準点の中点の位置に設定してもよい。基準モデル設定部187は、基準モデルを形成する1つの面の位置を、3つ以上の基準点の重心の位置に設定してもよい。
本発明の各態様は次の変形例を含んでもよい。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる1つ以上の点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS182)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS171)において、1つ以上の点の位置に基づいて基準モデルの位置を設定する。
第6の実施形態の変形例において、基準点の位置に基づいて基準モデルの位置が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第7の実施形態)
本発明の第7の実施形態による内視鏡装置1は、基準モデルの間隔を設定する機能を持つ。第7の実施形態において、図9に示すCPU18は、図47に示すCPU18jに変更される。図47は、CPU18jの機能構成を示す。CPU18jの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、および領域大きさ算出部192を含む。図47に示すブロックの少なくとも1つがCPU18jと異なる回路で構成されてもよい。図9に示す構成と同じ構成の説明を省略する。
図47に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図47に示す各部は、1つまたは複数のプロセッサを含むことができる。図47に示す各部は、1つまたは複数の論理回路を含むことができる。
基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。3Dデータは、2つ以上の点の3D座標を含む。領域大きさ算出部192は、その2つ以上の点が示す3D形状における特徴領域の大きさを算出する(大きさ算出ステップ)。基準モデル設定部187は、特徴領域の大きさに基づいて2つ以上の基準図形の間隔を設定する(設定ステップ)。
図48を使用することにより、第7の実施形態における画像表示処理について説明する。図48は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS104の後、領域大きさ算出部192は、被写体の表面において特徴領域を検出し、特徴領域の大きさを算出する(ステップS191)。ステップS191は、大きさ算出ステップと対応する。
例えば、領域大きさ算出部192は、ステップS191において以下の処理を実行する。領域大きさ算出部192は、Deep Learningのような機械学習を使用することにより特徴領域を検出する。例えば、特徴領域は、航空機エンジンのブレードまたは配管の円筒面などである。領域大きさ算出部192は、ブレードのエッジの長さを算出する。あるいは、領域大きさ算出部192は、円筒面の直径を算出する。
図49および図50は、ブレードの3D画像の例を示す。図49に示す3D画像G71は、被写体OB71の3D形状を示す。被写体OB71は、ブレードである。領域大きさ算出部192は、ブレードのエッジの長さLG71を算出する。長さLG71は、ブレードの根元からブレードの先端までの距離を示す。図50に示す3D画像G72は、被写体OB72の3D形状を示す。被写体OB72は、円筒面である。領域大きさ算出部192は、円筒面の直径DM71を算出する。
ステップS191の後、基準モデル設定部187は、基準モデルの間隔を設定する(ステップS192)。ステップS192は、設定ステップと対応する。例えば、基準モデル設定部187は、ステップS192において、ブレードのエッジの長さまたは円筒面の直径を所定の数で割ることにより得られた値を基準モデルの間隔として設定する。ステップS192の後、ステップS105が実行される。
図51は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB71の3D画像G73を表示部5に表示する。図51に示す被写体OB71は、図49に示す被写体OB71と同様に、ブレードである。
3D画像G73は、画素群PG71を含む。画素群PG71は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG71以外の画素は、基準モデルと交差しない第2の点と対応する。
領域大きさ算出部192は、ステップS191において、ブレードのエッジの長さLG71を算出する。基準モデル設定部187は、ステップS192において、長さLG71を所定の数で割ることにより得られた値を基準モデルの間隔として設定する。図51に示す例では、所定の数は4である。
本発明の各態様は次の変形例を含んでもよい。基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。基準モデル設定部187は、設定ステップ(ステップS192)において、3Dデータに含まれる2つ以上の点が示す3D形状に基づいて2つ以上の基準図形の間隔を設定する。
本発明の各態様は次の変形例を含んでもよい。領域大きさ算出部192は、大きさ算出ステップ(ステップS191)において、3Dデータに含まれる2つ以上の点が示す3D形状における特徴領域の大きさを算出する。基準モデル設定部187は、設定ステップ(ステップS192)において、その大きさに基づいて2つ以上の基準図形の間隔を設定する。
第7の実施形態において、特徴領域の大きさに基づいて基準モデルの間隔が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
第7の実施形態において、内視鏡装置1は、3Dデータが示す3D形状上の長さを実際の被写体のスケールと合わせる必要はない。3D形状上の長さは、実際の長さのスケールを持つ必要はない。3D形状上の絶対的な長さが算出されていない場合であっても、ユーザーは、ブレードのエッジの長さまたは円筒面の直径などのような基準長に基づいて被写体の表面における領域の大きさを判断することができる。
航空機エンジンのブレードにおいて、傷の大きさの許容範囲は、ブレードの根元からの距離(エリア)に基づいて設定される。ユーザーは、その傷がどのエリアに属するのかを容易に判断することができる。
(第7の実施形態の変形例)
本発明の第7の実施形態の変形例を説明する。第7の実施形態の変形例における画像表示処理では、ユーザーによって指定された位置に基づいて基準モデルの間隔が設定される。
図47に示すCPU18jは、図52に示すCPU18kに変更される。図52は、CPU18kの機能構成を示す。CPU18kの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、基準モデル設定部187、基準点設定部189、および領域大きさ算出部192を含む。図52に示すブロックの少なくとも1つがCPU18kと異なる回路で構成されてもよい。図47に示す構成と同じ構成の説明を省略する。
図52に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図52に示す各部は、1つまたは複数のプロセッサを含むことができる。図52に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5を通して入力されたとき、情報受付部185は、その位置を受け付ける(受付ステップ)。基準点設定部189は、その位置と対応する点を特定する。その点は、上記の2つ以上の点に含まれる。基準点設定部189は、その点を基準点として設定する。基準点設定部189は、基準点を表示部5に表示された画像と関連付けることにより、基準点をその画像に設定する。基準点設定部189は、2つの基準点を設定する。2つの基準点の各々は3D座標を持つ。基準点設定部189によって設定された2つの基準点の情報は、RAM14に保持される。領域大きさ算出部192は、2つの基準点の間の3D距離を算出することにより、特徴領域の大きさを算出する。
図53を使用することにより、第7の実施形態の変形例における画像表示処理について説明する。図53は、画像表示処理の手順を示す。図48に示す処理と同じ処理の説明を省略する。
ステップS104の後、表示制御部184は、ステップS104において生成された3Dデータの3D画像を表示部5に表示する(ステップS201)。
ステップS201の後、情報受付部185は、操作部4または表示部5を通して2つの点の各々の位置を受け付ける。基準点設定部189は、情報受付部185によって受け付けられた位置と対応する基準点を設定する。これにより、基準点設定部189は、2つの基準点を設定する(ステップS202)。ステップS202は、受付ステップと対応する。
ステップS202の後、領域大きさ算出部192は、2つの基準点の間の3D距離を算出することにより、特徴領域の大きさを算出する(ステップS191a)。ステップS191aの後、ステップS192が実行される。
図54は、ステップS201において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB71の3D画像G74を表示部5に表示する。図54に示す被写体OB71は、図49に示す被写体OB71と同様に、ブレードである。
ユーザーは、カーソルを移動させる、または表示部5の画面をタッチすることにより、ブレードのエッジ上の2つの位置を内視鏡装置1に入力する。例えば、その2つの位置は、エッジの2つの端点の位置である。基準点設定部189は、ステップS202において、その2つの位置の各々と対応する基準点を設定する。
図54に示す例では、基準点設定部189は基準点P71および基準点P72を設定する。表示制御部184は、基準点P71および基準点P72の各々を示すマークを3D画像G74上に表示してもよい。
情報受付部185は、ステップS103において表示されたフリーズ画像上の位置を受け付けてもよい。その場合、表示制御部184がステップS201を実行する必要はない。フリーズ画像は、3Dデータを生成するための2D画像を含む。情報受付部185はその2D画像上の位置を受け付けてもよく、かつ基準点設定部189はその位置に基準点を設定してもよい。
図55は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB71の3D画像G75を表示部5に表示する。図55に示す被写体OB71は、図54に示す被写体OB71と同様に、ブレードである。
3D画像G75は、画素群PG72を含む。画素群PG72は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG72以外の画素は、基準モデルと交差しない第2の点と対応する。
領域大きさ算出部192は、ステップS191aにおいて、基準点P71と基準点P72との3D距離D71を算出する。基準モデル設定部187は、ステップS192において、3D距離D71に基づいて基準モデルの間隔を設定する。
本発明の各態様は次の変形例を含んでもよい。基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。3Dデータは、2つ以上の点の3D座標を含む。その2つ以上の点に含まれる2つの点の各々の位置が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS202)において、その位置を受け付ける。基準モデル設定部187は、設定ステップ(ステップS192)において、2つの点の間の距離に基づいて2つ以上の基準図形の間隔を設定する。
第7の実施形態の変形例において、基準点の位置に基づいて基準モデルの間隔が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第8の実施形態)
本発明の第8の実施形態による内視鏡装置1は、基準モデルの形状(種類)を設定する機能を持つ。第8の実施形態による内視鏡装置1は、図41に示すCPU18hを有する。
基準モデル設定部187は、基準モデルの形状を設定する(設定ステップ)。例えば、基準モデルの形状は、基準モデルを形成する2つ以上の基準図形の種類と対応する。
図56を使用することにより、第8の実施形態における画像表示処理について説明する。図56は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS104の後、基準モデル設定部187は、基準モデルの形状を設定する(ステップS211)。ステップS211は、設定ステップと対応する。ステップS211の後、ステップS105が実行される。
基準モデル設定部187は、ステップS211において以下の処理を実行する。例えば、ユーザーは、操作部4を操作することにより、基準モデルの所定の形状を示す情報を内視鏡装置1に入力する。基準モデル設定部187は、その情報が示す形状を持つ基準モデルを選択する。基準モデル設定部187は、過去に使用されたフリーズ画像または3D画像と、ユーザーによって指定された基準モデルの形状との組み合わせを使用することにより機械学習を実行し、学習データを生成してもよい。基準モデル設定部187は、ステップS211において、学習データに基づいて基準モデルの形状を設定してもよい。
基準モデル設定部187は、3Dデータの3D画像に基づいて被写体の3D形状の特徴を検出し、かつその特徴に基づいて基準モデルの形状を設定してもよい。例えば、被写体の形状が円筒である場合、基準モデル設定部187は、図12に示す基準モデルMD11を選択してもよい。被写体の形状が球である場合、基準モデル設定部187は、図13に示す基準モデルMD12を選択してもよい。
本発明の各態様は次の変形例を含んでもよい。基準モデル設定部187は、設定ステップ(ステップS211)において、基準モデルの形状を設定する。
第8の実施形態における画像表示処理は、第2から第7の実施形態における画像表示処理と組み合わされてもよい。したがって、本発明の各態様は次の変形例を含んでもよい。基準モデルは、2つ以上の基準図形が連続的に配置された構造を持つ。基準モデル設定部187は、設定ステップにおいて、基準モデルの形状、基準モデルの位置、基準モデルの方向、および2つ以上の基準図形の間隔の少なくとも1つを設定する。基準モデル設定部187は、基準モデルの形状、基準モデルの位置、基準モデルの方向、および2つ以上の基準図形の間隔のいずれか1つのみを設定してもよい。基準モデル設定部187は、基準モデルの形状、基準モデルの位置、基準モデルの方向、および2つ以上の基準図形の間隔のうちの2つ以上を設定してもよい。
第8の実施形態において、基準モデルの形状が設定される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第9の実施形態)
本発明の第9の実施形態による内視鏡装置1は、ユーザーの指示に基づいて基準モデルを修正する機能を持つ。第9の実施形態による内視鏡装置1は、図41に示すCPU18hを有する。
判断部182は、3Dデータおよび基準モデルを参照し、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する(判断ステップ)。画像生成部183は、3Dデータに含まれる2つ以上の点が示す3D形状の3D画像を生成する(生成ステップ)。3D画像において、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とは互いに異なる。第1の点は3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係の条件を満たし、第2の点はその条件を満たさない。表示制御部184は、3D画像を表示部5に表示する(表示ステップ)。
3D画像が表示部5に表示された後、表示制御部184は基準モデルを表示部5に表示する(基準モデル表示ステップ)。例えば、表示制御部184は、基準モデルを3D画像上に表示する。表示部5に表示された基準モデルの位置、方向、および間隔の少なくとも1つを変更する指示が操作部4または表示部5を通して入力されたとき、情報受付部185はその指示を受け付ける(受付ステップ)。基準モデル設定部187は、その指示に基づいて基準モデルの位置、方向、および間隔の少なくとも1つを変更する(変更ステップ)。
例えば、基準モデルの位置を変更する指示が入力されたとき、基準モデル設定部187は基準モデルの位置を変更する。基準モデルの方向を変更する指示が入力されたとき、基準モデル設定部187は基準モデルの方向を変更する。基準モデルの間隔を変更する指示が入力されたとき、基準モデル設定部187は基準モデルの間隔を変更する。表示制御部184は、変更された基準モデルを3D画像上に表示してもよい。変更ステップが実行された後、判断ステップ、生成ステップ、および表示ステップが再度実行される。
図57を使用することにより、第9の実施形態における画像表示処理について説明する。図57は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS107の後、情報受付部185は、操作部4または表示部5を通して基準モデルの選択指示を受け付ける(ステップS221)。
図58は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB81の3D画像G81を表示部5に表示する。3D画像G81は、図11に示す3D画像G12と同様に、X軸と平行な方向に見た被写体OB81の3D形状を示す。3D画像G81は、画素群PG81を含む。画素群PG81は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG81以外の画素は、基準モデルと交差しない第2の点と対応する。画素群PG81は、方向DR81と垂直な第1の線上の画素と、方向DR82と垂直な第2の線上の画素とを含む。
ユーザーは、基準モデルを移動させるために、操作部4を操作することにより、基準モデルの選択指示を内視鏡装置1に入力する。例えば、ユーザーは、画素群PG81の位置をタップする。
ステップS221の後、表示制御部184は、基準モデルを3D画像上に表示する(ステップS222)。ステップS222は、基準モデル表示ステップと対応する。
図59は、ステップS222において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB81の3D画像G82を表示部5に表示する。3D画像G82は、図58に示す3D画像G81と同様に、X軸と平行な方向に見た被写体OB81の3D形状を示す。表示制御部184は、基準モデルMD81を3D画像G82に重畳する。基準モデルMD81は、方向DR83と垂直な第1の面と、方向DR84と垂直な第2の面と、図59に示されていない第3の面とによって形成されている。図59に示す例では、被写体OB81の表面SF81の法線方向DR85は、基準モデルMD81の第1の面の法線方向(方向DR83)および基準モデルMD81の第2の面の法線方向(方向DR84)と異なる。
図58に示す画素群PG81と図59に示す基準モデルMD81とが重なると、基準モデルMD81の視認性が低下する。そのため、画像生成部183は、3D画像G82において画素群PG81の色を変更する処理を実行する。
3Dデータに含まれる3D座標は、3Dデータを生成するために使用された2D画像における2D座標と関連付けられている。つまり、3Dデータに含まれる各点は、2D画像の画素と関連付けられている。画像生成部183は、画素群PG81に含まれる画素の画素値(R,G,B)を、その画素と対応する点の3D座標と関連付けられた2D座標における画素値に変更する。これにより、画素群PG81は目立たなくなる。
ステップS222の後、情報受付部185は、操作部4または表示部5を通して基準モデルの移動指示を受け付ける(ステップS223)。ステップS223は、受付ステップと対応する。基準モデルの移動指示は、基準モデルの位置および方向の少なくとも一方を変更する指示と対応する。
例えば、ユーザーは、表示部5の画面上で指を滑らせることにより基準モデルの移動指示を内視鏡装置1に入力する。例えば、ユーザーが指を表示部5の画面上で直線的に移動させた場合、情報受付部185は、基準モデルを指の移動方向に移動させる移動指示を受け付ける。指の移動量は、基準モデルの移動量と対応する。ユーザーが指を表示部5の画面上で円状に移動させた場合、情報受付部185は、基準モデルを回転させる移動指示を受け付ける。指の軌跡が示す角度は、基準モデルの回転量と対応する。
ステップS223の後、基準モデル設定部187は、基準モデルの移動指示に基づいて基準モデルの位置または方向を変更する(ステップS224)。ステップS224は、変更ステップと対応する。ステップS223およびステップS224は繰り返し実行されてもよい。
例えば、基準モデル設定部187は、ステップS224において以下の処理を実行する。情報受付部185が基準モデルを指の移動方向に移動させる移動指示を受け付けた場合、基準モデル設定部187は、基準モデルの位置をその移動方向に所定の移動量だけ移動させる。情報受付部185が基準モデルを回転させる移動指示を受け付けた場合、基準モデル設定部187は、基準モデルを所定の回転量だけ回転させることにより基準モデルの方向を変更する。基準モデル設定部187は、基準モデルの位置および方向のいずれか一方のみを変更してもよい。基準モデル設定部187は、基準モデルの位置および方向を変更してもよい。
ステップS224の後、判断部182は、3Dデータおよび基準モデルを参照し、3Dデータに含まれる2つ以上の点の各々と基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する(ステップS225)。ステップS225は、判断ステップと対応し、かつステップS105と同じである。
ステップS225の後、画像生成部183は、ステップS225において判断された位置関係に応じた色を持つ3D画像を生成する(ステップS226)。ステップS226は生成ステップと対応し、かつステップS106と同じである。
ステップS226の後、表示制御部184は、ステップS226において生成された3D画像を表示部5に表示する(ステップS227)。ステップS227は、表示ステップと対応し、かつステップS107と同じである。ステップS227が実行されたとき、画像表示処理が終了する。
図60は、ステップS227において表示部5に表示された3D画像の例を示す。例えば、ユーザーが指の移動を停止したとき、指が表示部5の画面から離れたとき、またはユーザーが3D画像を更新する指示を内視鏡装置1に入力したとき、表示制御部184は、被写体OB81の3D画像G83を表示部5に表示する。3D画像G83は、図58に示す3D画像G81と同様に、X軸と平行な方向に見た被写体OB81の3D形状を示す。3D画像G83は、画素群PG82を含む。画素群PG82は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG82以外の画素は、基準モデルと交差しない第2の点と対応する。画素群PG82は、方向DR86と垂直な第1の線上の画素と、方向DR87と垂直な第2の線上の画素とを含む。
画素群PG82を形成する第1の線と垂直な方向DR86は、被写体OB81の表面SF81の法線方向DR85と平行である。つまり、その第1の線は、表面SF81と平行である。
ユーザーは、表示部5の画面上でピンチインまたはピンチアウトの操作を実行することにより3D画像を拡大または縮小する指示を内視鏡装置1に入力してもよい。その操作が実行されたとき、表示制御部184は、3D画像を縮小または拡大してもよい。基準モデル設定部187は、3D画像の拡大率に基づいて基準モデルの間隔を変更してもよい。例えば、3D画像が拡大される場合、基準モデル設定部187は、基準モデルの間隔を小さい値に変更してもよい。3D画像が縮小される場合、基準モデル設定部187は、基準モデルの間隔を大きい値に変更してもよい。基準モデル設定部187は、基準モデルの間隔として整数(3mmなど)を使用してもよい。
ユーザーは、操作部4を操作することにより基準モデルの間隔を示す数を内視鏡装置1に入力してもよい。情報受付部185は、操作部4を通してその数を受け付けてもよく、かつ基準モデル設定部187は、基準モデルの間隔をその数に変更してもよい。
ユーザーは、操作部4を操作することにより面積の値を内視鏡装置1に入力してもよい。情報受付部185は、操作部4を通してその値を受け付けてもよい。基準モデル設定部187は、その値を長さに変換し、かつ基準モデルの間隔をその長さに変更してもよい。例えば、基準モデルが、立方体が繰り返し配置された構造を持つ場合、立方体が持つ面の面積の値が内視鏡装置1に入力される。傷の面積が検査の判断基準として使用される例では、ユーザーは、その面積の値を内視鏡装置1に入力してもよい。
ユーザーは、操作部4を操作することにより体積の値を内視鏡装置1に入力してもよい。情報受付部185は、操作部4を通してその値を受け付けてもよい。基準モデル設定部187は、その値を長さに変換し、かつ基準モデルの間隔をその長さに変更してもよい。例えば、基準モデルが、立方体が繰り返し配置された構造を持つ場合、立方体の体積の値が内視鏡装置1に入力される。
ユーザーは、操作部4を操作することにより、判断部182が割り算の余りを判断するための閾値を内視鏡装置1に入力してもよい。情報受付部185は、操作部4を通してその閾値を受け付けてもよく、かつ判断部182はステップS105およびステップS225においてその閾値を使用してもよい。
基準モデル設定部187は、ステップS224において基準モデルの間隔のみを変更してもよい。基準モデル設定部187は、ステップS224において基準モデルの位置および間隔を変更してもよい。基準モデル設定部187は、ステップS224において基準モデルの方向および間隔を変更してもよい。基準モデル設定部187は、ステップS224において基準モデルの位置、方向、および間隔を変更してもよい。
基準モデルがステップS222において被写体の3D画像上に表示されるため、ユーザーは、被写体に対する基準モデルの位置または方向が所定の位置または所定の方向となるように基準モデルを移動させることができる。しかしながら、ユーザーが基準モデルを移動させているとき、被写体の3D画像が表示されていなくてもよい。
図17、図21、図23、図28、図31、図35、図38、図42、図45、図48、図53、または図56に示す画像表示処理においてステップS107が実行された後、ステップS221からステップS227が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。画像生成部183によって生成される画像は、3Dデータに含まれる2つ以上の点が示す3D形状の画像である。その画像が表示部5(ディスプレイ)に表示された後、表示制御部184は、基準モデル表示ステップ(ステップS222)において、基準モデルを表示部5に表示する。表示部5に表示された基準モデルの位置、表示部5に表示された基準モデルの方向、および表示部5に表示された基準モデルの2つ以上の基準図形の間隔の少なくとも1つを変更する指示が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS223)においてその指示を受け付ける。基準モデル設定部187(変更部)は、変更ステップ(ステップS224)において、その指示に基づいて基準モデルの位置、基準モデルの方向、および基準モデルの間隔の少なくとも1つを変更する。変更ステップ(ステップS224)が実行された後、判断ステップ(ステップS225)、生成ステップ(ステップS226)、および表示ステップ(ステップS227)が再度実行される。
第9の実施形態において、ユーザーの指示に基づいて基準モデルが修正される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第9の実施形態の変形例)
本発明の第9の実施形態の変形例による内視鏡装置1は、ユーザーの指示に基づいて3Dデータに含まれる2つ以上の点の位置を修正する機能を持つ。第9の実施形態において内視鏡装置1は、2つ以上の点に対する基準モデルの位置を変更する。一方、第9の実施形態の変形例において内視鏡装置1は、基準モデルに対する2つ以上の点の位置を変更する。第9の実施形態の変形例による内視鏡装置1は、図41に示すCPU18hを有する。
表示制御部184は、3D画像を表示部5に表示する(表示ステップ)。表示部5に表示された3D画像を移動させる指示が操作部4または表示部5を通して入力されたとき、情報受付部185はその指示を受け付ける(受付ステップ)。座標算出部181(変更部)は、その指示に基づいて、3Dデータに含まれる2つ以上の点の3D座標を変更する(変更ステップ)。このとき、表示制御部184は、変更された3D座標に基づいて3D画像を表示してもよい。変更ステップが実行された後、判断ステップ、生成ステップ、および表示ステップが再度実行される。
図61を使用することにより、第9の実施形態の変形例における画像表示処理について説明する。図61は、画像表示処理の手順を示す。図10または図57に示す処理と同じ処理の説明を省略する。
ステップS107の後、情報受付部185は、操作部4または表示部5を通して被写体の選択指示を受け付ける(ステップS231)。
例えば、図58に示す3D画像G81が表示部5に表示された後、ユーザーは、被写体を移動させるために、操作部4または表示部5を操作することにより、被写体の選択指示を内視鏡装置1に入力する。例えば、ユーザーは、図58に示す被写体OB81をタップする。ステップS231の後、表示制御部184は、ステップS222において基準モデルを3D画像上に表示する。
ステップS222の後、情報受付部185は、操作部4または表示部5を通して被写体の移動指示を受け付ける(ステップS232)。ステップS232は、受付ステップと対応する。被写体の移動指示は、被写体の位置および方向の少なくとも一方を変更する指示と対応する。
例えば、ユーザーは、表示部5の画面上で指を滑らせることにより被写体の移動指示を内視鏡装置1に入力する。例えば、ユーザーが指を表示部5の画面上で直線的に移動させた場合、情報受付部185は、被写体を指の移動方向に移動させる移動指示を受け付ける。指の移動量は、被写体の移動量と対応する。ユーザーが指を表示部5の画面上で円状に移動させた場合、情報受付部185は、被写体を回転させる移動指示を受け付ける。指の軌跡が示す角度は、被写体の回転量と対応する。
ステップS232の後、座標算出部181は、被写体の移動指示に基づいて、3Dデータに含まれる3D座標を変更する(ステップS233)。ステップS233は、変更ステップと対応する。ステップS233が実行された後、ステップS225が実行される。
例えば、座標算出部181は、ステップS233において以下の処理を実行する。情報受付部185が被写体を指の移動方向に移動させる移動指示を受け付けた場合、座標算出部181は、3Dデータに含まれる2つ以上の点の各々の3D座標をその移動方向に所定の移動量だけ変更する。情報受付部185が被写体を回転させる移動指示を受け付けた場合、座標算出部181は、3Dデータに含まれる2つ以上の点を所定の回転量だけ回転させることにより3D座標を変更する。
ユーザーが表示部5の画面上で指を滑らせている間、ステップS232およびステップS233が繰り返し実行されてもよい。画像生成部183は、変更された3D座標に基づいて3D画像を生成し、表示制御部184はその3D画像を表示部5に表示してもよい。
図62は、ユーザーが表示部5の画面上で指を滑らせている間に表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB81の3D画像G84を表示部5に表示する。3D画像G84は、図58に示す3D画像G81と同様に、X軸と平行な方向に見た被写体OB81の3D形状を示す。表示制御部184は、基準モデルMD81を3D画像G84に重畳する。図62に示す基準モデルMD81は、図59に示す基準モデルMD81と同じである。
座標算出部181は、操作部4または表示部5を通して入力された被写体OB81の移動指示に基づいて、3D座標を変更する。画像生成部183は、変更された3D座標を含む3Dデータを表示するための3D画像G84を生成する。表示制御部184は、画像生成部183によって生成された3D画像G84を表示部5に表示する。
図63は、ステップS227において表示部5に表示された3D画像の例を示す。例えば、ユーザーが指の移動を停止したとき、指が表示部5の画面から離れたとき、またはユーザーが3D画像を更新する指示を内視鏡装置1に入力したとき、表示制御部184は、被写体OB81の3D画像G85を表示部5に表示する。3D画像G85は、図62に示す3D画像G84と同様に、X軸と平行な方向に見た被写体OB81の3D形状を示す。3D画像G85は、画素群PG83を含む。画素群PG83は、基準モデルと交差する第1の点と対応する画素を含む。画素群PG83以外の画素は、基準モデルと交差しない第2の点と対応する。画素群PG83は、方向DR86と垂直な第1の線上の画素と、方向DR87と垂直な第2の線上の画素とを含む。
画素群PG83を形成する第1の線と垂直な方向DR86は、被写体OB81の表面SF81の法線方向DR88と平行である。つまり、その第1の線は、表面SF81と平行である。
基準モデルがステップS222において被写体の3D画像上に表示されるため、ユーザーは、基準モデルに対する被写体の位置または方向が所定の位置または所定の方向となるように被写体を移動させることができる。しかしながら、基準モデルがステップS222において表示されなくてもよい。
図17、図21、図23、図28、図31、図35、図38、図42、図45、図48、図53、または図56に示す画像表示処理においてステップS107が実行された後、ステップS231、ステップS222、ステップS232、ステップS233、およびステップS225からステップS227が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。画像生成部183によって生成される画像は、3Dデータに含まれる2つ以上の点が示す3D形状の画像である。表示部5(ディスプレイ)に表示されたその画像を移動させる指示が操作部4または表示部5(入力装置)を通して入力されたとき、情報受付部185は、受付ステップ(ステップS232)においてその指示を受け付ける。座標算出部181(変更部)は、変更ステップ(ステップS233)において、その指示に基づいて、3Dデータに含まれる2つ以上の点の3D座標を変更する。変更ステップ(ステップS233)が実行された後、判断ステップ(ステップS225)、生成ステップ(ステップS226)、および表示ステップ(ステップS227)が再度実行される。
第9の実施形態の変形例において、ユーザーの指示に基づいて3Dデータに含まれる2つ以上の点の位置が修正される。そのため、内視鏡装置1は、被写体の表面における領域の大きさを正確に判断するのに適した画像を表示することができる。
(第10の実施形態)
本発明の第10の実施形態において、基準モデルは、カメラ中心(光学中心)から放射状に出る2つ以上の線を含む線群である。図64は、基準モデルの例を示す。図64に示す基準モデルMD91は、カメラ中心C91を通る2つ以上の直線L91を含む。基準図形は、2つ以上の直線L91である。2つ以上の直線L91は、カメラ中心C91を含まない平面上の点を通る。2つ以上の直線L91の方向は、互いに異なる。2つ以上の直線L91の各々は、所定の太さを持ってもよい。
図64において、被写体OB91が示されている。被写体OB91の3Dデータは、2つ以上の点の3D座標を含む。2つ以上の点のいずれか1つが直線L91と交わる場合、その交点とカメラ中心C91との距離が算出される。3D画像においてその交点と対応する画素は、その距離と対応する表示形態を持つ。
第10の実施形態において、図9に示すCPU18は、図65に示すCPU18lに変更される。図65は、CPU18lの機能構成を示す。CPU18lの機能は、制御部180、座標算出部181、判断部182、画像生成部183、表示制御部184、情報受付部185、および距離算出部188を含む。図65に示すブロックの少なくとも1つがCPU18lと異なる回路で構成されてもよい。図9に示す構成と同じ構成の説明を省略する。
図65に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図65に示す各部は、1つまたは複数のプロセッサを含むことができる。図65に示す各部は、1つまたは複数の論理回路を含むことができる。
判断部182は、3Dデータに含まれる2つ以上の点の各々が基準モデルと交差するか否かを判断する。例えば、基準モデルは、図64に示す基準モデルMD91と同様である。判断部182は、基準モデルを形成する2つ以上の直線が通る交点を2つ以上の点から抽出する。距離算出部188は、カメラ中心とその交点との距離を算出する。
画像生成部183は、2つ以上の点と対応する2つ以上の画素を含む画像を生成する。その画像は、3D画像または2D画像である。画像生成部183は、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせる。第1の点は、2つ以上の点に含まれ、かつ基準モデルと交差する。第2の点は、2つ以上の点に含まれ、かつ基準モデルと交差しない。具体的には、画像生成部183は、第1の点と対応する画素の色と、第2の点と対応する画素の色とを異ならせる。例えば、画像生成部183は、第1の点と対応する画素の色を、カメラ中心と第1の点との距離を示す色に設定する。
図66を使用することにより、第10の実施形態における画像表示処理について説明する。図66は、画像表示処理の手順を示す。図10に示す処理と同じ処理の説明を省略する。
ステップS105の後、距離算出部188は、カメラ中心と第1の点との3D距離を算出する(ステップS241)。
ステップS241の後、画像生成部183は、ステップS105において判断された位置関係と、ステップS241において算出された3D距離とに応じた色を持つ3D画像を生成する(ステップS106a)。ステップS106aは、生成ステップと対応する。ステップS106aの後、ステップS107が実行される。
例えば、画像生成部183は、ステップS106aにおいて以下の処理を実行することにより、3D画像の各画素における画素値(R,G,B)を設定する。画像生成部183は、第1の点と対応する画素の画素値(R,G,B)を、ステップS241において算出された3D距離と対応する値に設定する。3Dデータに含まれる3D座標は、3Dデータを生成するために使用された2D画像における2D座標と関連付けられている。つまり、3Dデータに含まれる各点は、2D画像の画素と関連付けられている。画像生成部183は、第2の点と対応する画素の画素値(R,G,B)を、その画素と対応する点の3D座標と関連付けられた2D座標における画素値に設定する。
図67は、ステップS107において表示部5に表示された3D画像の例を示す。表示制御部184は、被写体OB92の3D画像G91を表示部5に表示する。被写体OB92は、領域R91を有する。領域R91は、深さを持つ凹部である。3D画像G91は、画素PX91、画素PX92、および画素PX93を含む。画素PX91、画素PX92、および画素PX93は、基準モデルと交差する第1の点と対応する。画素PX91、画素PX92、および画素PX93以外の画素は、基準モデルと交差しない第2の点と対応する。
距離算出部188は、ステップS241において、カメラ中心と、画素PX91と対応する第1の点との第1の3D距離を算出する。距離算出部188は、ステップS241において、カメラ中心と、画素PX92と対応する第1の点との第2の3D距離を算出する。距離算出部188は、ステップS241において、カメラ中心と、画素PX93と対応する第1の点との第3の3D距離を算出する。画素PX91と対応する第1の点は、領域R91内の点である。画素PX92と対応する第1の点は、領域R91の近傍の点である。画素PX93と対応する第1の点は、領域R91の周辺の表面上の点である。第1の3D距離、第2の3D距離、および第3の3D距離は互いに異なる。そのため、画素PX91の色、画素PX92の色、および画素PX93の色は、互いに異なる。
ユーザーは、第1の点と対応する画素の色に基づいて、カメラ中心と画像内の各領域との距離を確認することができる。ユーザーは、カメラ中心と、計測される位置との距離が適切であるか否かを判断することができる。
基準モデルは、カメラの視野全体に広がるように規則的にかつ密に配置された2つ以上の直線を含んでもよい。3D画像において第1の点が視野全体に広がるため、ユーザーは、被写体の形状を確認することができ、かつ挿入部2の先端20と被写体との位置関係を確認することができる。
カメラ中心と第1の点との3D距離が計測に適した距離の範囲から外れている場合、画像生成部183は、第2の点と対応する画素の色を設定する方法と同様の方法を使用することにより、その第1の点と対応する画素の色を設定してもよい。計測に適していない第1の点を含む領域は、目立たなくなる。ユーザーは、被写体の領域が計測に適しているか否かを容易に確認することができる。
画像生成部183は、ステップS105において判断された位置関係に応じた色を持つ2D画像を生成してもよい。表示制御部184は、ステップS107においてその2D画像を表示部5に表示してもよい。
画像生成部183は、ライブ画像の色を、ステップS105において判断された位置関係に応じた色に変更してもよい。表示制御部184は、画像生成部183によって変更された色を持つライブ画像を表示部5に表示してもよい。表示制御部184は、所定のフレームレートでライブ画像を更新する。画像生成部183は、そのフレームレート以下のレートでライブ画像の色を変更してもよい。
本発明の各態様は次の変形例を含んでもよい。基準モデルは、同じ点を通り、かつ3次元状に広がる2つ以上の直線を含む基準図形を持つ。
本発明の各態様は次の変形例を含んでもよい。画像生成部183は、生成ステップ(ステップS106a)において、第1の点と対応する画素の色を、基準点(カメラ中心)と第1の点との距離を示す色に設定する。
第10の実施形態において、基準モデルは、カメラ中心を通る2つ以上の直線を含む。そのため、内視鏡装置1は、カメラ中心と被写体との距離を正確に判断するのに適した画像を表示することができる。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
1 内視鏡装置
2 挿入部
3 本体部
4 操作部
5 表示部
6 画像表示システム
7 表示制御装置
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインタフェース
16 外部機器インタフェース
17 制御インタフェース
18,18a,18b,18c,18d,18e,18f,18g,18h,18i,18j,18k,18l CPU
20 先端
28 撮像素子
41 PC
42 メモリカード
70,182 判断部
71 生成部
72,184 表示制御部
180 制御部
181 座標算出部
183 画像生成部
185 情報受付部
186 法線方向算出部
187 基準モデル設定部
188 距離算出部
189 基準点設定部
190 エッジ方向算出部
191 領域方向算出部
192 領域大きさ算出部

Claims (23)

  1. 判断部が、被写体の2次元画像に基づいて生成され、かつ2つ以上の点の3次元座標を含む3次元データを参照し、前記2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、前記2つ以上の点の各々と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する判断ステップと、
    生成部が、前記2つ以上の点と対応する2つ以上の画素を含む画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせ、前記第1の点は、前記2つ以上の点に含まれ、かつ前記条件を満たす点であり、前記第2の点は、前記2つ以上の点に含まれ、かつ前記条件を満たさない点である生成ステップと、
    表示制御部が、前記画像をディスプレイに表示する表示ステップと、
    を有する画像表示方法。
  2. 前記判断部は、前記判断ステップにおいて、前記2つ以上の点の各々が前記基準モデルと交差するか否かを判断することにより、前記位置関係が前記条件を満たすか否かを判断する
    請求項1に記載の画像表示方法。
  3. 前記基準モデルは、2つ以上の基準図形が連続的に配置された構造を持ち、
    前記基準図形は、点、線、および面のいずれか1つである
    請求項2に記載の画像表示方法。
  4. 設定部が、前記基準モデルの形状、前記基準モデルの位置、前記基準モデルの方向、および前記2つ以上の基準図形の間隔の少なくとも1つを設定する設定ステップをさらに有する
    請求項3に記載の画像表示方法。
  5. 前記設定部は、前記設定ステップにおいて、前記2つ以上の点が示す3次元形状に基づいて前記方向および前記間隔の少なくとも1つを設定する
    請求項4に記載の画像表示方法。
  6. 算出部が、前記2つ以上の点が示す3次元形状の表面の法線方向を算出する方向算出ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記法線方向に基づいて前記基準モデルの前記方向を設定する
    請求項4に記載の画像表示方法。
  7. 算出部が、前記2つ以上の点が示す3次元形状の表面におけるエッジの方向を算出する方向算出ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記エッジの前記方向に基づいて前記基準モデルの前記方向を設定する
    請求項4に記載の画像表示方法。
  8. 算出部が、前記2つ以上の点が示す3次元形状の表面において細長い形状を持つ特徴領域の長手方向を算出する方向算出ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記長手方向に基づいて前記基準モデルの前記方向を設定する
    請求項4に記載の画像表示方法。
  9. 算出部が、前記2つ以上の点が示す3次元形状における特徴領域の大きさを算出する大きさ算出ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記大きさに基づいて前記間隔を設定する
    請求項4に記載の画像表示方法。
  10. 前記2つ以上の点に含まれる2つの点の各々の位置が入力装置を通して入力されたとき、受付部が前記位置を受け付ける受付ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記2つの点を通る線の方向に基づいて前記基準モデルの前記方向を設定する
    請求項4に記載の画像表示方法。
  11. 前記2つ以上の点に含まれる2つの点の各々の位置が入力装置を通して入力されたとき、受付部が前記位置を受け付ける受付ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記2つの点の間の距離に基づいて前記間隔を設定する
    請求項4に記載の画像表示方法。
  12. 前記算出部が、前記2次元画像上の点と対応する3次元空間の点と、前記2次元画像を取得したカメラとの距離を算出する距離算出ステップと、
    前記表示制御部が前記2次元画像および前記距離を前記ディスプレイに表示する画像表示ステップと、
    をさらに有し、
    前記算出部は、前記方向算出ステップにおいて、前記2次元画像上の前記点と対応する前記3次元形状上の点を含む領域の前記法線方向を算出する
    請求項6に記載の画像表示方法。
  13. 前記2つ以上の点に含まれる1つの点の位置が入力装置を通して入力されたとき、受付部が前記位置を受け付ける受付ステップをさらに有し、
    前記算出部は、前記方向算出ステップにおいて、前記受付ステップにおいて受け付けられた点を含む領域の法線方向を算出する
    請求項6に記載の画像表示方法。
  14. 前記画像は、前記2つ以上の点が示す3次元形状の画像であり、
    前記画像表示方法は、
    前記画像が前記ディスプレイに表示された後、前記表示制御部が前記基準モデルを前記ディスプレイに表示する基準モデル表示ステップと、
    前記ディスプレイに表示された前記基準モデルの位置、前記ディスプレイに表示された前記基準モデルの方向、および前記ディスプレイに表示された前記基準モデルの前記2つ以上の基準図形の間隔の少なくとも1つを変更する指示が入力装置を通して入力されたとき、受付部が前記指示を受け付ける受付ステップと、
    変更部が、前記指示に基づいて前記位置、前記方向、および前記間隔の少なくとも1つを変更する変更ステップと、
    をさらに有し、
    前記変更ステップが実行された後、前記判断ステップ、前記生成ステップ、および前記表示ステップが再度実行される
    請求項3に記載の画像表示方法。
  15. 前記画像は、前記2つ以上の点が示す3次元形状の画像であり、
    前記画像表示方法は、
    前記ディスプレイに表示された前記画像を移動させる指示が入力装置を通して入力されたとき、受付部が前記指示を受け付ける受付ステップと、
    変更部が、前記指示に基づいて前記2つ以上の点の前記3次元座標を変更する変更ステップと、
    をさらに有し、
    前記変更ステップが実行された後、前記判断ステップ、前記生成ステップ、および前記表示ステップが再度実行される
    請求項3に記載の画像表示方法。
  16. 前記基準モデルは、第1の方向に伸びる法線を持つ2つ以上の第1の平面、前記第1の方向と垂直な第2の方向に伸びる法線を持つ2つ以上の第2の平面、かつ前記第1の方向および前記第2の方向と垂直な第3の方向に伸びる法線を持つ2つ以上の第3の平面を含み、
    前記2つ以上の第1の平面は、前記第1の方向に互いに離れており、
    前記2つ以上の第2の平面は、前記第2の方向に互いに離れており、
    前記2つ以上の第3の平面は、前記第3の方向に互いに離れている
    請求項3に記載の画像表示方法。
  17. 前記基準モデルは、互いに異なる半径を持つ2つ以上の円筒面を持ち、
    前記2つ以上の円筒面の中心軸は互いに一致する
    請求項3に記載の画像表示方法。
  18. 前記基準モデルは、互いに異なる半径を持つ2つ以上の球面を持ち、
    前記2つ以上の球面の中心は互いに一致する
    請求項3に記載の画像表示方法。
  19. 前記基準モデルは、同じ点を通り、かつ3次元状に広がる2つ以上の直線を含む前記基準図形を持つ
    請求項3に記載の画像表示方法。
  20. 前記生成部は、前記生成ステップにおいて、前記第1の点と対応する前記画素の色と、前記第2の点と対応する前記画素の色とを異ならせる
    請求項3に記載の画像表示方法。
  21. 前記生成部は、前記生成ステップにおいて、前記第1の点と対応する前記画素の前記色を、基準点と前記第1の点との距離を示す色に設定する
    請求項20に記載の画像表示方法。
  22. 被写体の2次元画像に基づいて生成され、かつ2つ以上の点の3次元座標を含む3次元データを参照し、前記2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、前記2つ以上の点の各々と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する判断部と、
    前記2つ以上の点と対応する2つ以上の画素を含む画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせ、前記第1の点は、前記2つ以上の点に含まれ、かつ前記条件を満たす点であり、前記第2の点は、前記2つ以上の点に含まれ、かつ前記条件を満たさない点である生成部と、
    前記画像をディスプレイに表示する表示制御部と、
    を有する表示制御装置。
  23. 被写体の2次元画像に基づいて生成され、かつ2つ以上の点の3次元座標を含む3次元データを参照し、前記2つ以上の点を含む3次元空間において2次元状または3次元状に広がる図形を示す基準モデルを参照し、前記2つ以上の点の各々と前記基準モデルとの位置関係が予め設定された条件を満たすか否かを判断する判断ステップと、
    前記2つ以上の点と対応する2つ以上の画素を含む画像を生成し、第1の点と対応する画素の表示状態と、第2の点と対応する画素の表示状態とを異ならせ、前記第1の点は、前記2つ以上の点に含まれ、かつ前記条件を満たす点であり、前記第2の点は、前記2つ以上の点に含まれ、かつ前記条件を満たさない点である生成ステップと、
    表示制御部が、前記画像をディスプレイに表示する表示ステップと、
    をコンピュータに実行させるためのプログラム。
JP2020182765A 2020-10-30 2020-10-30 画像表示方法、表示制御装置、およびプログラム Pending JP2022073020A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020182765A JP2022073020A (ja) 2020-10-30 2020-10-30 画像表示方法、表示制御装置、およびプログラム
US17/510,909 US20220136820A1 (en) 2020-10-30 2021-10-26 Image display method, display control device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182765A JP2022073020A (ja) 2020-10-30 2020-10-30 画像表示方法、表示制御装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022073020A true JP2022073020A (ja) 2022-05-17
JP2022073020A5 JP2022073020A5 (ja) 2023-09-22

Family

ID=81380960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020182765A Pending JP2022073020A (ja) 2020-10-30 2020-10-30 画像表示方法、表示制御装置、およびプログラム

Country Status (2)

Country Link
US (1) US20220136820A1 (ja)
JP (1) JP2022073020A (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105637402A (zh) * 2013-10-17 2016-06-01 奥林巴斯株式会社 内窥镜装置
WO2016174926A1 (ja) * 2015-04-30 2016-11-03 富士フイルム株式会社 画像処理装置及び画像処理方法及びプログラム
JP6661980B2 (ja) * 2015-11-06 2020-03-11 富士通株式会社 重畳表示方法、重畳表示装置、及び重畳表示プログラム
JP7116925B2 (ja) * 2019-03-22 2022-08-12 株式会社エビデント 観察装置の作動方法、観察装置、およびプログラム
US11301989B2 (en) * 2020-05-14 2022-04-12 Taurex Drill Bits, LLC Wear data quantification for well tools

Also Published As

Publication number Publication date
US20220136820A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US10319103B2 (en) Method and device for measuring features on or near an object
EP2495524B1 (en) Method and device for displaying a three-dimensional view of the surface of a viewed object
US7232409B2 (en) Method and apparatus for displaying endoscopic images
US11170516B2 (en) Method and device for measuring features on or near an object
US9157728B2 (en) Endoscope apparatus and method
US20110221877A1 (en) Endoscope apparatus and measurement method
JP6895382B2 (ja) 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器
JP2010099335A (ja) 立体視機能検査方法
US11232568B2 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium
EP3353490B1 (en) Method and device for measuring features on or near an object
JP2006055213A (ja) 画像処理装置、及びプログラム
JP2008146497A (ja) 画像処理装置、画像処理方法
US20200053296A1 (en) Measurement device, method of operating measurement device, and recording medium
JP2016209399A (ja) 画像処理装置及び方法、並びにコンピュータプログラム
JP2022073020A (ja) 画像表示方法、表示制御装置、およびプログラム
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
JP2011170276A (ja) 内視鏡装置およびプログラム
JP2005228110A (ja) 情報処理方法および装置
JP2008067915A (ja) 医用画像表示装置
US20220020208A1 (en) Measurement method, measurement device, and recording medium
US10942134B2 (en) Measurement device, method of operating measurement device, and recording medium
US20230003991A1 (en) Surface estimation method, surface estimation device, and recording medium
JP2010127964A (ja) 内視鏡装置および内視鏡画像用プログラム
WO2017199657A1 (ja) 内視鏡装置、計測方法、およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230906