JP2022159806A - データ処理方法、データ処理装置、およびプログラム - Google Patents
データ処理方法、データ処理装置、およびプログラム Download PDFInfo
- Publication number
- JP2022159806A JP2022159806A JP2021064225A JP2021064225A JP2022159806A JP 2022159806 A JP2022159806 A JP 2022159806A JP 2021064225 A JP2021064225 A JP 2021064225A JP 2021064225 A JP2021064225 A JP 2021064225A JP 2022159806 A JP2022159806 A JP 2022159806A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- still image
- data processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 394
- 238000003672 processing method Methods 0.000 title claims abstract description 42
- 238000004148 unit process Methods 0.000 claims abstract 6
- 238000000034 method Methods 0.000 claims description 134
- 230000008569 process Effects 0.000 claims description 68
- 238000003384 imaging method Methods 0.000 claims description 47
- 238000003780 insertion Methods 0.000 claims description 36
- 230000037431 insertion Effects 0.000 claims description 36
- 230000003287 optical effect Effects 0.000 claims description 24
- 238000005452 bending Methods 0.000 claims description 18
- 230000005484 gravity Effects 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 230000004807 localization Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000012986 modification Methods 0.000 description 74
- 230000004048 modification Effects 0.000 description 74
- 238000007689 inspection Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 18
- 230000008859 change Effects 0.000 description 17
- 239000003086 colorant Substances 0.000 description 10
- 101000900567 Pisum sativum Disease resistance response protein Pi49 Proteins 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 102000016252 Huntingtin Human genes 0.000 description 6
- 108050004784 Huntingtin Proteins 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 6
- 101000621511 Potato virus M (strain German) RNA silencing suppressor Proteins 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 101150013335 img1 gene Proteins 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 101000614399 Homo sapiens Serine/threonine-protein phosphatase 2A regulatory subunit B'' subunit beta Proteins 0.000 description 2
- 102100040471 Serine/threonine-protein phosphatase 2A regulatory subunit B'' subunit beta Human genes 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 101150071665 img2 gene Proteins 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Endoscopes (AREA)
Abstract
【課題】静止画と関連付けられているメタデータを処理するための作業の効率を改善することができるデータ処理方法、データ処理装置、およびプログラムを提供する。
【解決手段】データ処理方法は、情報表示ステップ、位置選択ステップ、および処理ステップを有する。表示制御部は、前記情報表示ステップにおいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する。前記位置データは、前記2つ以上の位置を示す。選択部は、前記位置選択ステップにおいて、前記2つ以上の位置に含まれる少なくとも1つの位置を選択する。データ処理部は、前記処理ステップにおいて、メタデータを処理する。前記メタデータは、静止画と関連付けられている。前記静止画は、選択された前記少なくとも1つの位置と関連付けられている。
【選択図】図1
【解決手段】データ処理方法は、情報表示ステップ、位置選択ステップ、および処理ステップを有する。表示制御部は、前記情報表示ステップにおいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する。前記位置データは、前記2つ以上の位置を示す。選択部は、前記位置選択ステップにおいて、前記2つ以上の位置に含まれる少なくとも1つの位置を選択する。データ処理部は、前記処理ステップにおいて、メタデータを処理する。前記メタデータは、静止画と関連付けられている。前記静止画は、選択された前記少なくとも1つの位置と関連付けられている。
【選択図】図1
Description
本発明は、データ処理方法、データ処理装置、およびプログラムに関する。
ボイラー、パイプ、および航空機エンジン等の内部の傷および腐食等の観察および検査に工業用の内視鏡装置が使用されている。内視鏡を使用する検査において、異常の有無および異常の深刻さを検査の証拠として残すためにユーザーは検査中に静止画を記録する。検査が完了した後、検査のレポートが生成される。一般的に、テキストデータがその静止画と一緒にレポートに付加される。そのテキストデータは、記録された静止画に写っている異常の状態などを示す。
検査が完了した後、ユーザーは静止画および他のデータを整理する。静止画のファイルは、記録媒体内のフォルダに保存される。例えば、ユーザーは、静止画をフォルダ間で移動する、またはフォルダの名称を変更する。あるいは、ユーザーは、レポートに付加されるテキストデータを編集する。
特許文献1は、静止画とシェーマ図とを互いに関連付ける技術を開示している。シェーマ図は、生体の内部構造を模式的に表す。ユーザーは検査中に音声を発し、音声データが静止画と関連付けられる。その音声は、部位の名称を示す。その音声データは、静止画とシェーマ図とを互いに関連付けるために使用される。音声データの代わりにテキストデータが使用されてもよい。シェーマ図が表示され、かつシェーマ図上の位置が指定されたとき、その位置と対応する静止画が表示される。
特許文献2は、検査において取得された画像を分類する技術を開示している。検査の前に、複数のフォルダが複数の検査対象に応じて予め設定される。ユーザーは検査中にフォルダを指定し、その画像はそのフォルダに記録される。
内視鏡を使用する検査において、ユーザーが画像に基づいて検査対象の構造を判断できるとは限らない。ユーザーが、静止画に写っている領域を判断できない場合、静止画などのデータの整理が煩雑である。
特許文献1および特許文献2に開示された技術において、ユーザーが検査対象を判断できる必要がある。ユーザーが検査対象の構造を判断できない場合、これらの技術を検査に適用することは難しい。
本発明は、静止画と関連付けられているメタデータを処理するための作業の効率を改善することができるデータ処理方法、データ処理装置、およびプログラムを提供することを目的とする。
本発明は、表示制御部が位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する情報表示ステップであって、前記位置データは、前記2つ以上の位置を示す前記情報表示ステップと、前記位置情報が表示された後、選択部が前記2つ以上の位置に含まれる少なくとも1つの位置を選択する位置選択ステップと、データ処理部がメタデータを処理する処理ステップであって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記処理ステップと、を有するデータ処理方法である。
本発明は、表示制御部が位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する情報表示ステップであって、前記位置データは、前記2つ以上の位置を示す前記情報表示ステップと、選択部が前記2つ以上の位置に含まれる少なくとも1つの位置を選択する位置選択ステップと、データ処理部がメタデータを処理する処理ステップであって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記処理ステップと、前記表示制御部が、選択された前記少なくとも1つの位置を前記ディスプレイに表示する位置表示ステップと、を有するデータ処理方法である。
本発明は、位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する表示制御部であって、前記位置データは、前記2つ以上の位置を示す前記表示制御部と、前記位置情報が表示された後、前記2つ以上の位置に含まれる少なくとも1つの位置を選択する選択部と、メタデータを処理するデータ処理部であって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記データ処理部と、を有するデータ処理装置である。
本発明は、位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する情報表示ステップであって、前記位置データは、前記2つ以上の位置を示す前記情報表示ステップと、前記位置情報が表示された後、前記2つ以上の位置に含まれる少なくとも1つの位置を選択する位置選択ステップと、メタデータを処理する処理ステップであって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記処理ステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、データ処理方法、データ処理装置、およびプログラムは、静止画と関連付けられているメタデータを処理するための作業の効率を改善することができる。
以下、図面を参照し、本発明の実施形態を説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態によるデータ処理装置7の構成を示す。図1に示すデータ処理装置7は、表示制御部70、選択部71、およびデータ処理部72を有する。
図1は、本発明の第1の実施形態によるデータ処理装置7の構成を示す。図1に示すデータ処理装置7は、表示制御部70、選択部71、およびデータ処理部72を有する。
表示制御部70は、位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する(情報表示ステップ)。位置データは、その2つ以上の位置を示す。位置情報が表示された後、選択部71は、その2つ以上の位置に含まれる少なくとも1つの位置を選択する(位置選択ステップ)。データ処理部72は、メタデータを処理する(処理ステップ)。メタデータは、静止画と関連付けられている。その静止画は、物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された少なくとも1つの位置と関連付けられている。
図1に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。図1に示す各部は、1つまたは複数のプロセッサを含むことができる。図1に示す各部は、1つまたは複数の論理回路を含むことができる。
データ処理装置7のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、表示制御部70、選択部71、およびデータ処理部72の動作を規定する命令を含む。つまり、表示制御部70、選択部71、およびデータ処理部72の機能はソフトウェアにより実現されてもよい。
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波によりデータ処理装置7に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
例えば、位置データは、3次元空間(3D空間)における位置と対応する3次元座標(3D座標)を示す。位置データは、2次元画像上の位置と対応する2次元座標(2D座標)を示してもよい。位置データは、3D空間における基準位置からの距離を示してもよい。例えば、物体がパイプである場合、位置データは、パイプの入り口からパイプの内部の位置までの距離を示してもよい。
上記の2つ以上の位置は、互いに異なる。その2つ以上の位置は、物体を含む3D空間に含まれる。その2つ以上の位置は、物体の表面上の位置または物体の内部の位置を示してもよい。つまり、その2つ以上の位置は、物体に含まれてもよい。その2つ以上の位置は、物体に含まれなくてもよい。例えば、物体がパイプである場合、その2つ以上の位置は、パイプの内壁で囲まれた3D空間内の位置を示してもよい。その2つ以上の位置は、静止画を取得したカメラの位置を示してもよい。そのカメラの位置は、物体上にない。その2つ以上の位置は、物体上の少なくとも1つの位置と、物体上にない少なくとも1つの位置とを含んでもよい。位置データは、物体を含む3D空間内の3つ以上の位置を示してもよい。
各静止画は、物体を含む3D空間内の1つ以上の位置と関連付けられている。2枚以上の静止画が1つの位置と共通に関連付けられてもよい。
図2は、位置データの例を示す。図2に示す位置データPD1は、座標データC1、座標データC2、および座標データC3を含む。各座標データは、物体を含む3D空間内の位置を示す。各座標データは、X座標とY座標とZ座標とを含む3D座標を示す。
カメラは物体を撮影し、静止画IMG1、静止画IMG2、および静止画IMG3を取得する。各静止画は、1つ以上の座標データと関連付けられている。静止画IMG1は、座標データC1と関連付けられている。静止画IMG2は、座標データC2と関連付けられている。静止画IMG3は、座標データC3と関連付けられている。
データ処理装置7は、位置データおよび1枚以上の静止画を記憶する記録媒体を有してもよい。あるいは、その記録媒体がデータ処理装置7に接続されてもよい。位置データは第1の記録媒体に記憶され、かつ1枚以上の静止画は第1の記録媒体と異なる第2の記録媒体に記憶されてもよい。位置データは第1の記録媒体および第2の記録媒体に記憶されてもよい。1枚以上の静止画は第1の記録媒体および第2の記録媒体に記憶されてもよい。
図3を使用して、第1の実施形態におけるデータ処理について説明する。図3は、データ処理の手順を示す。
表示制御部70は、位置データに基づいて、物体を含む3D空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する(ステップS1)。ステップS1は、情報表示ステップと対応する。
位置データが基準位置からの距離を示す場合、表示制御部70は、2つ以上の距離をディスプレイに表示する。その距離は被写体の位置と対応する。例えば、ユーザーは、その距離と物体における構造の大きさの設計値とを照合することにより、物体における被写体の位置を確認することができる。位置データが2D座標または3D座標を示す場合、表示制御部70は、2つ以上の位置をディスプレイに表示する。ユーザーは、物体における被写体の位置を把握することができる。
ステップS1の後、選択部71は少なくとも1つの位置を選択する(ステップS2)。ステップS2は、位置選択ステップと対応する。
データ処理装置7は、ユーザーが情報を入力するための入力装置を有してもよい。あるいは、入力装置がデータ処理装置7に接続されてもよい。選択部71は、入力装置に入力された指示に基づいて位置を選択してもよい。その指示は、選択されるべき位置を示す。
上記の2つ以上の位置は、ステップS2において選択された第1の位置と、ステップS2において選択されない第2の位置とを含んでもよい。表示制御部70は、ユーザーが第1の位置と第2の位置とを区別できるように第1の位置および第2の位置をディスプレイに表示してもよい。
ステップS2の後、データ処理部72は、メタデータを処理する(ステップS3)。ステップS3は、処理ステップと対応する。そのメタデータは、ステップS2において選択された位置と関連付けられている静止画と関連付けられている。ステップS3が実行されたとき、データ処理が終了する。
例えば、選択部71は、図2に示す座標データC1と対応する位置を選択する。静止画IMG1が座標データC1と関連付けられている。データ処理部72は、静止画IMG1と関連付けられているメタデータを処理する。
メタデータは、静止画の属性を示すデータ、または静止画に付加されるデータである。例えば、メタデータは、静止画のデータに含まれている。あるいは、メタデータは、静止画のデータに含まれていない。メタデータは、位置データおよび静止画を記憶する記録媒体に記録されている。あるいは、位置データおよび静止画を記憶する記録媒体と異なる記録媒体に記録されている。
例えば、データ処理部72は、物体の検査の結果に基づいてメタデータを処理する。データ処理部72は、入力装置に入力された指示に基づいてメタデータを処理してもよい。その指示は、処理の内容を示す。
データ処理部72は、新たなメタデータを生成することによりメタデータを処理してもよい。データ処理部72は、既に生成されたメタデータを編集することによりメタデータを処理してもよい。データ処理部72は、メタデータに含まれるデータを修正または変更することによりメタデータを編集してもよい。データ処理部72は、新たなデータをメタデータに追加することによりメタデータを編集してもよい。データ処理部72は、メタデータに含まれるデータを削除することによりメタデータを編集してもよい。データ処理部72は、メタデータの全体を削除することによりメタデータを処理してもよい。
本発明の各態様のデータ処理方法は、情報表示ステップ(ステップS1)、位置選択ステップ(ステップS2)、および処理ステップ(ステップS3)を有する。
第1の実施形態において、データ処理装置7は、物体を含む3D空間内の2つ以上の位置をディスプレイに表示する。静止画は、少なくとも1つの位置と関連付けられている。静止画と関連付けられている位置が表示されるため、ユーザーは、静止画に写っている領域を確認することができる。データ処理装置7は、ユーザーによって確認された領域の静止画と関連付けられているメタデータを処理する。そのため、データ処理装置7は、メタデータを処理するための作業の効率を改善することができる。
(第2の実施形態)
本発明の第2の実施形態を説明する。以下では、データ処理装置が内視鏡装置である例を説明する。データ処理装置は、第1の実施形態に示される機能を有する装置でありさえすればよく、内視鏡装置に限らない。データ処理装置は、特定の装置またはシステムに実装された組み込み機器であってもよい。データ処理装置は、パーソナルコンピュータ(PC)またはタブレット端末であってもよい。データ処理装置の一部の機能は、クラウド上の環境によって実現されてもよい。被写体は、工業製品である。
本発明の第2の実施形態を説明する。以下では、データ処理装置が内視鏡装置である例を説明する。データ処理装置は、第1の実施形態に示される機能を有する装置でありさえすればよく、内視鏡装置に限らない。データ処理装置は、特定の装置またはシステムに実装された組み込み機器であってもよい。データ処理装置は、パーソナルコンピュータ(PC)またはタブレット端末であってもよい。データ処理装置の一部の機能は、クラウド上の環境によって実現されてもよい。被写体は、工業製品である。
以下の例では、データ処理装置は工業用の内視鏡装置である。データ処理装置は医療用の内視鏡装置であってもよい。
図4は、第2の実施形態による内視鏡装置1の外観を示す。図5は、内視鏡装置1の内部構成を示す。内視鏡装置1は、被写体を撮像し、画像を生成する。検査者は、種々の被写体の観察を実施するために、挿入部2の先端に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。
図4に示す内視鏡装置1は、挿入部2、本体部3、操作部4、および表示部5を有する。
挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被写体を撮像し、かつ撮像信号を本体部3に出力する。挿入部2の先端20には、光学アダプターが装着される。本体部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2で取得された被写体の画像および操作メニュー等を表示画面に表示する。
操作部4は、ユーザーインタフェース(入力装置)である。例えば、操作部4は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。ユーザーは、体の一部(例えば、指)または道具を使用することにより表示部5の画面をタッチする。
図5に示す本体部3は、内視鏡ユニット8、CCU(Camera Control Unit)9、および制御装置10を有する。内視鏡ユニット8は、図示していない光源装置および湾曲装置を有する。光源装置は、観察に必要な照明光を供給する。湾曲装置は、挿入部2に内蔵された湾曲機構を湾曲させる。挿入部2の先端20には撮像素子28が内蔵されている。撮像素子28は、イメージセンサである。撮像素子28は、光学アダプターによって形成された被写体の光学像を光電変換し、かつ撮像信号を生成する。CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を施す。CCU9は、前処理が施された撮像信号をNTSC信号等の映像信号に変換する。撮像素子28は、内視鏡を構成する。
制御装置10は、映像信号処理回路12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カードインタフェース15、外部機器インタフェース16、制御インタフェース17、およびCPU(Central Processing Unit)18を有する。
映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、視認性向上に関わる映像処理を実行する。例えば、その映像処理は、色再現、階調補正、ノイズ抑制、および輪郭強調などである。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18によって生成されたグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像、被写体の画像、および計測情報等を含む。計測情報は、計測結果等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。また、映像信号処理回路12は、CCU9から出力された映像信号に基づく画像データをCPU18に出力する。
ROM13は、CPU18が内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18が内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18は、ROM13に記録されたプログラムに基づいて内視鏡装置1の動作を制御する。
着脱可能な記録媒体であるメモリカード42がカードインタフェース15に接続される。カードインタフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御装置10に取り込む。また、カードインタフェース15は、内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
USB機器等の外部機器が外部機器インタフェース16に接続される。例えば、パーソナルコンピュータ(PC)41が外部機器インタフェース16に接続される。外部機器インタフェース16は、PC41へ情報を送信し、かつPC41から情報を受信する。これによって、PC41のモニタが情報を表示することができる。また、ユーザーは、PC41に指示を入力することにより、内視鏡装置1の制御に関する操作を実施することができる。
制御インタフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を実行する。制御インタフェース17は、ユーザーによって操作部4に入力された指示をCPU18に通知する。制御インタフェース17は、光源装置および湾曲装置を制御するための制御信号を内視鏡ユニット8に出力する。制御インタフェース17は、撮像素子28を制御するための制御信号をCCU9に出力する。
CPU18が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、PC41がプログラムを読み込んで実行してもよい。PC41は、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信することにより内視鏡装置1を制御してもよい。あるいは、PC41は、内視鏡装置1から映像信号を取得し、かつ取得された映像信号を処理してもよい。
上記のように、内視鏡装置1は、撮像素子28およびCPU18を有する。撮像素子28は、被写体を撮像し、かつ撮像信号を生成する。撮像信号は、被写体の画像を含む。したがって、撮像素子28は、被写体を撮像することにより生成された、その被写体の画像を取得する。その画像は2次元画像(2D画像)である。撮像素子28によって取得された2D画像は映像信号処理回路12を経由してCPU18に入力される。
撮像素子28は、被写体の画像を取得する画像取得部の機能を有する。画像取得部は、画像入力装置であってもよい。例えば、PC41がデータ処理装置として動作する場合、画像取得部は、内視鏡装置1と通信を実行する通信インタフェース(通信機)である。画像取得部は無線通信機であってもよい。画像取得部は、画像が記録された記録媒体から画像を読み出す読み出し回路であってもよい。
図6は、CPU18の機能構成を示す。CPU18の機能は、制御部180、画像処理部181、3Dデータ生成部182、データ取得部183、表示制御部184、情報受付部185、選択部186、およびデータ処理部187を含む。図6に示すブロックの少なくとも1つがCPU18と異なる回路で構成されてもよい。
図6に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図6に示す各部は、1つまたは複数のプロセッサを含むことができる。図6に示す各部は、1つまたは複数の論理回路を含むことができる。
制御部180は、被写体の2D画像(画像データ)を映像信号処理回路12から取得し、かつ図6に示す各部が実行する処理を制御する。
画像処理部181は、検査中に撮像素子28によって取得された2D画像を処理し、所定のファイル形式を持つ動画または静止画を生成する。動画は、2枚以上のフレームを含む。各フレームは、撮像素子28によって取得された2D画像によって構成される。画像処理部181によって生成された動画および静止画は、PC41内の記録媒体またはメモリカード42に記憶される。
3Dデータ生成部182は、被写体の1枚以上の2D画像に基づいて被写体上の2つ以上の点の3D座標を算出し、かつその2つ以上の点の3D座標を含む3次元データ(3Dデータ)を生成する。例えば、3Dデータは、点群データ、サーフェースデータ、またはボリュームデータである。3Dデータ生成部182によって生成された3Dデータは、PC41内の記録媒体またはメモリカード42に記憶される。
3Dデータは、2つ以上の点の3D座標を含む。3Dデータは、3つ以上の点の3D座標を含んでもよい。3Dデータは、各点のX座標、Y座標、およびZ座標を含む。例えば、X軸およびY軸は、2D画像を取得したカメラの光学系の光軸と垂直である。例えば、Z軸は、その光軸と平行である。3Dデータは、位置データと対応する。3Dデータに含まれる3D座標は、図2に示す座標データC1、座標データC2、および座標データC3と対応する。以下では、3Dデータに含まれる3D座標を持つ点を、3Dデータに含まれる点と呼ぶ。
3Dデータ生成部182は、1枚以上のステレオ画像を使用することにより3Dデータを生成してもよい。ステレオ画像は、第1の視点から見た被写体の2D画像(第1の2D画像)と、第1の視点と異なる第2の視点から見た被写体の2D画像(第2の2D画像)とを含む。互いに異なる2つの視野を持つステレオ光学系が、光学アダプターとして挿入部2の先端20に装着される。
ステレオ光学系は第1の光学系および第2の光学系を有する。内視鏡装置1は、第1の状態と第2の状態とを切り替えてもよい。第1の状態において、第1の光学系を通る光のみが撮像素子28に入射する。第2の状態において、第2の光学系を通る光のみが撮像素子28に入射する。撮像素子28は、第1の状態において第1の2D画像を生成し、かつ第2の状態において第2の2D画像を生成してもよい。第1の2D画像および第2の2D画像の組み合わせは、ステレオ画像を構成する。3Dデータ生成部182は、1枚以上の第1の2D画像および1枚以上の第2の2D画像を使用することにより3Dデータを生成してもよい。
1つの視野を持つ単眼光学系が、光学アダプターとして挿入部2の先端20に装着されてもよい。3Dデータ生成部182は、アクティブステレオ法の原理に基づいて3Dデータを生成してもよい。以下では、アクティブステレオ法を使用する例を説明する。
例えば、3Dデータ生成部182は、明部および暗部を含む所定のパターンを持つ光が被写体に照射されたときに取得された1枚以上の2D画像を使用することにより3Dデータを生成してもよい。例えば、そのパターンはランダムパターンである。3Dデータ生成部182は、縞状のパターンを持つ光が被写体に照射されたときに取得された2枚以上の2D画像を使用することにより3Dデータを生成してもよい。3Dデータ生成部182は、レーザー光(スポット光)またはスリット光が被写体に照射されたときに取得された1枚以上の2D画像を使用することにより3Dデータを生成してもよい。模様が被写体の表面にない場合、3Dデータ生成部182は、3Dデータを安定的に生成することができる。
3Dデータ生成部182は、Simultaneous Localization and Mapping(SLAM)またはstructure from motion(SfM)と呼ばれる技術を使用することにより、3Dデータを生成してもよい。例えば、3Dデータ生成部182は、2枚以上の画像にSLAMまたはSfMを適用することにより3Dデータを生成してもよい。その2枚以上の画像は、単眼光学系が挿入部2の先端20に装着されているときに取得される。
3Dデータ生成部182は、2枚以上のステレオ画像にSLAMまたはSfMを適用することにより3Dデータを生成してもよい。その2枚以上のステレオ画像は、ステレオ光学系が挿入部2の先端20に装着されているときに取得される。つまり、3Dデータ生成部182は、SLAMまたはSfMを2枚以上の第1の2D画像および2枚以上の第2の2D画像に適用することにより3Dデータを生成してもよい。3Dデータ生成部182は、アクティブステレオ法の原理に基づいて取得された2枚以上の2D画像にSLAMまたはSfMを適用することにより3Dデータを生成してもよい。
SLAMをステレオ画像に適用する方法では、3Dデータが安定的に生成される。アクティブステレオ法の原理に基づいて2D画像を取得し、かつその2D画像にSLAMを適用する方法では、3Dデータが安定的に生成される。
Time of Flight(ToF)と呼ばれる技術を使用することにより1枚以上の画像が取得されてもよい。3Dデータ生成部182は、その1枚以上の画像を使用することにより3Dデータを生成してもよい。ToFが使用される場合、3Dデータ生成部182は、光(赤外光など)または超音波が第1のタイミングから第2のタイミングまでに進む時間を計測する。第1のタイミングは、光または超音波がカメラから被写体に照射された時刻を示す。3Dデータ生成部182は、第1のタイミングから第2のタイミングまでの時間に基づいて距離を算出する。第2のタイミングは、被写体によって反射された光または超音波がカメラに到達する時刻を示す。内視鏡装置1は、TOFカメラと呼ばれるカメラを使用することにより、カラー画像および距離画像を同時に取得する。距離画像の各画素の値は、カメラから被写体までの距離を示す。この場合、カラー画像の各画素と距離画像の各画素とは互いに関連付けられている。
1枚以上の2D画像を使用することにより3Dデータが生成される限り、3Dデータを生成する方法は上記の例に限らない。
以下では、3Dデータ生成部182が、SLAMを使用することにより3Dデータを生成する例を説明する。3Dデータ生成部182は、動画に含まれる2枚以上のフレームのみを使用する。3Dデータ生成部182は、3Dデータを生成するために2枚以上のフレームの全てを使用する必要はない。3Dデータ生成部182は、2枚以上のフレームの一部を使用することにより3Dデータを生成してもよい。
3Dデータは、3Dデータを生成するための2D画像における1つ以上の点の2D座標を含んでもよい。3Dデータにおいて3D座標および2D座標が互いに関連付けられてもよい。つまり、3Dデータに含まれる各点は、2D画像の画素と関連付けられてもよい。その2D画像は、動画のフレームであってもよい。3Dデータにおいて3D座標および2D座標が互いに関連付けられている場合、その2D座標を含む2D画像はその3D座標と関連付けられている。
3Dデータは、カメラ座標を含んでもよい。カメラ座標は、2D画像を取得したカメラの位置(カメラ位置)を示す。カメラは、撮像素子28および観察光学系を含む。カメラ座標は、カメラの3D座標であり、かつそのカメラによって取得された2D画像と関連付けられている。カメラ座標は、2D画像が取得されたときのカメラの視点の3D座標である。3Dデータ生成部182が、SLAMまたはSfMを使用することにより3Dデータを生成したとき、3Dデータ生成部182はカメラ座標を算出する。以下では、画像を取得したカメラのカメラ座標をその画像のカメラ座標と呼ぶ。以下では、画像を取得したカメラのカメラ位置をその画像のカメラ位置と呼ぶ。
以下では、3Dデータが、2つ以上の点の3D座標と各2D画像における1つ以上の点の2D座標とを含み、その2つ以上の点がカメラの1つ以上の視点のカメラ座標を含む例を説明する。
データ取得部183は、PC41内の記録媒体またはメモリカード42にアクセスし、3Dデータをその記録媒体またはメモリカード42から取得する。また、データ取得部183は、動画および静止画をその記録媒体またはメモリカード42から取得する。CPU18によって生成または処理された情報またはデータは、RAM14に記憶される。データ取得部183は、その情報およびデータをRAM14から取得する。
表示制御部184は、図1に示す表示制御部70の機能を持つ。表示制御部184は、3Dデータに基づいて、物体を含む3D空間内の2つ以上の位置の位置関係を示す位置情報を表示部5に表示する。具体的には、表示制御部184は、3Dデータに含まれる2つ以上の点と対応する2つ以上の画素を含む3次元画像(3D画像)を表示部5に表示する。3D画像は、3Dデータが示す3次元形状(3D形状)の画像である。3D画像は、所定の視点から所定の視線方向に見た被写体の3D形状を示す。3D画像は、3Dデータに含まれる2つ以上の点を可視化する。つまり、3D画像は、3Dデータに含まれる2つ以上の点の位置関係を視覚的に示す。3D画像は、被写体を構成する2つ以上の点の分布(3Dマップ)を示す。
例えば、表示制御部184は、3D映像信号または2D映像信号を、映像信号処理回路12を経由して表示部5へ出力する。3D映像信号は、3D画像の各画素のカラーデータを含む。2D映像信号は、動画または静止画の各画素のカラーデータを含む。
表示制御部184は、3D映像信号または2D映像信号を映像信号処理回路12に出力する。表示制御部184は、映像信号処理回路12によって実行される処理を制御する。映像信号処理回路12は、3D映像信号または2D映像信号を表示部5に出力する。表示部5は、映像信号処理回路12から出力された3D映像信号に基づいて3D画像を表示する。あるいは、表示部5は、映像信号処理回路12から出力された2D映像信号に基づいて2D画像を表示する。
表示制御部184は、映像信号処理回路12に、CCU9から出力された映像信号を表示部5に出力させる。これにより、表示制御部184は、撮像素子28によって生成された2D画像をライブ画像として表示部5に表示する。
表示制御部184は、各種情報を表示部5に表示する。つまり、表示制御部184は、画像上に各種情報を表示する。各種情報は、計測結果等を含む。各種情報は、カーソルを含んでもよい。カーソルは、ユーザーが画像上の特定の点を指定するためのマークである。
例えば、表示制御部184は、各種情報のグラフィック画像信号を生成する。表示制御部184は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18から出力されたグラフィック画像信号とを合成する。これにより、各種情報が画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、各種情報が重畳された画像を表示する。
ユーザーは、操作部4を操作することにより、各種情報を内視鏡装置1に入力する。操作部4は、ユーザーによって入力された情報を出力する。その情報は、入力部である制御インタフェース17に入力される。その情報は、制御インタフェース17からCPU18に出力される。情報受付部185は、操作部4を経由して内視鏡装置1に入力された情報を受け付ける。
例えば、ユーザーは、操作部4を操作することにより、カーソルの位置情報を内視鏡装置1に入力する。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより画像上の位置を示す位置情報を内視鏡装置1に入力する。情報受付部185は、内視鏡装置1に入力された位置情報を受け付ける。情報受付部185は、位置情報に基づいて画像上の位置を算出する。表示制御部184は、情報受付部185によって算出された位置にカーソルを表示する。
選択部186は、図1に示す選択部71の機能を持つ。位置情報が表示された後、選択部186は、2つ以上の位置に含まれる少なくとも1つの位置を選択する。これにより、選択部186は、物体を含む3D空間における少なくとも1つの3次元位置(3D位置)を選択する。選択部186によって選択された3D位置は、3Dデータに含まれる3D座標と対応する。つまり、その3D位置は、3Dデータに含まれる点と対応する。
データ処理部187は、図1に示すデータ処理部72の機能を持つ。データ処理部187は、メタデータを処理する。データ処理部187によって生成されたメタデータは、PC41内の記録媒体またはメモリカード42に記憶される。
図7を使用することにより、第2の実施形態におけるデータ処理について説明する。図7は、データ処理の手順を示す。
検査が開始されたとき、ユーザーは操作部4を操作することにより、撮影を開始するための開始指示を内視鏡装置1に入力する。情報受付部185は、開始指示を受け付ける。これにより、動画を取得するための撮影が開始される。
撮像素子28は連続的に撮像信号を生成する。つまり、撮像素子28は、ライブ画像と対応する各フレームの撮像信号を生成する。画像処理部181は、撮像信号を処理し、動画の各フレームを生成する。表示制御部184は、映像信号処理回路12を制御することによりライブ画像を表示部5に表示する(ステップS101)。ライブ画像は、所定のフレームレートで順次更新される。
ライブ画像が表示部5に表示されている間、ユーザーはライブ画像を観察する。被写体において傷などの領域が発見された場合、ユーザーは、操作部4を操作することにより、静止画を記録するための記録指示を内視鏡装置1に入力する。情報受付部185は、記録指示を受け付ける。画像処理部181は、ステップS101において生成されたフレームに基づいて静止画を生成する。例えば、画像処理部181は、フレームを所定の圧縮率で圧縮し、静止画を生成する。画像処理部181は、生成された静止画をPC41内の記録媒体またはメモリカード42に記録する(ステップS102)。ユーザーが記録指示を内視鏡装置1に入力していない場合、ステップS102が実行される必要はない。
画像処理部181は、ステップS101において生成されたフレームを使用することにより静止画を生成する。静止画は、被写体の2D画像である。静止画が取得されたタイミングは、フレームが取得されたタイミングと同じである。静止画の構図は、フレームの構図と同じである。時刻情報が静止画およびフレームに付加されている。時刻情報は、撮影時刻を示す。静止画とフレームとは、時刻情報によって互いに関連付けられている。静止画の時刻情報が示す時刻は、その静止画と関連付けられているフレームの時刻情報が示す時刻と同じである。
一般的に、静止画の圧縮率は動画のフレームの圧縮率と異なる。そのため、厳密には、静止画はフレームと異なる。以下では、説明を簡単にするために静止画がフレームと同じであると仮定する。
後述する方法を使用することによりフラグがフレームに付加され、かつそのフレームが静止画として使用される場合、静止画とフレームとは、フラグによって互いに関連付けられている。静止画における点の2D座標と、フレームにおける点の2D座標とは、互いに関連付けられている。
静止画がフレームと同じであるため、静止画における点の2D座標は、フレームにおける点の2D座標と同じである。3Dデータがフレームにおける点の2D座標を含むため、3Dデータは静止画における点の2D座標を含む。この関係により、静止画は3Dデータに含まれる3D座標と関連付けられている。
静止画がフレームと同じであるため、静止画のカメラ座標はフレームのカメラ座標と同じである。3Dデータがフレームのカメラ座標を含むため、3Dデータは静止画のカメラ座標を含む。この関係により、静止画は3Dデータに含まれる3D座標と関連付けられている。
ステップS102の後、制御部180は、撮影を終了するか否かを判断する(ステップS103)。例えば、ユーザーは操作部4を操作することにより、撮影を終了するための終了指示を内視鏡装置1に入力する。情報受付部185は、終了指示を受け付ける。このとき、制御部180は、撮影を終了すると判断する。情報受付部185が終了指示を受け付けていないとき、制御部180は、撮影を終了しないと判断する。撮影はバックグラウンドで実行されてもよい。
撮影を終了しないと制御部180がステップS103において判断した場合、ステップS101が実行される。撮影が終了するまで、撮像素子28はライブ画像を取得し続け、かつ表示制御部184はライブ画像を表示部5に表示し続ける。撮影を終了すると制御部180がステップS103において判断した場合、画像処理部181は、動画のファイルをPC41内の記録媒体またはメモリカード42に記録する。これにより、撮影が終了する。つまり、検査が終了する。
撮影が終了した後、3Dデータ生成部182は、被写体の1枚以上の2D画像に基づいて被写体上の2つ以上の点の3D座標を算出し、かつその2つ以上の点の3D座標を含む3Dデータを生成する。この例では、3Dデータ生成部182は、動画のみを使用するSLAMを実行することにより、3Dデータを生成する。3Dデータ生成部182は、3DデータをPC41内の記録媒体またはメモリカード42に記録する(ステップS104)。
ユーザーは操作部4を操作することにより、3Dデータを生成するための生成指示を内視鏡装置1に入力してもよい。情報受付部185は、生成指示を受け付けてもよい。このとき、3Dデータ生成部182は3Dデータを生成してもよい。
撮影が実行されている間に、3Dデータ生成部182は3Dデータを順次生成してもよい。この場合、3Dデータが生成されるまでユーザーが待つ時間は短い。
ステップS104の後、データ取得部183は、PC41内の記録媒体またはメモリカード42にアクセスし、3Dデータおよび静止画をその記録媒体またはメモリカード42から取得する(ステップS105)。
ステップS105の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示し、かつ1枚以上の静止画を表示部5に表示する(ステップS106)。ステップS106は、情報表示ステップと対応する。3D画像の各画素は、3Dデータに含まれる3D座標と関連付けられている。
図8は、ステップS106において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR10、静止画IMG10、静止画IMG11、および静止画IMG12を表示部5に表示する。3D画像PR10は、被写体OB10の3D形状を示す。被写体OB10は点群として表示される。
3D画像PR10において白い領域には点群が存在しない。3Dデータは、その領域における点の3D座標を含まない。
表示制御部184は、点P10、点P11、および点P12を表示部5に表示する。各点は、3D画像PR10に重畳されている。所定のマークが各点の位置に表示される。各点は、静止画を取得したカメラの位置を示す。前述したように、3Dデータは、静止画のカメラ座標を含む。
点P10は、静止画IMG10を取得したカメラの位置を示す。点P11は、静止画IMG11を取得したカメラの位置を示す。点P12は、静止画IMG12を取得したカメラの位置を示す。表示部5に表示された画像において、点P10、点P11、および点P12の各々は、静止画と線で接続されている。そのため、ユーザーは、各静止画が取得された位置を把握することができる。
ユーザーが被写体(パイプなど)の設計図面を持っていない、または設計図面が紙である場合がある。そのような場合、ユーザーは設計図面のデータを持っていない。あるいは、パイプの施工が設計通りに実施されず、パイプの実際の構造が設計された構造と異なる場合がある。これらの場合、ユーザーは、撮像素子28によって取得された2D画像に基づいて検査位置を把握することが困難である。3Dデータが表示されるため、ユーザーは被写体の全体における検査位置を容易に把握することができる。
ステップS106の後、選択部186は、3Dデータに含まれる2つ以上の点の少なくとも1つを選択する。これにより、選択部186は、1つ以上の3D位置を選択する。さらに、選択部186は、その1つ以上の3D位置と関連付けられている1枚以上の静止画を選択する(ステップS107)。ステップS107は、位置選択ステップと対応する。
図9は、ステップS107において表示部5に表示された画像の例を示す。図8に示す部分と同じ部分の説明を省略する。
ユーザーは、検査の内容を記録するための被写体の領域を選択する。ユーザーは、操作部4を操作することにより、図9に示す領域RG10を選択する。具体的には、ユーザーは、操作部4を操作することにより、3D画像PR10上の位置を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、3D画像PR10上の位置を示す。
カーソルが3D画像上に表示される例では、ユーザーは、カーソルを3D画像上の所望の位置に移動させ、かつドラッグ等の操作を実行する。このとき、情報受付部185は、その位置を受け付ける。表示部5がタッチパネルである例では、ユーザーは表示部5の画面をタッチし、かつピンチ操作等の操作を実行する。このとき、情報受付部185は、その操作を通して指定された位置を受け付ける。
選択部186は、選択指示が示す位置と対応する3D位置を特定する。図9に示す例では、選択部186は、選択指示に基づいて、領域RG10に含まれる3D位置を選択する。領域RG10は、視線方向の奥行きを持つ。3Dデータは、3D位置の3D座標を含む。3Dデータは、3Dデータを生成するための2D画像における1つ以上の点の2D座標を含む。静止画がフレームと同じであるため、3Dデータは静止画における点の2D座標を含む。3Dデータにおいて3D座標および2D座標は互いに関連付けられている。選択部186は、選択された3D位置と関連付けられている2D座標を持つ静止画を選択する。
図9に示す例では、静止画IMG10および静止画IMG11の各々における点の2D座標は、領域RG10における3D座標と関連付けられている。そのため、選択部186は、静止画IMG10および静止画IMG11を選択する。
3Dデータは、カメラ座標を含む。静止画がフレームと同じであるため、3Dデータは静止画のカメラ座標を含む。選択部186は、領域RG10に含まれる静止画のカメラ座標を特定してもよい。選択部186は、特定されたカメラ座標と関連付けられている静止画を選択してもよい。図9に示す例では、点P10および点P11が領域RG10に含まれる。そのため、選択部186は、点P10および点P11を選択してもよい。選択部186は、点P10と関連付けられている静止画IMG10を選択してもよく、かつ点P11と関連付けられている静止画IMG11を選択してもよい。
表示制御部184は、領域RG10を表示部5に表示する。図9に示す例では、表示制御部184は、領域RG10を示す枠を表示部5に表示する。これにより、表示制御部184は、選択部186によって選択された1つ以上の3D位置を表示部5に表示する。ユーザーは、選択された領域RG10の位置を把握することができる。表示制御部184が領域RG10を表示せずにユーザーが領域RG10の位置を覚えてもよい。
表示制御部184は、領域RG10と対応する3D位置を第1の色で表示してもよく、かつ領域RG10に含まれない領域と対応する3D位置を第1の色と異なる第2の色で表示してもよい。つまり、表示制御部184は、領域RG10と対応する3D位置と、領域RG10に含まれない領域と対応する3D位置とを互いに異なる色で表示してもよい。
表示制御部184は、静止画IMG10および静止画IMG11を強調表示する。例えば、表示制御部184は、静止画IMG10および静止画IMG11の各々の周囲に枠を表示する。ユーザーは、ステップS107において選択された位置で取得された静止画を容易に確認することができる。
選択部186は、静止画が領域RG10と対応する3D位置と関連付けられているか否かを判断してもよい。1枚以上の静止画がその3D位置と関連付けられている場合、選択部186は、その1枚以上の静止画を選択してもよい。その3D位置と関連付けられている静止画が存在しない場合、図7に示す処理が終了してもよい。あるいは、表示制御部184が警告を表示部5に表示してもよく、ユーザーは、3D画像PR10上の位置を再度選択してもよい。
ステップS107の後、データ処理部187は、ステップS107において選択された静止画のメタデータを処理する(ステップS108)。ステップS108は、データ処理ステップと対応する。ステップS108が実行されたとき、データ処理が終了する。
例えば、データ処理部187は、フォルダをPC41内の記録媒体またはメモリカード42に生成する。データ処理部187は、選択された1つ以上の3D位置と関連付けられている1枚以上の静止画をそのフォルダに保存する。データ処理部187は、そのフォルダの名称(ファイルパス)をメタデータに記録する。
データ処理部187は、選択された1つ以上の3D位置と関連付けられている1枚以上の静止画のファイル名を変更してもよい。この場合、メタデータは静止画のファイル名である。例えば、データ処理部187は、共通の文字または数字を2枚以上の静止画のファイル名に追加してもよい。データ処理部187は、2枚以上の静止画のファイル名が規則的となるように各静止画のファイル名を変更してもよい。例えば、その2枚以上の静止画のファイル名の少なくとも一部が、連続する番号に変更される。このように、データ処理部187は、2枚以上の静止画のメタデータを同時に処理してもよい。
データ処理部187は、選択された1つ以上の3D位置と関連付けられている1枚以上の静止画を削除してもよい。データ処理部187は、その1枚以上の静止画を圧縮してもよい。データ処理部187は、その1枚以上の静止画を外部サーバへ転送してもよい。
上記の例では、図1に示すデータ処理装置7は、内視鏡装置1と対応する。データ処理装置7は、内視鏡装置1と異なる装置であってもよい。例えば、データ処理装置7は、PC41のような外部装置であってもよい。データ処理装置7が外部装置である場合、内視鏡装置1がステップS101からステップS104を実行し、かつ外部装置がステップS105からステップS108を実行する。したがって、データ処理装置7がステップS101からステップS104を実行する必要はない。
静止画を生成する方法の他の例を説明する。以下の例では、動画のフレームが静止画として使用される。
ユーザーが検査において特徴領域を発見したとき、ユーザーは、操作部4を操作することにより、動画のフレームを指定するためのフレーム指示を内視鏡装置1に入力する。例えば、特徴領域は、傷が存在する領域である。特徴領域は、所定の形状または所定の色を持つ領域であってもよい。情報受付部185は、フレーム指示を受け付ける。画像処理部181は、ステップS101において、フレーム指示が受け付けられたか否かを判断する。
フレーム指示が受け付けられたと画像処理部181が判断した場合、画像処理部181は、生成されたフレームにフラグを付加する。そのフラグは、そのフレームに実行される処理の内容を示す処理情報として機能する。そのフラグは、生成されたフレームが静止画として使用されることを示す。そのフラグは動画のファイルに含まれる。フレーム指示が受け付けられていないと画像処理部181が判断した場合、画像処理部181は、生成されたフレームにフラグを付加しない。
この例では、ステップS102が実行される必要はない。データ取得部183がステップS105において静止画を取得するとき、データ取得部183は、フラグが付加されているフレームを静止画として取得する。
検査において場面が変化したとき、ユーザーは、操作部4を操作することによりフレーム指示を内視鏡装置1に入力してもよい。図10は、被写体の例を示す。図10に示す被写体OB11は、領域RG11、領域RG12、領域RG13、領域RG14、および領域RG15を含む。領域RG11、領域RG13、および領域RG15の各々は、被写体における直線状の領域である。領域RG12および領域RG14の各々は、曲がり角である。
挿入部2の先端20が、隣接する2つの領域の間で移動したとき、場面が変化する。例えば、領域RG11および領域RG12の間で場面が変化する。ユーザーは、表示部5に表示されたライブ画像に基づいて場面の変化に気付くことができる。フレームに付加されているフラグは、場面の変化を示す。
データ取得部183がステップS105において静止画を取得するとき、データ取得部183は、フラグが付加されているフレームを静止画として取得する。あるいは、データ取得部183は、フラグが付加されているフレームと、他のフラグが付加されている他のフレームとの間のフレームを静止画として取得する。
画像処理部181は、フレームを処理し、かつフレームの処理結果に基づいてそのフレームにフラグを付加してもよい。例えば、画像処理部181は、そのフレームに写っている特徴領域を検出してもよい。特徴領域が検出された場合、画像処理部181はフラグをそのフレームに付加してもよい。画像処理部181は、連続する2枚以上のフレームに基づいて場面の変化を検出してもよい。場面の変化が検出された場合、画像処理部181はフラグをその2枚以上のフレームのいずれか1枚に付加してもよい。
動画のフレームが静止画として使用される場合、静止画は、3Dデータを生成するための2枚以上のフレームのいずれか1枚と同じである。静止画がフレームと同じであるため、静止画における点の2D座標は、フレームにおける点の2D座標と同じである。3Dデータがフレームにおける点の2D座標を含むため、3Dデータは静止画における点の2D座標を含む。静止画は3Dデータに含まれる3D座標と関連付けられている。
静止画を生成する方法の他の例を説明する。以下では、静止画は、動画に含まれる2枚以上のフレームを使用するSfMを実行することにより生成される。
3Dデータ生成部182は、ステップS104を実行する。また、ステップS104の前または後に、3Dデータ生成部182は以下の処理を実行する。
3Dデータ生成部182は、動画に含まれる2枚以上のフレームのうちの少なくとも2枚を使用するSfMを実行する。3Dデータ生成部182は、被写体上の2つ以上の点の3D座標を算出し、かつその2つ以上の点の3D座標を含む静止画を生成する。生成された静止画は、3Dデータと同様のデータである。この例では、ステップS102が実行される必要はない。
3Dデータ生成部182は、動画に含まれる2枚以上のフレームの全てを使用する必要はない。3Dデータ生成部182は、動画に含まれる2枚以上のフレームの一部を使用し、かつSfMを実行する。ステップS104において生成された3Dデータは、被写体における第1の領域の3D座標を含む。上記の方法を使用することにより生成された静止画は、被写体における第2の領域の3D座標を含む。3Dデータを生成するためにSLAMが使用され、かつ静止画を使用するためにSfMが使用される例では、静止画における第2の領域に含まれる点の密度は、3Dデータにおける第1の領域に含まれる点の密度よりも高い。
3Dデータに含まれる3D座標と、その3D座標を算出するために使用されたフレームとは、互いに関連付けられている。SfMを使用することによりフレームから静止画が生成された場合、静止画と、その静止画の生成に使用されたフレームとが互いに関連付けられている。3Dデータに含まれる3D座標と、静止画との各々がフレームと関連付けられているため、その3D座標と静止画とが互いに関連付けられている。この関係により、静止画は3Dデータに含まれる3D座標と関連付けられている。
3Dデータ生成部182が、SfMを使用することによりフレームから静止画を生成するとき、その静止画は、そのフレームを取得したカメラの3D座標(カメラ座標)と関連付けられる。3Dデータに含まれる3D座標と、カメラ座標との各々がフレームと関連付けられているため、その3D座標とカメラ座標とが互いに関連付けられている。この関係により、静止画は3Dデータに含まれる3D座標と関連付けられている。
3Dデータ生成部182は、静止画のカメラ座標と対応する3D座標を算出する。例えば、3Dデータ生成部182は、静止画を生成するための2枚以上のフレームのカメラ座標のうち代表的なカメラ座標を選択する。例えば、代表的なカメラ座標は、2枚以上のフレームのうち最初に取得されたフレームのカメラ座標である。代表的なカメラ座標は、2枚以上のフレームのカメラ座標の重心座標であってもよい。3Dデータ生成部182は、静止画に写っている点群が視野に収まるようなカメラ座標を算出してもよい。
内視鏡装置1がステップS101からステップS104を実行してもよく、かつ外部装置が、SfMを使用することにより静止画を生成し、ステップS105からステップS108を実行してもよい。
メタデータを処理する方法の他の例を説明する。以下では、動画に含まれるフラグを使用する例を説明する。
データ処理部187は、場面毎に用意されたフォルダに静止画を保存する。例えば、所定のフレームの前の1枚以上のフレームが静止画として使用され、かつ所定のフレームの後の1枚以上のフレームが静止画として使用される。フラグがその所定のフレームに付加されている。そのフラグは、場面の変化を示す。データ処理部187は、そのフラグが付加されたフレームを検出する。データ処理部187は、検出されたフレームの前の1枚以上の静止画を第1のフォルダに保存する。データ処理部187は、検出されたフレームの後の1枚以上の静止画を第1のフォルダと異なる第2のフォルダに保存する。
表示制御部184は、そのフラグと対応する情報を3D画像に重畳してもよい。例えば、表示制御部184は、そのフラグが付加されている位置を示す情報を3D画像に重畳してもよい。あるいは、表示制御部184は、そのフラグが付加されている位置で区切られた2つ以上の領域を互いに異なる色で表示してもよい。ユーザーは、場面が変化した位置を確認することができる。
3次元画像の他の例を説明する。図11は、ステップS106において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR11、静止画IMG13、静止画IMG14、静止画IMG15、および静止画IMG16を表示部5に表示する。3D画像PR11は、被写体OB12の3D形状を示す。被写体OB12は、テクスチャが付加されている3D形状として表示される。
表示制御部184は、点P13、点P14、点P15、および点P16を表示部5に表示する。各点は、3D画像PR10に重畳されている。所定のマークが各点の位置に表示される。点P13は、静止画IMG13を取得したカメラの位置を示す。点P14は、静止画IMG14を取得したカメラの位置を示す。点P15は、静止画IMG15を取得したカメラの位置を示す。点P16は、静止画IMG16を取得したカメラの位置を示す。
挿入部2の先端20が高速に移動する場合または模様が被写体の表面にない場合、SLAMまたはSfMを使用することにより生成された3Dデータに、被写体の一部と対応するデータが含まれない可能性がある。つまり、3Dデータにおいて被写体の一部と対応するデータが欠落している可能性がある。
図11は、3Dデータにおいてデータが欠落している例を示す。被写体OB12は、領域OB12a、領域OB12b、領域OB12c、および領域OB12dを含む。つまり、被写体OB12は4つの領域に分割されている。領域OB12aと領域OB12bとの間の領域と対応するデータが欠落している。領域OB12bと領域OB12cとの間の領域と対応するデータが欠落している。領域OB12cと領域OB12dとの間の領域と対応するデータが欠落している。以下では、データが欠落している領域をデータ欠落領域と呼ぶ。
3Dデータ生成部182は、ステップS104においてデータ欠落領域における点群の3D座標を算出できない。3Dデータ生成部182は、ステップS104においてデータ欠落領域におけるカメラ座標を算出できない。3Dデータは、データ欠落領域における点群の3D座標を含まない。そのため、データ欠落領域の3D形状は表示されない。
図11に示す例と同様に3D画像において被写体の領域が複数の領域に分割される場合、表示制御部184は、互いに近い2つの領域の形状に基づいて2つの領域の位置関係を推定する。例えば、領域OB12aおよび領域OB12bの各々が直線状の領域であるため、表示制御部184は、領域OB12aおよび領域OB12bの間に直線状のデータ欠落領域があると判断する。
表示制御部184は、互いに近い2つの領域の間のデータ欠落領域の長さを推定する。例えば、表示制御部184は、その2つの領域を生成するための動画のフレームの時間情報に基づいて、データ欠落領域の長さを推定する。例えば、表示制御部184は、領域OB12aと領域OB12bとの間のデータ欠落領域の長さを推定する。表示制御部184は、データ欠落領域の長さを考慮して領域OB12aおよび領域OB12bを表示する。
3Dデータは、領域OB12a、領域OB12b、領域OB12c、および領域OB12dの各々における点群の3D座標を含む。また、3Dデータは、点P13、点P14、点P15、および点P16の各々の3D座標を含む。例えば、3Dデータ生成部182は、ステップS104において点P13、点P14、および点P16の各々の3D座標を算出する。
カメラがデータ欠落領域に位置しているとき、カメラは静止画IMG15を取得する。3Dデータ生成部182は、ステップS104において静止画IMG15のカメラ座標を算出できない。3Dデータは、静止画IMG15のカメラ座標を含まない。
3Dデータ生成部182は、3Dデータを生成するための2D画像の時刻情報を使用し、かつ静止画の時刻情報を使用することにより、データ欠落領域における静止画のカメラ座標を算出する。例えば、静止画IMG15の時刻情報は、第1の時刻情報が示す時刻t1と、第2の時刻情報が示す時刻t2との間の時刻t3を示す。第1の時刻情報は、第1の2D画像が取得された時刻t1を示す。第1の2D画像は、領域OB12cにおける点の3D座標を算出するために使用される。第2の時刻情報は、第2の2D画像が取得された時刻t2を示す。第2の2D画像は、領域OB12dにおける点の3D座標を算出するために使用される。領域OB12cおよび領域OB12dは、データ欠落領域と隣接する。
3Dデータ生成部182は、時刻t1、時刻t2、および時刻t3に基づいて静止画IMG15のカメラ座標を算出する。第1の2D画像は、領域OB12cにおける第1の3D座標と関連付けられている。第2の2D画像は、領域OB12dにおける第2の3D座標と関連付けられている。例えば、時刻t1と時刻t3との間の期間の長さはT13であり、かつ時刻t2と時刻t3との間の期間の長さはT23である。3Dデータ生成部182は、長さT13および長さT23に基づいて静止画IMG15のカメラ座標を算出する。
具体的には、3Dデータ生成部182は、以下の式(1)を使用することにより、カメラ座標に含まれるX座標Xcを算出する。式(1)におけるX座標X1は、第1の3D座標に含まれる。式(1)におけるX座標X2は、第2の3D座標に含まれる。3Dデータ生成部182は、式(1)と同様の式を使用することにより、カメラ座標に含まれるY座標およびZ座標を算出する。静止画IMG15のカメラ座標が算出された後、3Dデータはそのカメラ座標を含んでもよい。
Xc=X1+(X2-X1)×(T13-T23)/T13 (1)
Xc=X1+(X2-X1)×(T13-T23)/T13 (1)
ユーザーが図11に示す領域RG16を選択したとき、選択部186は、領域RG16に含まれる位置と対応する3D位置を特定する。選択部186は、特定された3D位置に含まれるカメラ位置を選択する。3Dデータは、点P13、点P14、および点P16の各々のカメラ座標を含む。点P13および点P14が領域RG16に含まれるため、選択部186は、点P13および点P14を選択する。
3Dデータは、点P15の3D座標を含まない。点P15は領域RG16に含まれる。選択部186は、3Dデータ生成部182によって算出された3D座標を持つ点P15を選択する。したがって、選択部186は、領域RG16に含まれる点P13、点P14、および点P15を選択する。データ処理部187は、選択部186によって選択された各点と関連付けられている静止画のメタデータを処理する。
本発明の各態様は次の変形例を含んでもよい。1枚以上の静止画は、物体を撮影することにより生成された動画の1枚以上のフレームと対応する。
本発明の各態様は次の変形例を含んでもよい。1枚以上の静止画は、2つ以上の点の3D座標を可視化する。2つ以上の点の3D座標は、物体を撮影することにより生成された2枚以上の画像にSfMを適用することにより算出される。
本発明の各態様は次の変形例を含んでもよい。2枚以上のフレームに含まれる少なくとも1枚のフレームにフラグが付加されている。2枚以上のフレームは、物体を撮影することにより生成された動画に含まれる。2枚以上のフレームのうちフラグが付加されている1枚以上のフレームが1枚以上の静止画として選択される。
本発明の各態様は次の変形例を含んでもよい。物体を含む3D空間内の2つ以上の位置は、1枚以上の静止画に含まれる第2の静止画(静止画IMG15)が取得された第2の位置(点P15)を含まない。選択部186は、位置選択ステップ(ステップS107)において、推定された第2の位置を選択する。処理ステップ(ステップS108)において処理されたメタデータは、選択された第2の位置で取得された第2の静止画と関連付けられている。
本発明の各態様は次の変形例を含んでもよい。1枚以上の静止画は、第1の装置によって生成される。位置データ(3Dデータ)は、第1の装置と異なる第2の装置によって生成される。例えば、第1の装置は内視鏡装置1であってもよく、かつ第2の装置はPC41であってもよい。
本発明の各態様は次の変形例を含んでもよい。位置データ(3Dデータ)は、物体を撮影することにより生成された2枚以上の画像にSLAMを適用することにより生成される。
本発明の各態様は次の変形例を含んでもよい。2枚以上の画像は、アクティブステレオ法の原理に基づいて生成される。
本発明の各態様は次の変形例を含んでもよい。単眼光学系が、2枚以上の画像を生成するための撮影に使用される。単眼光学系は、1つの視野と対応する。
本発明の各態様は次の変形例を含んでもよい。ステレオ光学系が、2枚以上の画像を生成するための撮影に使用される。ステレオ光学系は、互いに異なる第1の視野および第2の視野と対応する。2枚以上の画像は、第1の視野内で捕らえられた物体の2枚以上の画像と、第2の視野内で捕らえられた物体の2枚以上の画像と対応する。
本発明の各態様は次の変形例を含んでもよい。1枚以上の静止画は、内視鏡(撮像素子28)が物体を撮影したときに内視鏡によって取得される。
第2の実施形態において、内視鏡装置1は、被写体の3D画像を表示部5に表示する。ユーザーは、3D画像において検査対象の領域を直感的に把握することができ、かつその領域を容易に選択することができる。内視鏡装置1は、ユーザーによって選択された領域の静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。
(第2の実施形態の第1の変形例)
本発明の第2の実施形態の第1の変形例を説明する。内視鏡装置1は、ユーザーが情報を入力するための情報入力ウィンドウを表示する。内視鏡装置1は、情報入力ウィンドウに入力された情報に基づいてメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第2の実施形態の第1の変形例を説明する。内視鏡装置1は、ユーザーが情報を入力するための情報入力ウィンドウを表示する。内視鏡装置1は、情報入力ウィンドウに入力された情報に基づいてメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
表示制御部184は、1つ以上の項目を含む情報入力ウィンドウ(入力フォーマット)を表示部5に表示する(フォーマット表示ステップ)。1つ以上の項目に含まれる少なくとも1つの項目の内容が入力フォーマットに入力されたとき、データ処理部187は、処理ステップにおいて、その内容に基づいてメタデータを処理する。
ユーザーは、メタデータの処理に必要な情報を情報入力ウィンドウに入力する。内視鏡装置1は、グラフィカルユーザーインタフェース(GUI)の機能を持つ。ユーザーは、GUIを使用する操作を実行することにより、情報(テキスト)を情報入力ウィンドウに入力する。例えば、情報入力ウィンドウに含まれる項目の種類は、ROM13に記録されているプログラムに含まれる。
図12を使用することにより、第2の実施形態の第1の変形例におけるデータ処理について説明する。図12は、データ処理の手順を示す。図12は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS107の後、表示制御部184は情報入力ウィンドウを表示部5に表示する(ステップS111)。ステップS111は、フォーマット表示ステップと対応する。
図13は、ステップS111において表示部5に表示された情報入力ウィンドウの例を示す。図13に示す情報入力ウィンドウW10は、項目IT10、項目IT11、項目IT12、項目IT13、項目IT14、項目IT15、および項目IT16を含む。
項目IT10は、検査対象を示す。検査対象は、航空機エンジン、パイプ、または熱交換チューブなどである。項目IT11は、検査される部位を示す。その部位は、航空機エンジンのノズルガイドベーン、パイプの直線部分、または熱交換チューブの直線部分などである。項目IT12は、検査結果を示す。例えば、検査結果は、異常が存在しないこと、または許容される異常が存在することを示す。あるいは、検査結果は、異常が存在すること、または許容されない異常が存在することを示す。項目IT13は、コメントを示す。項目IT14は、検査結果を報告するためのレポートに静止画を添付するか否かを示す。項目IT15は、過去の検査において生成されたデータ(静止画など)をレポートに添付するか否かを示す。項目IT16は、3Dデータをレポートに添付するか否かを示す。
情報入力ウィンドウW10は、図13に示す7個の項目の全てを含む必要はない。情報入力ウィンドウW10は、図13に示す7個の項目の1個以上を含んでもよい。情報入力ウィンドウW10は、図13に示す7個の項目以外の項目を含んでもよい。
情報入力ウィンドウがステップS111において表示されたとき、各項目の名称は表示されているが、各項目の内容は入力されていない。情報入力ウィンドウが表示された後、ユーザーは、操作部4を操作することにより、各項目の内容を内視鏡装置1に入力する。情報受付部185は、内視鏡装置1に入力された内容を受け付ける。これにより、情報受付部185は、情報入力ウィンドウに入力された情報を取得する(ステップS112)。
ステップS112の後、データ処理部187は、ステップS108において静止画のメタデータを処理する。その静止画は、ステップS107において選択された1つ以上の3D位置と関連付けられている。
例えば、データ処理部187は、フォルダをPC41内の記録媒体またはメモリカード42に生成する。そのフォルダの名称は、項目IT10に入力された検査対象の名称、または項目IT11に入力された部位の名称を含む。データ処理部187は、静止画をそのフォルダに保存する。データ処理部187は、そのフォルダの名称(ファイルパス)をメタデータに記録する。
データ処理部187は、項目IT12に入力された検査結果または項目IT13に入力されたコメントに基づいて静止画のファイル名を変更する。例えば、データ処理部187は、静止画のファイル名を、所定の文字列を含むファイル名に変更する。その所定の文字列は、検査結果またはコメントの内容を示す。データ処理部187は、変更されたファイル名をメタデータに記録する。
第1の情報および第2の情報のいずれか1つが項目IT14に入力される。第1の情報は、静止画をレポートに添付することを示す。第1の情報は、静止画をレポートに添付しないことを示す。データ処理部187は、第1の情報または第2の情報をメタデータに記録する。
第3の情報および第4の情報のいずれか1つが項目IT15に入力される。第3の情報は、過去のデータをレポートに添付することを示す。第4の情報は、過去のデータをレポートに添付しないことを示す。データ処理部187は、第3の情報または第4の情報をメタデータに記録する。
第5の情報および第6の情報のいずれか1つが項目IT16に入力される。第5の情報は、3Dデータをレポートに添付することを示す。第6の情報は、3Dデータをレポートに添付しないことを示す。データ処理部187は、第5の情報または第6の情報をメタデータに記録する。
レポートの生成が実行されるとき、メタデータに記録された第1から第6の情報が使用される。第1の情報がメタデータに含まれる場合、静止画がレポートに添付される。第3の情報がメタデータに含まれる場合、過去のデータがレポートに添付される。第5の情報がメタデータに含まれる場合、3Dデータがレポートに添付される。
静止画が、ステップS107において選択された1つ以上の3D位置と関連付けられており、かつデータがその静止画のメタデータに既に記録されている場合がある。その場合、そのメタデータに記録されているデータがステップS111において情報入力ウィンドウに表示されてもよい。ユーザーは、情報入力ウィンドウに表示されたデータを修正してもよい。データ処理部187は、情報入力ウィンドウに入力された情報に基づいて、メタデータに含まれるデータを修正してもよい。
ステップS111が実行されるタイミングは、図12に示すタイミングに限らない。ステップS105からS107のいずれか1つが実行される前にステップS111が実行されてもよい。その場合、ステップS105からS107のいずれか1つが実行される前にステップS112が実行されてもよい。
ステップS107において選択された静止画の枚数に応じて、情報入力ウィンドウの内容が変化してもよい。例えば、1枚の静止画がステップS107において選択された場合、ファイル名を変更するための項目を含む情報入力ウィンドウが表示される。2枚以上の静止画がステップS107において選択された場合、その静止画が保存されるフォルダの名称が変更される可能性が高い。そのため、フォルダ名を変更するための項目を含む情報入力ウィンドウが表示される。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、フォーマット表示ステップ(ステップS111)において、1つ以上の項目を含む情報入力ウィンドウを表示部5に表示する。1つ以上の項目に含まれる少なくとも1つの項目の内容が情報入力ウィンドウに入力されたとき、データ処理部187は、処理ステップ(ステップS108)において、その内容に基づいてメタデータを処理する。
本発明の各態様は次の変形例を含んでもよい。メタデータは、静止画のファイル名と、静止画が記憶されるフォルダの名称との少なくとも1つである。メタデータは、ファイル名とフォルダの名称との一方であってもよい。メタデータは、ファイル名とフォルダの名称との両方であってもよい。
本発明の各態様は次の変形例を含んでもよい。メタデータは、静止画をレポートに添付するか否かを示すデータ(項目IT14)を含む。
第2の実施形態の第1の変形例において、内視鏡装置1は情報入力ウィンドウを表示する。ユーザーは、情報入力ウィンドウに情報を入力することにより、メタデータとして記録されるデータを設定する。内視鏡装置1は、設定されたデータをメタデータに記録する。ユーザーは、メタデータとして記録されるデータを設定するための作業を効率的に実施することができる。
(第2の実施形態の第2の変形例)
本発明の第2の実施形態の第2の変形例を説明する。内視鏡装置1は、静止画を取得したカメラの位置を3D画像上に表示する。ユーザーは、3D画像の領域を選択する代わりにカメラ位置を選択する。内視鏡装置1は、ユーザーによって選択されたカメラ位置で取得された静止画を選択し、その静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第2の実施形態の第2の変形例を説明する。内視鏡装置1は、静止画を取得したカメラの位置を3D画像上に表示する。ユーザーは、3D画像の領域を選択する代わりにカメラ位置を選択する。内視鏡装置1は、ユーザーによって選択されたカメラ位置で取得された静止画を選択し、その静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
表示制御部184は、情報表示ステップにおいて、物体を含む3D空間内の2つ以上の位置の位置関係を示す3D画像(位置情報)を表示部5に表示する。その2つ以上の位置は、1枚以上の静止画に含まれる第1の静止画が取得された第1の位置を含む。選択部186は、位置選択ステップにおいて、第1の位置を選択する。
図14を使用することにより、第2の実施形態の第2の変形例におけるデータ処理について説明する。図14は、データ処理の手順を示す。図14は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS105の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示し、かつ1枚以上の静止画のカメラ位置を表示部5に表示する(ステップS121)。ステップS121は、情報表示ステップと対応する。表示制御部184は、各静止画のカメラ座標を示す情報を3D画像に重畳することにより静止画のカメラ位置を表示する。3Dデータは、静止画の1つ以上のカメラ位置(第1の位置)を含む2つ以上の点の3D座標を含む。表示制御部184は、ステップS121において静止画を表示する必要はない。
ステップS121の後、選択部186は、3Dデータに含まれる1つ以上のカメラ位置の少なくとも1つを選択する。さらに、選択部186は、その1つ以上のカメラ位置と関連付けられている1枚以上の静止画を選択する(ステップS122)。ステップS122は、位置選択ステップと対応する。ステップS122の後、ステップS111が実行される。
図15は、ステップS121において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR12、点P17、点P18、および点P19を表示部5に表示する。各点は、3D画像PR12に重畳されている。所定のマークが各点の位置に表示される。各点は、静止画のカメラ座標と対応する。
ユーザーは、操作部4を操作することにより、図15に示す領域RG17を選択する。具体的には、ユーザーは、操作部4を操作することにより、3D画像PR12上の位置を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、3D画像PR12上の位置を示す。
選択部186は、選択指示が示す位置と対応する3D位置を特定する。図15に示す例では、選択部186は、選択指示に基づいて、領域RG17に含まれる3D位置を特定する。領域RG17は、視線方向の奥行きを持つ。3Dデータは、カメラ座標を含む。静止画がフレームと同じであるため、3Dデータは静止画のカメラ座標を含む。選択部186は、領域RG17に含まれる静止画のカメラ座標を特定する。選択部186は、特定されたカメラ座標と関連付けられている静止画を選択する。図15に示す例では、点P17および点P18が領域RG17に含まれる。そのため、選択部186は、点P17および点P18を選択する。選択部186は、各点と関連付けられている静止画を選択する。
表示制御部184は、領域RG17を表示部5に表示する。図15に示す例では、表示制御部184は、領域RG17を示す枠を表示部5に表示する。これにより、表示制御部184は、選択部186によって選択された1つ以上のカメラ位置を表示部5に表示する。ユーザーは、選択された領域RG17の位置を把握することができる。表示制御部184が領域RG17を表示せずにユーザーが領域RG10の位置を覚えてもよい。
ステップS111およびステップS112が実行される必要はない。ステップS122が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
表示制御部184は、ステップS121の代わりに図7に示すステップS106を実行してもよい。つまり、表示制御部184は、3D画像および静止画を表示部5に表示してもよい。あるいは、表示制御部184は、3D画像、静止画、およびカメラ位置を表示してもよい。ユーザーは、操作部4を操作することにより、静止画を選択してもよい。選択部186は、ユーザーによって選択された静止画を選択してもよい。静止画の選択は、カメラ位置の選択を意味する。
本発明の各態様は次の変形例を含んでもよい。物体を含む3D空間内の2つ以上の位置は、1枚以上の静止画に含まれる第1の静止画が取得された第1の位置(点P17および点P18)を含む。選択部186は、位置選択ステップ(ステップS122)において、第1の位置を選択する。
第2の実施形態の第2の変形例において、内視鏡装置1は、ユーザーによって選択されたカメラ位置と関連付けられている静止画を選択し、その静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。
(第2の実施形態の第3の変形例)
本発明の第2の実施形態の第3の変形例を説明する。内視鏡装置1は、3D画像を表示する。このとき、静止画およびカメラ位置は表示されない。ユーザーは、3D画像の領域を選択する。内視鏡装置1は、ユーザーによって選択された領域におけるカメラ位置で取得された静止画を選択し、その静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第2の実施形態の第3の変形例を説明する。内視鏡装置1は、3D画像を表示する。このとき、静止画およびカメラ位置は表示されない。ユーザーは、3D画像の領域を選択する。内視鏡装置1は、ユーザーによって選択された領域におけるカメラ位置で取得された静止画を選択し、その静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
図16を使用することにより、第2の実施形態の第3の変形例におけるデータ処理について説明する。図16は、データ処理の手順を示す。図16は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS105の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示する(ステップS131)。ステップS131は、情報表示ステップと対応する。
ステップS131の後、選択部186は、ステップS107において、3Dデータに含まれる2つ以上の点の少なくとも1つを選択する。これにより、選択部186は、1つ以上の3D位置を選択する。さらに、選択部186は、その1つ以上の3D位置と関連付けられている1枚以上の静止画を選択する。
ステップS107の後、表示制御部184は、ステップS107において選択された1枚以上の静止画を表示部5に表示する(ステップS132)。ステップS132の後、ステップS111が実行される。
図17は、ステップS131において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR13を表示部5に表示する。表示制御部184は、静止画およびカメラ位置を表示部5に表示しない。
ユーザーは、操作部4を操作することにより、3D画像PR13上の領域を選択する。具体的には、ユーザーは、操作部4を操作することにより、3D画像PR13上の位置を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、3D画像PR13上の位置を示す。
選択部186は、選択指示が示す位置と対応する3D位置を特定する。その後、選択部186は、第2の実施形態における方法を使用することにより、その3D位置と関連付けられている静止画を選択する。
図18は、ステップS132において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR13、領域RG18、静止画IMG17、および静止画IMG18を表示部5に表示する。
領域RG18は、ステップS107において選択された3D位置を含む。静止画IMG17および静止画IMG18の各々は、領域RG18におけるカメラ位置において取得された静止画である。表示制御部184は、静止画IMG17および静止画IMG18を強調表示する。例えば、表示制御部184は、静止画IMG17および静止画IMG18の周囲に枠を表示する。
ステップS111およびステップS112が実行される必要はない。ステップS132が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
第2の実施形態の第3の変形例において、内視鏡装置1は静止画およびカメラ位置を表示しない。ユーザーによって3D画像上の領域が選択されたとき、内視鏡装置1は、その領域におけるカメラ位置で取得された静止画を表示する。ユーザーは、ステップS107において選択された位置で取得された静止画を容易に確認することができる。
(第2の実施形態の第4の変形例)
本発明の第2の実施形態の第4の変形例を説明する。内視鏡装置1は、静止画を表示せずに3D画像を表示する。ユーザーは、3D画像の領域を選択する。内視鏡装置1は、ユーザーによって選択された領域におけるカメラ位置で取得された少なくとも1枚の静止画を表示する。ユーザーは、その少なくとも1枚の静止画に含まれる静止画を選択する。内視鏡装置1は、選択された静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第2の実施形態の第4の変形例を説明する。内視鏡装置1は、静止画を表示せずに3D画像を表示する。ユーザーは、3D画像の領域を選択する。内視鏡装置1は、ユーザーによって選択された領域におけるカメラ位置で取得された少なくとも1枚の静止画を表示する。ユーザーは、その少なくとも1枚の静止画に含まれる静止画を選択する。内視鏡装置1は、選択された静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
表示制御部184は、1枚以上の静止画のうち、位置選択ステップにおいて選択された少なくとも1つの位置と関連付けられている少なくとも1枚の静止画を表示部5に表示する(画像表示ステップ)。少なくとも1枚の静止画が表示された後、選択部186は、少なくとも1枚の静止画に含まれる静止画を選択する(画像選択ステップ)。データ処理部187は、処理ステップにおいて、選択された静止画と関連付けられているメタデータを処理する。
図19を使用することにより、第2の実施形態の第4の変形例におけるデータ処理について説明する。図19は、データ処理の手順を示す。図19は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図16に示す処理と同じ処理の説明を省略する。
ステップS132において静止画が表示された後、ユーザーは、操作部4を操作することにより、ステップS132において表示された1枚以上の静止画に含まれる少なくとも1枚の静止画を選択する。具体的には、ユーザーは、操作部4を操作することにより、静止画を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、静止画を示す。選択部186は、選択指示が示す静止画を選択する(ステップS133)。ステップS133は、画像選択ステップと対応する。ステップS133の後、ステップS111が実行される。
図20は、ステップS132において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR13、領域RG18、静止画IMG17、および静止画IMG18を表示部5に表示する。図18に示す部分と同じ部分の説明を省略する。
静止画IMG17および静止画IMG18が表示された後、ユーザーは操作部4を操作することにより静止画IMG18を選択する。表示制御部184は、静止画IMG18を強調表示する。例えば、表示制御部184は、静止画IMG18の周囲に枠を表示する。
ステップS112の後、データ処理部187は、ステップS133において選択された静止画のメタデータを処理する(ステップS134)。ステップS134は、データ処理ステップと対応する。ステップS134が実行されたとき、データ処理が終了する。
ステップS111およびステップS112が実行される必要はない。ステップS132が実行された後、ステップS111およびステップS112を実行せずにステップS134が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。選択部186は、位置選択ステップ(ステップS107)において少なくとも1つの位置を選択する。表示制御部184は、画像表示ステップ(ステップS132)において、その少なくとも1つの位置と関連付けられている少なくとも1枚の静止画を表示部5に表示する。少なくとも1枚の静止画が表示された後、選択部186は、画像選択ステップ(ステップS133)において、少なくとも1枚の静止画から任意の静止画を選択する。データ処理部187は、処理ステップ(ステップS134)において、選択された静止画と関連付けられているメタデータを処理する。
第2の実施形態の第4の変形例において、ユーザーによって3D画像上の領域が選択されたとき、内視鏡装置1は、その領域におけるカメラ位置で取得された静止画を表示する。ユーザーによって静止画が選択されたとき、内視鏡装置1は、その静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。ユーザーは、好ましい静止画を容易に選択することができる。
(第2の実施形態の第5の変形例)
本発明の第2の実施形態の第5の変形例を説明する。内視鏡装置1は、2回以上の検査において生成されたメタデータを一括で処理する。あるいは、内視鏡装置1は、2つ以上の検査対象のメタデータを一括で処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第2の実施形態の第5の変形例を説明する。内視鏡装置1は、2回以上の検査において生成されたメタデータを一括で処理する。あるいは、内視鏡装置1は、2つ以上の検査対象のメタデータを一括で処理する。内視鏡装置1は、図6に示すCPU18を有する。
検査対象が定期的に検査され、各検査において3Dデータおよびメタデータが生成される場合がある。第1の3Dデータおよび第1のメタデータが第1の検査において生成される。第2の3Dデータおよび第2のメタデータが第1の検査よりも後の第2の検査において生成される。データ処理部187は、第1のメタデータおよび第2のメタデータを一括で処理する。
2つ以上の検査対象が検査され、3Dデータおよびメタデータが検査対象毎に生成される場合がある。例えば、2つの熱交換チューブが順次検査され、各熱交換チューブの3Dデータおよびメタデータが生成される。あるいは、航空機エンジンの2つのアクセスポートが順次検査され、各アクセスポートの3Dデータおよびメタデータが生成される。第1の検査対象の検査において第1の3Dデータおよび第1のメタデータが生成される。第1の検査対象と異なる第2の検査対象の検査において第2の3Dデータおよび第2のメタデータが生成される。データ処理部187は、第1のメタデータおよび第2のメタデータを一括で処理する。
静止画は、3Dデータに含まれる具体的な3D座標と関連付けられている必要はない。静止画は、3Dデータに含まれる代表的な3D座標と関連付けられていてもよい。静止画は、3Dデータに含まれる3D座標の全体と関連付けられていてもよい。
第2の実施形態の第5の変形例において、内視鏡装置1は、2回以上の検査において生成されたメタデータまたは2つ以上の検査対象のメタデータを一括で処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。
(第3の実施形態)
本発明の第3の実施形態を説明する。内視鏡装置1は、3D画像を表示し、かつフォルダのツリー構造を表示する。ユーザーは、3D画像上のアイテムを選択し、GUIを使用する操作を実行する。これにより、ユーザーは、そのアイテムを所定のフォルダに移動する。また、ユーザーは、ツリー構造においてGUIを使用する操作を実行することにより、メタデータに含まれる各種のデータを編集する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第3の実施形態を説明する。内視鏡装置1は、3D画像を表示し、かつフォルダのツリー構造を表示する。ユーザーは、3D画像上のアイテムを選択し、GUIを使用する操作を実行する。これにより、ユーザーは、そのアイテムを所定のフォルダに移動する。また、ユーザーは、ツリー構造においてGUIを使用する操作を実行することにより、メタデータに含まれる各種のデータを編集する。内視鏡装置1は、図6に示すCPU18を有する。
図21を使用することにより、第3の実施形態におけるデータ処理について説明する。図21は、データ処理の手順を示す。図21は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS107の後、表示制御部184は、フォルダのツリー構造を表示部5に表示する(ステップS141)。
ステップS141においてツリー構造が表示された後、ユーザーは、操作部4を操作することにより、所定の操作を実行する。具体的には、ユーザーは、操作部4を操作することにより、その操作の内容を示す操作情報を内視鏡装置1に入力する。情報受付部185は、操作情報を受け付ける(ステップS142)。
ステップS142の後、データ処理部187は、ステップS107において選択された静止画のメタデータを処理する。このとき、データ処理部187は、ステップS142において受け付けられた操作情報に基づいてメタデータを処理する(ステップS143)。ステップS143は、データ処理ステップと対応する。ステップS143が実行されたとき、データ処理が終了する。
図22は、ステップS141において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR20およびツリー構造T20を表示部5に表示する。表示制御部184は静止画を表示部5に表示するが、その静止画は図22に示されていない。
ツリー構造T20は、PC41内の記録媒体またはメモリカード42に予め作成されたフォルダの階層構造を示す。ツリー構造T20は、「検査データ」フォルダ、「熱交換チューブ」フォルダ、および「1st直線」フォルダの階層構造を示す。「検査データ」フォルダは最上位のフォルダである。「熱交換チューブ」フォルダは「検査データ」フォルダの下位に位置している。「1st直線」フォルダは「熱交換チューブ」フォルダの下位に位置している。各フォルダの名称がツリー構造T20上に表示される。
表示制御部184は、点P21、点P22、点P23、点P24、および点P25を表示部5に表示する。各点は、3D画像PR20に重畳されている。所定のマークが各点の位置に表示される。各点は、静止画のカメラ座標と対応する。GUIを使用する操作が実行されたとき、各点は、その操作によって移動するアイテムとして機能する。
ユーザーは、操作部4を操作することにより、図22に示す領域RG20を選択する。選択部186は、第2の実施形態における方法を使用することにより、領域RG20に含まれる点P21および点P22を選択する。表示制御部184は、点P21および点P22の色を点P23、点P24、および点P25の色と異なる色に変更する。
ユーザーは、操作部4を操作することにより、ドラッグアンドドロップ操作を実行する。これにより、ユーザーは、点P21および点P22をツリー構造T20における所定のフォルダに移動させる。
図23は、ステップS143において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR20およびツリー構造T21を表示部5に表示する。図22に示す部分と同じ部分の説明を省略する。
ユーザーは、ドラッグアンドドロップ操作を実行することにより、点P21および点P22を、ツリー構造T21上の「1st直線」フォルダに移動させる。このとき、データ処理部187は、点P21および点P22の各々と関連付けられている静止画を「1st直線」フォルダに保存する。データ処理部187は、そのフォルダの名称(ファイルパス)をメタデータに記録する。図23に示す例では、ファイル名「001.jpg」を持つ静止画と、ファイル名「002.jpg」を持つ静止画とが「1st直線」フォルダに移動する。点P21は、ファイル名「001.jpg」を持つ静止画のカメラ座標と対応する。点P22は、ファイル名「002.jpg」を持つ静止画のカメラ座標と対応する。表示制御部184はツリー構造T20を更新し、ツリー構造T21を表示部5に表示する。
ユーザーは、ツリー構造T21において所定の操作を実行してもよい。図24は、ユーザーによって所定の操作が実行されたときに表示部5に表示されたツリー構造の例を示す。例えば、ユーザーは、ツリー構造T21に表示されたファイル名FN20を変更する。図24に示す例では、データ処理部187は、静止画のファイル名を「001.jpg」から「NG_corrosion_001.jpg」に変更し、かつその静止画のメタデータを変更する。
例えば、ユーザーは、ファイル名FN20が表示されている位置において所定の操作を実行する。このとき、表示制御部184は、マークMK20を表示する。また、データ処理部187は、静止画をレポートに添付することを示す情報をメタデータに記録する。
ユーザーは、ツリー構造T20またはツリー構造T21において、静止画を削除する操作を実行してもよい。このとき、データ処理部187は、静止画を削除してもよく、かつその静止画のメタデータを削除してもよい。
ステップS106およびステップS107の代わりに図14に示すステップS121およびステップS122が実行されてもよい。
第3の実施形態において、ユーザーは、GUIを使用する操作を実行することにより、メタデータに含まれる各種のデータを容易に編集することができる。
(第3の実施形態の変形例)
本発明の第3の実施形態の変形例を説明する。メタデータが処理された後、内視鏡装置1は、メタデータの内容が3Dデータに含まれる2つ以上の点の間の位置関係と整合しているか否かを判断する。メタデータの内容が位置関係と整合していない場合、内視鏡装置1は警告を出力する。
本発明の第3の実施形態の変形例を説明する。メタデータが処理された後、内視鏡装置1は、メタデータの内容が3Dデータに含まれる2つ以上の点の間の位置関係と整合しているか否かを判断する。メタデータの内容が位置関係と整合していない場合、内視鏡装置1は警告を出力する。
図6に示すCPU18は、図25に示すCPU18aに変更される。図25は、CPU18aの機能構成を示す。CPU18aの機能は、制御部180、画像処理部181、3Dデータ生成部182、データ取得部183、表示制御部184、情報受付部185、選択部186、データ処理部187、および判断部188を含む。図25に示すブロックの少なくとも1つがCPU18aと異なる回路で構成されてもよい。図6に示す構成と同じ構成の説明を省略する。
図25に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図25に示す各部は、1つまたは複数のプロセッサを含むことができる。図25に示す各部は、1つまたは複数の論理回路を含むことができる。
選択部186は、位置選択ステップにおいて、物体を含む3D空間内の2つ以上の位置に含まれる少なくとも2つの位置を選択する。データ処理部187は、処理ステップにおいて、その少なくとも2つの位置に基づいてメタデータを処理する。判断部188は、処理ステップにおいて処理されたメタデータの内容が少なくとも2つの位置の間の位置関係と整合しているか否かを判断する(判断ステップ)。その内容が位置関係と整合していないと判断部188が判断したとき、表示制御部184は警告を出力する(警告出力ステップ)。
表示制御部184は、警告出力部として機能し、かつ警告を表示部5に表示する。警告を出力する方法は、これに限らない。例えば、CPU18aの警告出力部は、音声データをスピーカーに出力し、警告を示す音声をスピーカーに発生させてもよい。
図26を使用することにより、第3の実施形態の変形例におけるデータ処理について説明する。図26は、データ処理の手順を示す。図26は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図21に示す処理と同じ処理の説明を省略する。
選択部186は、ステップS107において、3Dデータに含まれる2つ以上の点の少なくとも2つを選択する。これにより、選択部186は、2つ以上の3D位置を選択する。さらに、選択部186は、その2つ以上の3D位置と関連付けられている2枚以上の静止画を選択する。
データ処理部187は、ステップS143において2枚以上の静止画のメタデータを処理する。その2枚以上の静止画は、ステップS107において選択された2つ以上の3D位置と関連付けられている。
ステップS143の後、判断部188は、メタデータの内容が3Dデータに含まれる2つ以上の点の間の位置関係と整合しているか否かを判断する(ステップS151)。ステップS151は、判断ステップと対応する。
メタデータの内容が位置関係と整合していると判断部188がステップS151において判断した場合、データ処理が終了する。メタデータの内容が位置関係と整合していないと判断部188がステップS151において判断した場合、表示制御部184は警告を表示部5に表示する(ステップS152)。ステップS152は、警告出力ステップと対応する。ステップS152が実行されたとき、データ処理が終了する。
図27は、ステップS152において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR20およびツリー構造T22を表示部5に表示する。図22に示す部分と同じ部分の説明を省略する。
ツリー構造T22は、「検査データ」フォルダ、「熱交換チューブ」フォルダ、「1st直線」フォルダ、および「曲線」フォルダの階層構造を示す。「曲線」フォルダは「熱交換チューブ」フォルダの下位に位置している。
ユーザーは、点P21、点P22をツリー構造T22上の「1st直線」フォルダに移動させる。さらに、ユーザーは、点P24を「1st直線」フォルダに移動させる。データ処理部187は、点P21、点P22、および点24の各々と関連付けられている静止画を「1st直線」フォルダに保存する。データ処理部187は、そのフォルダの名称(ファイルパス)をメタデータに記録する。
ユーザーは、点P23および点P25をツリー構造T22上の「曲線」フォルダに移動させる。データ処理部187は、点P23および点25の各々と関連付けられている静止画を「曲線」フォルダに保存する。データ処理部187は、そのフォルダの名称(ファイルパス)をメタデータに記録する。
例えば、点P21は被写体の入り口に近く、点P25はその入り口から遠い。点24と関連付けられている静止画は「1st直線」フォルダに保存されている。点P24は被写体の直線部分ではなく曲線部分に存在しているため、その静止画は「曲線」フォルダに保存される必要がある。図27に示す例では、判断部188は、メタデータの内容が位置関係と整合していないと判断する。以下では、各点と関連付けられている静止画を各点における静止画と呼ぶ。
例えば、判断部188は、被写体の入り口から各点までの距離に基づいてステップS151における判断を実行する。点P22、点P23、および点P24のうち点P22が入り口に最も近く、点P23が入り口に2番目に近く、点P24が入り口から最も遠い。点P23における静止画は、点P22における静止画が保存されているフォルダと異なるフォルダに保存されている。点P24における静止画は、点P22における静止画が保存されているフォルダと同じフォルダに保存されている。点P24における静止画は、点P23における静止画が保存されているフォルダに保存される必要がある。そのため、判断部188は、メタデータの内容が位置関係と整合していないと判断する。
判断部188は、2つのカメラ位置の間の距離に基づいてステップS151における判断を実行してもよい。図27に示す例では、点P22と点P23との間の距離は点P22と点P24との間の距離よりも小さい。判断部188は、上記の処理と同様の処理を実行することにより、メタデータの内容が位置関係と整合していないと判断する。
表示制御部184はメッセージMS20を表示部5に表示する。メッセージMS20は、静止画が正しいフォルダに保存されているか否かを確認することをユーザーに促す。
ステップS106およびステップS107の代わりに図14に示すステップS121およびステップS122が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。2枚以上の静止画が、物体を撮影することにより生成された1枚以上の静止画として使用される。選択部186は、位置選択ステップ(ステップS107)において、物体を含む3D空間内の2つ以上の位置に含まれる少なくとも2つの位置を選択する。データ処理部187は、処理ステップ(ステップS143)において、その少なくとも2つの位置に基づいてメタデータを処理する。判断部188は、判断ステップ(ステップS151)を実行することにより、処理ステップにおいて処理されたメタデータの内容がその少なくとも2つの位置の間の位置関係と整合しているか否かを判断する。その内容が位置関係と整合していないと判断部188が判断したとき、表示制御部184は、警告出力ステップ(ステップS152)において警告を出力する。
第3の実施形態の変形例においてメタデータの内容が位置関係と整合していない場合、内視鏡装置1は警告を出力する。そのため、ユーザーは、メタデータに含まれる各種のデータを確実に編集することができる。
(第4の実施形態)
本発明の第4の実施形態を説明する。内視鏡装置1は、セグメンテーション処理を実行することにより、3Dデータに含まれる2つ以上の点を2つ以上の領域(セグメント)に分割する。ユーザーが2つ以上のセグメントの1つを選択した場合、内視鏡装置1はそのセグメントの静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第4の実施形態を説明する。内視鏡装置1は、セグメンテーション処理を実行することにより、3Dデータに含まれる2つ以上の点を2つ以上の領域(セグメント)に分割する。ユーザーが2つ以上のセグメントの1つを選択した場合、内視鏡装置1はそのセグメントの静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
画像処理部181は、物体を含む3D空間内の2つ以上の位置を2つ以上のセグメント(グループ)に分割する(分割ステップ)。画像処理部181は、分割部として機能する。選択部186は、位置選択ステップにおいて、2つ以上のセグメントの1つを選択し、かつ選択されたセグメントに含まれる位置を選択する。表示制御部184は、2つ以上のセグメントを表示部5に表示する(グループ表示ステップ)。
図28を使用することにより、第4の実施形態におけるデータ処理について説明する。図28は、データ処理の手順を示す。図28は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS105の後、画像処理部181は、セグメンテーション処理を実行する。具体的には、画像処理部181は、3Dデータを使用することにより、被写体の3D形状の特徴を判断する。画像処理部181は、その特徴に基づいて、3Dデータに含まれる2つ以上の点を2つ以上のセグメントに分割する。例えば、画像処理部181は、Euclidean Cluster Extractionを使用することにより、2つ以上の点の各々を2つ以上のセグメントのうちの1つに割り当てる。これにより、画像処理部181は、3D形状の領域を2つ以上のセグメントに分割する(ステップS161)。ステップS161は、分割ステップと対応する。
2つ以上の点の各々は、2つ以上のセグメントのいずれか1つに分類される。2つ以上のセグメントの各々は1つ以上の点を含む。
ステップS161の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示し、かつ1枚以上の静止画を表示部5に表示する。このとき、表示制御部184は、2つ以上のセグメントを互いに異なる色で表示する(ステップS162)。ステップS162は、情報表示ステップおよびグループ表示ステップと対応する。ステップS162の後、ステップS107が実行される。
図29は、ステップS162において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR30を表示部5に表示する。表示制御部184は静止画を表示部5に表示するが、その静止画は図29に示されてない。
表示制御部184は、セグメントSG31、セグメントSG32、セグメントSG33、セグメントSG34、およびセグメントSG35を表示部5に表示する。各セグメントは3D画像PR30に重畳されている。これらの領域は互いに異なる色で表示される。表示制御部184は各セグメントを3D画像PR30に重畳する必要はない。表示制御部184は、3D画像PR30が表示される領域と異なる領域に各セグメントを表示してもよい。
ユーザーは、操作部4を操作することにより、セグメントSG31からSG35のうちの1つを選択する。これにより、ユーザーは、3D画像PR30上の位置を選択する。具体的には、ユーザーは、操作部4を操作することにより、1つの領域を選択するための選択指示を内視鏡装置1に入力する。
カーソルが3D画像上に表示される例では、ユーザーは、カーソルを所望の領域上の位置に移動させ、かつクリック等の操作を実行する。表示部5がタッチパネルである例では、ユーザーは表示部5の画面において所望の領域上の位置をタッチする。
情報受付部185は、選択指示を受け付ける。選択指示は、セグメントSG31からSG35のうちの1つを示す。図29に示す例では、ユーザーは、セグメントSG31を選択するための選択指示を内視鏡装置1に入力する。
選択部186は、選択指示が示す位置と対応する3D位置を特定する。図29に示す例では、選択部186は、選択指示に基づいて、セグメントSG31に含まれる3D位置を特定する。その後、選択部186は、第2の実施形態における方法を使用することにより、その3D位置と関連付けられている静止画を選択する。
図29に示す例では、選択部186は、セグメントSG31に含まれる3D位置と関連付けられている1枚以上の静止画の全てを選択する。ユーザーは、3D位置を容易に選択することができる。
ステップS111およびステップS112が実行される必要はない。ステップS107が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
ユーザーは、操作部4を操作することにより、3D画像上の領域を囲む操作を実行してもよい。画像処理部181は、ユーザーによって実行された操作を通して囲まれた領域を1つのセグメントとして設定してもよい。表示制御部184は、3D画像においてそのセグメントを所定の色で表示してもよい。
内視鏡装置1は、図25に示すCPU18aを有してもよい。判断部188は、ステップS108において処理されたメタデータの内容が3Dデータに含まれる2つ以上の点の間の位置関係と整合しているか否かを判断してもよい。例えば、図29に示すセグメントSG31において静止画A1および静止画A2が取得され、かつ図29に示すセグメントSG32において静止画B1が取得される。例えば、静止画A1がフォルダAに保存され、かつ静止画A2および静止画B1がフォルダBに保存される。
上記の例では、セグメントSG31において取得された静止画A1および静止画A2が、互いに異なるフォルダAおよびフォルダBにそれぞれ保存されている。また、互いに異なるセグメントSG31およびセグメントSG32において取得された静止画A2および静止画B1が1つのフォルダBに保存される。静止画A2は、静止画A1が保存されているフォルダAに保存される必要がある。そのため、判断部188は、メタデータの内容が位置関係と整合していないと判断する。その場合、表示制御部184は警告を表示部5に表示してもよい。
本発明の各態様は次の変形例を含んでもよい。画像処理部181は、分割ステップ(ステップS161)において、物体を含む3D空間内の2つ以上の位置を2つ以上のグループ(セグメント)に分割する。
本発明の各態様は次の変形例を含んでもよい。選択部186は、位置選択ステップ(ステップS107)において、2つ以上のグループ(セグメント)の1つを選択し、かつ選択されたグループに含まれる位置を選択する。
本発明の各態様は次の変形例を含んでもよい。位置選択ステップ(ステップS107)において少なくとも1つの位置が選択される前に分割ステップ(ステップS161)が実行される。少なくとも1つの位置が選択される前に、表示制御部184は、グループ表示ステップ(ステップS162)において2つ以上のグループ(セグメント)を表示部5に表示する。
第4の実施形態において、内視鏡装置1は、3Dデータに含まれる2つ以上の点を2つ以上のセグメントに分割する。内視鏡装置1は、ユーザーによって選択されたセグメントの静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。
ユーザーは、簡単な操作を実行することにより2つ以上の領域(セグメント)の1つを選択することができる。そのため、ユーザーが誤った領域を選択する可能性が減る。
(第5の実施形態)
本発明の第5の実施形態を説明する。内視鏡を使用する検査において、特徴領域の2枚以上の静止画が取得される場合がある。例えば、特徴領域は、傷が存在する領域である。2枚以上の静止画の構図は互いに異なる。一般的な例では、ユーザーは2枚以上の静止画のうち1枚以上の静止画を選択する。選択された静止画は、レポートに添付される。
本発明の第5の実施形態を説明する。内視鏡を使用する検査において、特徴領域の2枚以上の静止画が取得される場合がある。例えば、特徴領域は、傷が存在する領域である。2枚以上の静止画の構図は互いに異なる。一般的な例では、ユーザーは2枚以上の静止画のうち1枚以上の静止画を選択する。選択された静止画は、レポートに添付される。
第5の実施形態における内視鏡装置1は、特徴領域の静止画を選択するための手間を削減する。内視鏡装置1は、ユーザーによって3D画像において選択された領域が写っている静止画を選択する。内視鏡装置1は、選択された静止画と関連付けられているメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
選択部186は、1枚以上の静止画のうち、位置選択ステップにおいて選択された少なくとも1つの位置と関連付けられている静止画を選択する(画像選択ステップ)。具体的には、選択部186は、ユーザーによって入力された指示に基づいて特徴領域を選択し、かつその特徴領域における少なくとも1つの位置と関連付けられている静止画を選択する。表示制御部184は、選択された静止画を表示部5に表示する(画像表示ステップ)。データ処理部187は、処理ステップにおいて、選択された静止画と関連付けられているメタデータを処理する。
図30を使用することにより、第5の実施形態におけるデータ処理について説明する。図30は、データ処理の手順を示す。図30は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
データ取得部183は、PC41内の記録媒体またはメモリカード42にアクセスし、3Dデータをその記録媒体またはメモリカード42から取得する(ステップS171)。
静止画が処理されるとき、データ取得部183は、静止画をその記録媒体またはメモリカード42から取得する。この処理は、図30に示されていない。
ステップS171の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示する(ステップS172)。ステップS172は、情報表示ステップと対応する。
ステップS172の後、選択部186は、ステップS107において、3Dデータに含まれる2つ以上の点の少なくとも1つを選択する。これにより、選択部186は、1つ以上の3D位置を選択する。さらに、選択部186は、その1つ以上の3D位置と関連付けられている1枚以上の静止画を選択する。
ステップS107の後、選択部186は、ステップS107において選択された1枚以上の静止画のうち代表的な1枚以上の静止画を選択する(ステップS173)。ステップS173は、画像選択ステップと対応する。
ステップS173の後、表示制御部184は、ステップS173において選択された1枚以上の静止画を表示部5に表示する(ステップS174)。ステップS174は、画像表示ステップと対応する。ステップS174の後、ステップS111が実行される。
図31は、ステップS172において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR40を表示部5に表示する。3D画像PR40は、被写体OB40の3D形状を示す。被写体OB40は、テクスチャが付加されている3D形状として表示される。特徴領域RG40が被写体OB40の表面に存在する。
ユーザーは、操作部4を操作することにより、特徴領域RG40を選択する。具体的には、ユーザーは、操作部4を操作することにより、3D画像PR40上の位置を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、3D画像PR40上の位置を示す。
選択部186は、選択指示が示す位置と対応する3D位置を特定する。その後、選択部186は、第2の実施形態における方法を使用することにより、その3D位置と関連付けられている1枚以上の静止画を選択する。これにより、選択部186は、ユーザーによって選択された特徴領域RG40が写っている1枚以上の静止画を選択する。
選択部186は、予め設定された基準に基づいて1枚以上の静止画を選択する。例えば、選択部186は、各静止画における特徴領域RG40の大きさ(面積)を算出する。選択部186は、その大きさが最も大きい1枚の静止画を選択する。あるいは、選択部186は、その大きさが所定の大きさよりも大きい1枚以上の静止画を選択する。選択部186は、各静止画のコントラストなどに基づいて1枚以上の静止画を選択してもよい。
図32は、ステップS174において表示部5に表示された画像の例を示す。図31に示す部分と同じ部分の説明を省略する。
表示制御部184は、静止画IMG40を表示部5に表示する。静止画IMG40は、ステップS173において選択部186によって選択された静止画である。特徴領域RG40が静止画IMG40に写っている。ユーザーは、特徴領域が静止画に写っているか否かを確認することができる。
ステップS171およびステップS172の代わりに図7に示すステップS105およびステップS106が実行されてもよい。ユーザーは、操作部4を操作することにより、静止画における領域を選択してもよい。選択部186は、その領域の2D座標と関連付けられている3Dデータの3D座標を特定してもよい。選択部186は、第2の実施形態における方法を使用することにより、その3D座標と関連付けられている1枚以上の静止画を選択してもよい。その後、ステップS173が実行されてもよい。
ステップS111およびステップS112が実行される必要はない。ステップS174が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。選択部186は、画像選択ステップ(ステップS107およびステップS173)において、1枚以上の静止画のうち、位置選択ステップ(ステップS107)において選択された少なくとも1つの位置と関連付けられている静止画を選択する。表示制御部184は、画像表示ステップ(ステップS174)において、選択された静止画を表示部5に表示する。データ処理部187は、処理ステップ(ステップS108)において、選択された静止画と関連付けられているメタデータを処理する。上記の変形例は、第5の実施形態の第1の変形例に適用されてもよい。
第5の実施形態において、内視鏡装置1は、ユーザーによって選択された特徴領域が写っている静止画を選択し、かつ選択された静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。ユーザーは、特徴領域が写っている静止画を容易に選択することができる。
(第5の実施形態の第1の変形例)
本発明の第5の実施形態の第1の変形例を説明する。上記の第5の実施形態において、内視鏡装置1は、ユーザーによって選択された領域が写っている静止画を選択する。第5の実施形態の第1の変形例において、内視鏡装置1は、画像処理を実行することにより特徴領域を検出し、かつその特徴領域が写っている静止画を選択する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第5の実施形態の第1の変形例を説明する。上記の第5の実施形態において、内視鏡装置1は、ユーザーによって選択された領域が写っている静止画を選択する。第5の実施形態の第1の変形例において、内視鏡装置1は、画像処理を実行することにより特徴領域を検出し、かつその特徴領域が写っている静止画を選択する。内視鏡装置1は、図6に示すCPU18を有する。
図33を使用することにより、第5の実施形態の第1の変形例におけるデータ処理について説明する。図33は、データ処理の手順を示す。図33は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図30に示す処理と同じ処理の説明を省略する。
ステップS107の後、画像処理部181は、ステップS107において選択された1枚以上の静止画の各々を処理し、特徴領域を検出する(ステップS181)。例えば、画像処理部181は、所定の色または所定の形状を持つ領域を特徴領域として検出する。あるいは、画像処理部181は、代表的な特徴領域が写っているテンプレート画像を各静止画と比較し、連符レート画像における特徴領域と類似する領域を静止画の特徴領域として検出する。
ステップS181の後、選択部186は、ステップS181において選択された1枚以上の静止画のうち代表的な1枚以上の静止画を選択する(ステップS182)。ステップS182は、画像選択ステップと対応する。例えば、選択部186は、特徴領域の大きさなどに基づいて1枚以上の静止画を選択する。ステップS182の後、ステップS174が実行される。
ステップS111およびステップS112が実行される必要はない。ステップS174が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
第5の実施形態の第1の変形例において、内視鏡装置1は、静止画における特徴領域を検出し、かつその特徴領域が写っている静止画を選択する。内視鏡装置1は、選択された静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。ユーザーは、静止画を選択するための作業を実施する必要がない。
(第5の実施形態の第2の変形例)
本発明の第5の実施形態の第2の変形例を説明する。内視鏡を使用する検査において、ユーザーが静止画を取得し忘れる場合がある。ユーザーが3D画像上の位置を選択したとき、内視鏡装置1は、その位置が写っている静止画を取得する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第5の実施形態の第2の変形例を説明する。内視鏡を使用する検査において、ユーザーが静止画を取得し忘れる場合がある。ユーザーが3D画像上の位置を選択したとき、内視鏡装置1は、その位置が写っている静止画を取得する。内視鏡装置1は、図6に示すCPU18を有する。
図34を使用することにより、第5の実施形態の第2の変形例におけるデータ処理について説明する。図34は、データ処理の手順を示す。図34は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS106の後、選択部186は、3Dデータに含まれる2つ以上の点の少なくとも1つを選択する。これにより、選択部186は、1つ以上の3D位置を選択する。さらに、選択部186は、その1つ以上の3D位置と関連付けられている動画の1枚以上のフレームを静止画として取得する(ステップS191)。ステップS191は、位置選択ステップと対応する。
3Dデータは、3Dデータを生成するための動画の各フレームにおける1つ以上の点の2D座標を含む。3Dデータにおいて3D座標および2D座標が互いに関連付けられている。選択部186は、選択された3D位置の3D座標と関連付けられている2D座標を特定する。選択部186は、特定された2D座標を含むフレームを静止画として取得する。
3Dデータは、動画の各フレームを取得したカメラのカメラ座標を含む。選択部186は、カメラ座標を持つ1つ以上のカメラ位置を1つ以上の3D位置として選択してもよい。選択部186は、選択された1つ以上のカメラ位置と関連付けられている1枚以上のフレームを静止画として取得してもよい。
ステップS191の後、表示制御部184は、ステップS191において取得された1枚以上の静止画を表示部5に表示する(ステップS192)。ステップS192の後、ステップS111が実行される。
図35は、ステップS106において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR41、静止画IMG40、および静止画IMG41を表示部5に表示する。表示制御部184は、点P40および点P41を表示部5に表示する。各点は、3D画像PR41に重畳されている。所定のマークが各点の位置に表示される。各点は、静止画を取得したカメラの位置を示す。
点P40は、静止画IMG40を取得したカメラの位置を示す。点P41は、静止画IMG41を取得したカメラの位置を示す。
ユーザーは、所定の位置において静止画が取得されたか否かを確認する。新たな静止画が必要であるとユーザーが判断した場合、ユーザーは、操作部4を操作することにより、3D画像PR41上の位置を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、3D画像PR41上の位置を示す。
選択部186は、選択指示が示す位置と対応する3D位置を特定する。その後、選択部186は、第2の実施形態における方法を使用することにより、その3D位置と関連付けられている動画の1枚以上のフレームを静止画として取得する。
同じ検査対象が2回以上検査される場合がある。例えば、検査対象が1年に1回検査される。選択部186は、過去の検査において取得された静止画のカメラ位置を選択し、そのカメラ位置と関連付けられている動画の1枚以上のフレームを静止画として取得してもよい。
図36は、ステップS192において表示部5に表示された画像の例を示す。図35に示す部分と同じ部分の説明を省略する。
表示制御部184は、静止画IMG42および点P42を表示する。静止画IMG42は、ステップS191において取得された静止画である。点P42は、静止画IMG42を取得したカメラの位置を示す。ユーザーは、所望の領域が写っている静止画が取得されたか否かを確認することができる。
ステップS111およびステップS112が実行される必要はない。ステップS192が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
ステップS106の代わりに図14に示すステップS121が実行されてもよい。
選択部186は、ステップS191において選択された1つ以上の3D位置と関連付けられている動画の2枚以上のフレームを取得してもよい。3Dデータ生成部182は、その2枚以上のフレームを使用するSfMを実行することにより静止画を生成してもよい。生成された静止画は、3Dデータと同様のデータである。
第5の実施形態の第2の変形例において、内視鏡装置1は、ユーザーによって3D画像において選択された領域が写っている静止画を取得する。内視鏡装置1は、選択された静止画と関連付けられているメタデータを処理する。検査において所望の領域の静止画が取得されなかった場合であっても、内視鏡装置1はその領域の静止画を取得することができる。
(第5の実施形態の第3の変形例)
本発明の第5の実施形態の第3の変形例を説明する。内視鏡装置1は、予め設定されたセグメントの静止画が取得されたか否かを判断する。そのセグメントの静止画が取得されていない場合、内視鏡装置1はそのセグメントの静止画を取得する。内視鏡装置1は、図25に示すCPU18aを有する。
本発明の第5の実施形態の第3の変形例を説明する。内視鏡装置1は、予め設定されたセグメントの静止画が取得されたか否かを判断する。そのセグメントの静止画が取得されていない場合、内視鏡装置1はそのセグメントの静止画を取得する。内視鏡装置1は、図25に示すCPU18aを有する。
画像処理部181は、物体を含む3D空間内の2つ以上の位置を2つ以上のセグメント(グループ)に分割する。2つ以上のセグメントの1つは、2つ以上の位置の少なくとも1つを含む。選択部186は、2つ以上のセグメントのその1つを選択する(グループ選択ステップ)。判断部188は、1枚以上の静止画の少なくとも1枚が、選択されたセグメントに含まれる少なくとも1つの位置と関連付けられているか否かを判断する。1枚以上の静止画が、選択されたセグメントに含まれる少なくとも1つの位置のいずれとも関連付けられていないと判断部188が判断したとき、選択部186は、そのセグメントと関連付けられている動画の1枚以上のフレームを静止画として取得する。
内視鏡を使用する検査において、特定の領域の静止画がレポートに必要な場合がある。例えば、その特定の領域は、外力に弱いパイプの曲がり角である。曲がり角を示すセグメント情報が、ROM13に記録されているプログラムに含まれる。選択部186は、セグメント情報に基づいて、曲がり角を示すセグメントを特定する。選択部186は、そのセグメントの静止画が取得されたか否かを判断する。
図37を使用することにより、第5の実施形態の第3の変形例におけるデータ処理について説明する。図37は、データ処理の手順を示す。図37は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS105の後、画像処理部181は、セグメンテーション処理を実行する。これにより、画像処理部181は、被写体の3D形状の領域を2つ以上のセグメントに分割する(ステップS161)。ステップS161は、図28に示すステップS161と同じである。
ステップS161の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示し、かつ1枚以上の静止画を表示部5に表示する。このとき、表示制御部184は、2つ以上のセグメントを互いに異なる色で表示する(ステップS162)。ステップS162は、図28に示すステップS162と同じである。
ステップS162の後、選択部186は、2つ以上のセグメントの1つを選択する。例えば、選択部186は、セグメント情報に基づいて、曲がり角を示すセグメントを選択する。これにより、選択部186は、予め設定されたセグメントを選択する(ステップS201)。ステップS201は、グループ選択ステップと対応する。
ステップS201の後、判断部188は、1枚以上の静止画の少なくとも1枚が、選択されたセグメントに含まれる少なくとも1つの位置と関連付けられているか否かを判断する。これにより、判断部188は、ステップS201において選択されたセグメントの静止画が取得されたか否かを判断する(ステップS202)。
少なくとも1枚の静止画が、選択されたセグメントに含まれる少なくとも1つの位置と関連付けられている場合、判断部188は、ステップS201において選択されたセグメントの静止画が取得されたと判断する。1枚以上の静止画の全てが、選択されたセグメントに含まれる少なくとも1つの位置のいずれとも関連付けられていない場合、判断部188は、ステップS201において選択されたセグメントの静止画が取得されていないと判断する。
ステップS201において選択されたセグメントの静止画が取得されたと判断部188が判断した場合、ステップS107が実行される。ステップS201において選択されたセグメントの静止画が取得されていないと判断部188が判断した場合、選択部186は、そのセグメントにおける1つ以上の3D位置と関連付けられている動画の1枚以上のフレームを静止画として取得する(ステップS203)。
3Dデータは、3Dデータを生成するための動画の各フレームにおける1つ以上の点の2D座標を含む。3Dデータにおいて3D座標および2D座標が互いに関連付けられている。選択部186は、選択された3D位置の3D座標と関連付けられている2D座標を特定する。選択部186は、特定された2D座標を含むフレームを静止画として取得する。
ステップS203の後、表示制御部184は、ステップS203において取得された1枚以上の静止画を表示部5に表示する(ステップS204)。ステップS204の後、ステップS107が実行される。
選択部186は、ステップS107において、ステップS201において選択されたセグメントに含まれる少なくとも1つの点を選択してもよい。選択部186は、ステップS107において、ステップS201において選択されたセグメント以外のセグメントに含まれる少なくとも1つの点を選択してもよい。
ステップS111およびステップS112が実行される必要はない。ステップS107が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
第5の実施形態の第3の変形例において、予め設定されたセグメントの静止画が取得されていない場合、内視鏡装置1はそのセグメントの静止画を取得する。検査において所望の領域の静止画が取得されなかった場合であっても、内視鏡装置1はその領域の静止画を取得することができる。
(第5の実施形態の第4の変形例)
本発明の第5の実施形態の第4の変形例を説明する。内視鏡装置1は、予め設定されたセグメントの静止画が取得されたか否かを判断する。そのセグメントの静止画が取得されていない場合、内視鏡装置1は警告を出力する。内視鏡装置1は、図25に示すCPU18aを有する。
本発明の第5の実施形態の第4の変形例を説明する。内視鏡装置1は、予め設定されたセグメントの静止画が取得されたか否かを判断する。そのセグメントの静止画が取得されていない場合、内視鏡装置1は警告を出力する。内視鏡装置1は、図25に示すCPU18aを有する。
画像処理部181は、物体を含む3D空間内の2つ以上の位置を2つ以上のグループ(セグメント)に分割する。2つ以上のグループの1つは、2つ以上の位置の少なくとも1つを含む。選択部186は、2つ以上のグループのその1つを選択する(グループ選択ステップ)。判断部188は、1枚以上の静止画の少なくとも1枚が、選択されたセグメントに含まれる少なくとも1つの位置と関連付けられているか否かを判断する。1枚以上の静止画が、選択されたセグメントに含まれる少なくとも1つの位置のいずれとも関連付けられていないと判断部188が判断したとき、表示制御部184は警告を出力する(警告出力ステップ)。
表示制御部184は、警告出力部として機能し、かつ警告を表示部5に表示する。警告を出力する方法は、これに限らない。例えば、CPU18aの警告出力部は、音声データをスピーカーに出力し、警告を示す音声をスピーカーに発生させてもよい。
図38を使用することにより、第5の実施形態の第4の変形例におけるデータ処理について説明する。図38は、データ処理の手順を示す。図38は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図37に示す処理と同じ処理の説明を省略する。
ステップS201において選択されたセグメントの静止画が取得されていないと判断部188が判断した場合、表示制御部184は警告を表示部5に表示する(ステップS211)。ステップS211は、警告出力ステップと対応する。ステップS211の後、ステップS107が実行される。
ステップS211の後、図37に示すステップS203およびステップS204が実行されてもよい。
ステップS211の後、ユーザーは、操作部4を操作することにより、3D画像上の位置を選択するための選択指示を内視鏡装置1に入力してもよい。情報受付部185は、選択指示を受け付けてもよい。選択指示は、3D画像上の位置を示す。
選択部186は、選択指示が示す位置と対応する3D位置を特定してもよい。その後、選択部186は、第2の実施形態における方法を使用することにより、その3D位置と関連付けられている動画の1枚以上のフレームを静止画として取得してもよい。
ステップS111およびステップS112が実行される必要はない。ステップS107が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。画像処理部181は、分割ステップ(ステップS161)において、物体を含む3D空間内の2つ以上の位置を2つ以上のグループに分割する。2つ以上のグループの1つは、2つ以上の位置の少なくとも1つを含む。選択部186は、グループ選択ステップ(ステップS201)において、2つ以上のグループのその1つを選択する。1枚以上の静止画が、選択されたグループに含まれる少なくとも1つの位置のいずれとも関連付けられていないとき、表示制御部184は、警告出力ステップ(ステップS211)において、警告を出力する。
第5の実施形態の第4の変形例において、予め設定されたセグメントの静止画が取得されていない場合、内視鏡装置1は警告を出力する。検査において所望の領域の静止画が取得されなかった場合、内視鏡装置1はその領域の静止画が取得されていないことをユーザーに通知することができる。
(第6の実施形態)
本発明の第6の実施形態を説明する。メタデータが処理された後、内視鏡装置1は、そのメタデータの内容を表示する。ユーザーは、表示部5の画面を操作することにより、メタデータを修正するための指示を内視鏡装置1に入力する。内視鏡装置1は、その指示に基づいて、メタデータを修正する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第6の実施形態を説明する。メタデータが処理された後、内視鏡装置1は、そのメタデータの内容を表示する。ユーザーは、表示部5の画面を操作することにより、メタデータを修正するための指示を内視鏡装置1に入力する。内視鏡装置1は、その指示に基づいて、メタデータを修正する。内視鏡装置1は、図6に示すCPU18を有する。
表示制御部184は、データ処理ステップにおいて処理されたメタデータの内容を表示部5に表示する(データ表示ステップ)。表示制御部184は、データ表示ステップにおいて、メタデータの内容を含む操作画面を表示部5に表示する。データ処理部187は、その操作画面の操作に基づいてメタデータを修正する(データ修正ステップ)。
図39を使用することにより、第6の実施形態におけるデータ処理について説明する。図39は、データ処理の手順を示す。図39は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図12に示す処理と同じ処理の説明を省略する。
ステップS108の後、表示制御部184は、ステップS108において処理されたメタデータの内容を表示部5に表示する。このとき、表示制御部184は、メタデータの内容を含む操作画面を表示部5に表示する(ステップS221)。ステップS221は、データ表示ステップと対応する。ユーザーは、メタデータがユーザーの意図に従って処理されたか否かを確認することができる。
ステップS221の後、データ処理部187は、ユーザーによって操作画面に対して実行された操作に基づいてメタデータを修正する(ステップS222)。ステップS222は、データ修正ステップと対応する。ステップS222が実行されたとき、データ処理が終了する。
操作画面が表示された後、ユーザーは、操作部4を操作することにより、修正のための情報を内視鏡装置1に入力する。情報受付部185は、内視鏡装置1に入力された情報を受け付ける。データ処理部187は、情報受付部185によって受け付けられた情報に基づいてメタデータを修正する。表示制御部184は、修正されたメタデータの内容を表示部5に表示してもよい。
図40は、ステップS111において表示部5に表示された情報入力ウィンドウの例を示す。図40に示す情報入力ウィンドウW50は、項目IT10、項目IT11、項目IT12、項目IT13、項目IT14、項目IT15、および項目IT16を含む。情報入力ウィンドウW50における各項目は、図13に示す情報入力ウィンドウW10における各項目と同じである。
図41は、ステップS221において表示部5に表示された操作画面の例を示す。表示制御部184は、操作画面SC50を表示部5に表示する。操作画面SC50は、3D画像DT50、静止画IMG50、3D画像DT51、および静止画IMG51を含む。
3D画像DT50は、ステップS106において表示された3D画像と対応する。静止画IMG50は、ステップS107において選択された静止画と対応する。3D画像DT51は、検査対象の3D形状を示す。静止画IMG51は、過去の検査において取得された静止画と対応する。
表示制御部184は、図40に示す項目IT10に設定された文字列を含む名称N50を操作画面SC50に表示する。名称N50は、検査対象の名称を示す。表示制御部184は、図40に示す項目IT11に設定された文字列を含む名称N51を操作画面SC50に表示する。名称N51は、部位の名称を示す。
ユーザーは、GUIを使用する操作を実行することにより、名称N50または名称N51を操作画面SC50上で修正してもよい。名称N50または名称N51が修正された場合、データ処理部187は、項目IT11と関連付けられているフォルダに保存されている静止画を移動する。静止画は、修正された名称N50または名称N51を持つフォルダに保存される。名称N50または名称N51が修正された場合、データ処理部187は、項目IT10または項目IT11と関連付けられているフォルダの名称を修正してもよい。データ処理部187は、項目IT10または項目IT11と関連付けられているメタデータを修正する。
表示制御部184は、図40に示す項目IT12に設定された文字列と、図40に示す項目IT13に設定された文字列とを含む名称N52を操作画面SC50に表示する。名称N52は、静止画IMG50のファイル名を示す。
ユーザーは、GUIを使用する操作を実行することにより、名称N52を操作画面SC50上で修正してもよい。名称N52が修正された場合、データ処理部187は、メタデータに記録されたファイル名を修正することにより、静止画IMG50のファイル名を修正する。
画像処理部181は、ステップS106において表示された3D画像を縮小することにより3D画像DT50を生成する。
3Dデータをレポートに添付することを示す情報が図40に示す項目IT16に設定されているとき、3Dデータ生成部182は、動画に含まれる2枚以上のフレームのうちの少なくとも2枚を使用することにより、被写体上の2つ以上の点の3D座標を算出する。3Dデータ生成部182は、その2つ以上の点の3D座標を含む3Dデータを生成する。表示制御部184は、その3Dデータの3D画像DT51を操作画面SC50に表示する。
3Dデータ生成部182は、ステップS104において、広い領域の3Dデータを生成する。3Dデータ生成部182は、ステップS108において、狭い領域の詳細な3Dデータを生成する。このとき、3Dデータ生成部182は、ステップS104において使用されるアルゴリズムと異なるアルゴリズムを使用する。これにより、内視鏡装置1は、ステップS104において3Dデータを生成するための処理時間を長くすることなく、ユーザーが注目する領域の詳細な3Dデータを生成することができる。
ユーザーは、3D画像DT51における被写体の方向を変更するための操作を実行してもよい。その操作が実行されたとき、表示制御部184はその方向を変更してもよい。ユーザーは、3D画像DT51の拡大率を変更するための操作を実行してもよい。その操作が実行されたとき、表示制御部184はその拡大率を変更してもよい。
3Dデータをレポートに添付することを示す情報が図40に示す項目IT16に設定されていないとき、表示制御部184は3D画像DT51を操作画面SC50に表示する必要はない。
過去のデータをレポートに添付することを示す情報が図40に示す項目IT15に設定されているとき、表示制御部184は静止画IMG51を表示部5に表示する。過去のデータをレポートに添付することを示す情報が図40に示す項目IT15に設定されていないとき、表示制御部184は静止画IMG51を表示部5に表示する必要はない。
一般的に、内視鏡を使用する検査において、大量のデータから選択されたデータがレポートに添付される。ユーザーは、操作画面SC50を確認することにより、レポートに適したデータが選択されたか否かを判断することができる。また、ユーザーは、3D画像DT51の状態がレポートに適しているか否かを確認することができる。
表示制御部184は、フォルダの階層構造を示すツリー構造を表示部5に表示してもよい。フォルダの構造、フォルダの名称、またはファイル名が修正された場合、表示制御部184は、修正されたツリー構造を表示部5に表示してもよい。ユーザーは、GUIを使用する操作を実行することにより、ツリー構造を操作してもよい。ツリー構造が操作されたとき、データ処理部187はメタデータを修正してもよい。
メタデータの修正が不要である場合、ステップS222が実行される必要はない。
ステップS111およびステップS112が実行される必要はない。ステップS107が実行された後、ステップS111およびステップS112を実行せずにステップS108が実行されてもよい。
ステップS106およびステップS107の代わりに図14に示すステップS121およびステップS122が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。メタデータが処理された後、表示制御部184は、データ表示ステップ(ステップS221)において、処理されたメタデータの内容を含む操作画面を表示部5に表示する。
本発明の各態様は次の変形例を含んでもよい。データ処理部187は、データ修正ステップ(ステップS222)において、操作画面の操作に基づいてメタデータを修正する。
第6の実施形態において、メタデータが処理された後、内視鏡装置1は、そのメタデータの内容を表示する。ユーザーは、その内容を確認することができる。
内視鏡装置1は、ユーザーによって操作画面上で実行された操作に基づいて、メタデータを修正する。ユーザーは、操作画面上で操作を実行することにより、メタデータに含まれる各種のデータを容易に修正することができる。
(第7の実施形態)
本発明の第7の実施形態を説明する。ユーザーは、動画における時間範囲を選択する。内視鏡装置1は、3Dデータを生成するために使用された2枚以上のフレームのうち1枚以上のフレームを静止画として選択する。その静止画が取得された時刻は、ユーザーによって選択された時間範囲に含まれる。内視鏡装置1は、選択された静止画のメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第7の実施形態を説明する。ユーザーは、動画における時間範囲を選択する。内視鏡装置1は、3Dデータを生成するために使用された2枚以上のフレームのうち1枚以上のフレームを静止画として選択する。その静止画が取得された時刻は、ユーザーによって選択された時間範囲に含まれる。内視鏡装置1は、選択された静止画のメタデータを処理する。内視鏡装置1は、図6に示すCPU18を有する。
動画の各フレームは、各フレームが生成された時刻を示す時刻情報と関連付けられている。選択部186は、位置選択ステップにおいて、時刻情報を選択し、かつ選択された時刻情報に基づいて少なくとも1つの位置を選択する。
CPU18は、図7に示すデータ処理を実行する。選択部186は、ステップS107において以下の処理を実行する。
ユーザーは、操作部4を操作することにより、動画における時間範囲を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、その時間範囲を示す。
3Dデータは、各フレームにおける点の2D座標を含む。静止画がフレームと同じであるため、静止画における点の2D座標は、フレームにおける点の2D座標と同じである。そのため、3Dデータは静止画における点の2D座標を含む。各フレームおよび静止画は、3Dデータに含まれる3D座標と関連付けられている。各フレームおよび静止画は、時刻情報を含む。各フレームおよび静止画の時刻情報は、3Dデータに含まれる3D座標と関連付けられている。
選択部186は、選択指示が示す時間範囲と対応する3Dデータの範囲を特定する。具体的には、選択部186は、その時間範囲に含まれる時刻を示す時刻情報と関連付けられている1枚以上のフレームを特定する。選択部186は、その1枚以上のフレームにおける点の2D座標と関連付けられている3Dデータの3D座標を特定する。また、選択部186は、その時間範囲に含まれる時刻を示す時刻情報と関連付けられている静止画を選択する。
図42および図43は、ステップS106において表示部5に表示された画像の例を示す。表示制御部184は、3D画像PR60およびシークバーSB60を表示部5に表示する。シークバーSB60は、3Dデータを生成するために使用された2枚以上のフレームの時刻情報と関連付けられている。ユーザーは、GUIを使用する操作を実行することにより、シークバーSB60上の時間範囲を選択する。
図42に示す例では、ユーザーは、時間範囲TR60を選択する。選択部186は、時間範囲TR60と対応する3Dデータの範囲を特定する。表示制御部184は、特定された範囲DR60を3D画像PR60に重畳する。
図43に示す例では、ユーザーは、時間範囲TR61を選択する。選択部186は、時間範囲TR61と対応する3Dデータの範囲を特定する。表示制御部184は、特定された範囲DR61を3D画像PR60に重畳する。
上記のように、表示制御部184は、動画における時間範囲と対応する3Dデータの範囲を示す範囲情報を表示部5に表示する。範囲情報は、範囲DR60および範囲DR61と対応する。ユーザーは、静止画と関連付けられている3Dデータの範囲を確認することができる。
本発明の各態様は次の変形例を含んでもよい。物体を含む3D空間内の2つ以上の位置の各々は、2枚以上の画像の少なくとも1枚と関連付けられている。2枚以上の画像は、物体を撮影することにより生成された動画に含まれる。2枚以上の画像の各々は、2枚以上の画像の各々が生成された時刻を示す時刻情報と関連付けられている。選択部186は、位置選択ステップ(ステップS107)において、時刻情報を選択し、かつ選択された時刻情報に基づいて少なくとも1つの位置を選択する。
第7の実施形態において、内視鏡装置1は、ユーザーによって選択された時間範囲に基づいて静止画を選択する。内視鏡装置1は、選択された静止画のメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。ユーザーは、動画における時間範囲を選択することにより、その時間範囲と対応する3Dデータの範囲を正確に選択することができる。
(第8の実施形態)
本発明の第8の実施形態を説明する。第8の実施形態の内視鏡装置は、撮像素子28と異なるセンサによって生成されたセンサ情報を使用することにより、3Dデータと対応する位置データを生成する。
本発明の第8の実施形態を説明する。第8の実施形態の内視鏡装置は、撮像素子28と異なるセンサによって生成されたセンサ情報を使用することにより、3Dデータと対応する位置データを生成する。
図5に示す内視鏡装置1は、図44に示す内視鏡装置1bに変更される。図44は、内視鏡装置1bの内部構成を示す。図5に示す構成と同じ構成の説明を省略する。
内視鏡装置1bは、図5に示す構成に加えてセンサ19を有する。センサ19は、イメージセンサと異なる。センサ19は、1つ以上のセンサを有する。例えば、センサ19は、ロータリーエンコーダー、重力センサ、ジャイロセンサ、および加速度センサの少なくとも1つを有する。重力センサ、ジャイロセンサ、および加速度センサは、挿入部2の先端20に配置される。
センサ19は、物理量を定期的に計測し、その物理量を示すセンサ情報を定期的に生成する。センサ19は、所定のサンプリングレートでセンサ情報を生成する。センサ19は、センサ情報を制御インタフェース17に出力する。センサ情報は、制御インタフェース17からCPU18に出力される。
以下では、センサ19がロータリーエンコーダーである例を説明する。2つのローラーが、挿入部2を挟むように配置されている。2つのローラーは、挿入部2と接触している。挿入部2が移動すると2つのローラーが回転する。センサ19は、2つのローラーのうちの少なくとも1つの回転量を検出することにより、検査対象内の空間に挿入された挿入部2の長さ(距離)を検出する。センサ19は、検出された長さを示す長さ情報をセンサ情報として生成する。
図5に示すCPU18は、CPU18bに変更される。図45は、CPU18bの機能構成を示す。CPU18bの機能は、制御部180、画像処理部181、位置データ生成部182b、データ取得部183、表示制御部184、情報受付部185、選択部186、およびデータ処理部187を含む。図45に示すブロックの少なくとも1つがCPU18bと異なる回路で構成されてもよい。図6に示す構成と同じ構成の説明を省略する。
図45に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図45に示す各部は、1つまたは複数のプロセッサを含むことができる。図45に示す各部は、1つまたは複数の論理回路を含むことができる。
情報受付部185は、センサ19から出力されたセンサ情報(長さ情報)を受け付ける。位置データ生成部182bは、センサ情報に基づいて位置データを生成する。位置データは、物体を含む3D空間内の2つ以上の位置を示す。
図46を使用することにより、第8の実施形態におけるデータ処理について説明する。図46は、データ処理の手順を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS102の後、情報受付部185は、センサ19から出力されたセンサ情報を受け付ける(ステップS231)。ステップS231の後、ステップS103が実行される。
撮影を終了すると制御部180がステップS103において判断した場合、位置データ生成部182bは、センサ情報を使用することにより位置データを生成する。位置データ生成部182bは、位置データをPC41内の記録媒体またはメモリカード42に記録する(ステップS232)。
センサ情報は、検査対象内の空間に挿入された挿入部2の長さを示す。例えば、挿入部2の第1の部分はその空間に挿入されており、挿入部2の第2の部分はその空間に挿入されていない。このとき、センサ情報は第1の部分の長さを示す。あるいは、センサ情報は、挿入部2がその空間において進んだ距離を示す。その長さまたは距離は、カメラによって画像が取得された被写体の位置と対応する。位置データは、2つ以上の点の位置を示すデータを含む。そのデータは、センサ情報が示す長さまたは距離と対応する。そのデータは、図2に示す座標データC1、座標データC2、および座標データC3と対応する。
例えば、時刻情報がセンサ情報に付加されている。その時刻情報は、センサ情報が生成された時刻を示す。撮影時刻を示す時刻情報が静止画に付加されている。センサ情報および静止画は、時刻情報によって互いに関連付けられている。位置データが示す1つの位置は、1つのセンサ情報と対応する。そのため、静止画は、その1つの位置と関連付けられている。
ステップS232の後、データ取得部183は、PC41内の記録媒体またはメモリカード42にアクセスし、位置データおよび静止画をその記録媒体またはメモリカード42から取得する(ステップS233)。
ステップS233の後、表示制御部184は、位置データに基づいて位置情報を含む画像を表示部5に表示し、かつ1枚以上の静止画を表示部5に表示する(ステップS234)。ステップS234は、情報表示ステップと対応する。
図47は、ステップS234において表示部5に表示された画像の例を示す。表示制御部184は、位置情報PR70の画像、静止画IMG70、静止画IMG71、静止画IMG72、および静止画IMG73を表示部5に表示する。位置情報PR70は、点P70、点P71、点P72、および点P73を含む。所定のマークが各点の位置に表示される。各点は、静止画を取得したカメラの位置を示す。位置データは、各点の位置を示すデータを含む。
基準位置から各点までの距離は、センサ情報が示す長さと対応する。例えば、基準位置は、撮影が開始されたときに取得されたセンサ情報によって示される。
点P70は、静止画IMG70を取得したカメラの位置を示す。点P71は、静止画IMG71を取得したカメラの位置を示す。点P72は、静止画IMG72を取得したカメラの位置を示す。点P73は、静止画IMG73を取得したカメラの位置を示す。表示部5に表示された画像において、点P70、点P71、点P72、および点P73の各々は、静止画と線で接続されている。そのため、ユーザーは、各静止画が取得された位置を把握することができる。
ステップS234の後、選択部186は、位置データに含まれる2つ以上の位置の少なくとも1つを選択する。さらに、選択部186は、その1つ以上の位置と関連付けられている1枚以上の静止画を選択する(ステップS235)。ステップS235は、位置選択ステップと対応する。ステップS235の後、ステップS108が実行される。
静止画は、位置データが示す位置と関連付けられている。位置データが示す1つ以上の位置が選択されたとき、選択部186は、その1つ以上の位置と関連付けられている1枚以上の静止画を選択する。
例えば、ユーザーは、操作部4を操作することにより、図47に示す点P70および点P71を選択する。具体的には、ユーザーは、操作部4を操作することにより、点P70および点P71を選択するための選択指示を内視鏡装置1bに入力する。情報受付部185は、選択指示を受け付ける。選択指示は、点P70および点P71を示す。
選択部186は、選択指示が示す位置と対応する点P70および点P71を特定する。選択部186は、点P70と関連付けられている静止画IMG70と、点P71と関連付けられている静止画IMG71とを選択する。
センサ19は、挿入部2の先端20に配置された重力センサであってもよい。センサ19は、先端20に加わる重力の方向を検出し、検出された方向を示す方向情報をセンサ情報として生成してもよい。先端20に対するセンサ19の相対的な方向は変化しない。重力の方向に対する先端20の方向が変化したとき、センサ19から出力される方向情報が変化する。位置データ生成部182bは、方向情報に基づいて位置データを生成する。
センサ19は、挿入部2の先端20に配置されたジャイロセンサであってもよい。センサ19は、先端20の動きによって発生する角速度を検出し、検出された角速度を示す角速度情報をセンサ情報として生成してもよい。先端20に対するセンサ19の相対的な方向は変化しない。先端20の方向が変化したとき、センサ19から出力される角速度情報が変化する。角速度情報は、先端20の方向の変化を示す。位置データ生成部182bは、角速度情報に基づいて位置データを生成する。
例えば、位置データ生成部182bは、方向情報または角速度情報に基づいて先端20の方向の変化を検出する。内視鏡が曲がったとき、先端20の方向が変化する。例えば、位置データは、内視鏡が曲がる回数と、静止画が取得された位置とを含む。ユーザーは、内視鏡が曲がる回数を確認することにより、パイプにおいて静止画が取得された部位を判断することができる。
内視鏡装置1bは、CPU18bに代えて図6に示すCPU18または図25に示すCPU18aを有してもよい。画像処理部181は、撮像素子28によって取得された2D画像を処理することにより、パイプの曲がり角を検出してもよく、かつ内視鏡が曲がる方向を検出してもよい。3Dデータ生成部182は、ロータリーエンコーダーによって生成されたセンサ情報と、画像処理部181によって検出された方向とに基づいて3Dデータを生成してもよい。
挿入部2が検査対象内の空間に挿入しているとき、ユーザーは、操作部4を操作することにより、挿入部2を湾曲させるための湾曲指示を内視鏡装置1bに入力する。情報受付部185は、湾曲指示を受け付ける。湾曲指示は、挿入部2が曲がる方向(湾曲方向)を示す。制御部180は、湾曲指示が示す湾曲方向に挿入部2を湾曲させるための制御を実行する。3Dデータ生成部182は、ロータリーエンコーダーによって生成されたセンサ情報と、湾曲方向とに基づいて3Dデータを生成してもよい。
センサ19は、ロータリーエンコーダーに加えて重力センサまたはジャイロセンサを有してもよい。ロータリーエンコーダーから出力されたセンサ情報は、長さまたは距離を示す。重力センサまたはジャイロセンサから出力されたセンサ情報は、内視鏡の方向の変化を示す。3Dデータ生成部182は、ロータリーエンコーダーから出力されたセンサ情報と、重力センサまたはジャイロセンサから出力されたセンサ情報とに基づいて3Dデータを生成してもよい。
センサ19は、重力センサまたはジャイロセンサに加えて加速度センサを有してもよい。加速度センサから出力されたセンサ情報は、内視鏡の加速度を示す。3Dデータ生成部182は、その加速度に基づいて内視鏡の位置の変化量を算出してもよい。3Dデータ生成部182は、その変化量と、重力センサまたはジャイロセンサから出力されたセンサ情報とに基づいて3Dデータを生成してもよい。
3Dデータ生成部182は、ステップS104において、過去の検査において取得された1枚以上の2D画像を使用することにより3Dデータを生成してもよい。その場合、静止画が取得された位置は、パイプの入り口からその位置までの距離によって示されてもよい。3Dデータ生成部182は、3Dデータにおいてその入り口からその距離だけ離れた点を特定する。これにより、3Dデータ生成部182は、静止画が取得された位置と対応する3D位置を特定することができる。静止画が取得された位置は、パイプの曲がり角からその位置までの距離によって示されてもよい。3Dデータ生成部182は、その1枚以上の2D画像を処理することにより、傷などの特徴領域を検出してもよい。静止画が取得された位置は、その特徴領域からその位置までの距離によって示されてもよい。3Dデータ生成部182は、上記の方法を使用することにより、静止画が取得された位置と、過去の検査における3Dデータに含まれる点とを互いに関連付けることができる。
3Dデータ生成部182は、ドローンによって生成された1枚以上の2D画像を使用することにより3Dデータを生成してもよい。3Dデータ生成部182は、CT(Computed Tomography)装置またはMRI(Magnetic Resonance Imaging)装置によって生成された1枚以上の2D画像を使用することにより3Dデータを生成してもよい。
本発明の各態様は次の変形例を含んでもよい。1枚以上の静止画は、撮像素子28(イメージセンサ)によって生成される。撮像素子28は、物体を含む3D空間に挿入できる挿入部2の先端20(先端部)に配置されている。位置データは、イメージセンサ以外のセンサによって生成されたセンサ情報に基づいて生成される。
本発明の各態様は次の変形例を含んでもよい。イメージセンサ以外のセンサ19は、ロータリーエンコーダーである。ロータリーエンコーダーは、3D空間に挿入された挿入部2の長さを検出し、検出された長さを示す長さ情報をセンサ情報として生成する。位置データは、長さ情報に基づいて生成される。
本発明の各態様は次の変形例を含んでもよい。イメージセンサ以外のセンサ19は、重力センサである。重力センサは、先端20に配置され、先端20に加わる重力の方向を検出し、検出された方向を示す方向情報をセンサ情報として生成する。位置データは、方向情報に基づいて生成される。
本発明の各態様は次の変形例を含んでもよい。イメージセンサ以外のセンサ19は、ジャイロセンサである。ジャイロセンサは、先端20に配置され、先端20の動きによって発生する角速度を検出し、検出された角速度を示す角速度情報をセンサ情報として生成する。位置データは、角速度情報に基づいて生成される。
本発明の各態様は次の変形例を含んでもよい。挿入部2は、湾曲方向を示す指示に基づいて湾曲する。位置データは、センサ情報および湾曲方向に基づいて生成される。
第8の実施形態において、内視鏡装置1bは、センサ19によって生成されたセンサ情報を使用することにより位置データを生成し、その位置データに基づいて位置情報を表示する。ユーザーは、位置情報において検査対象の位置を直感的に把握することができ、かつその位置を容易に選択することができる。内視鏡装置1bは、ユーザーによって選択された位置の静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1bは、メタデータを処理するための作業の効率を改善することができる。
(第9の実施形態)
本発明の第9の実施形態を説明する。内視鏡装置1は、撮像素子28によって生成された2D画像を使用することにより、3Dデータと対応する2Dデータを生成する。内視鏡装置1は、図45に示すCPU18bを有する。
本発明の第9の実施形態を説明する。内視鏡装置1は、撮像素子28によって生成された2D画像を使用することにより、3Dデータと対応する2Dデータを生成する。内視鏡装置1は、図45に示すCPU18bを有する。
位置データ生成部182bは、被写体の1枚以上の2D画像における被写体上の2つ以上の点の2D座標を含む2次元データ(2Dデータ)を生成する。2Dデータは、2つ以上の点の2D座標を含む。2Dデータは、3つ以上の点の2D座標を含んでもよい。2Dデータは、各点のX座標およびY座標を含む。2Dデータは、位置データと対応する。2Dデータに含まれる2D座標は、図2に示す座標データC1、座標データC2、および座標データC3と対応する。
図48は、検査対象の例を模式的に示す。図48に示す検査対象IT70は、航空機エンジンである。検査対象IT70は、多数のブレードBL70を有する。検査対象IT70が回転軸RX70を中心に方向DIR70に回転しているとき、撮像素子28はブレードBL70を撮影し、2枚以上の2D画像を連続的に取得する。例えば、撮像素子28は、視野VF70の2D画像を取得し、その後、視野VF71の2D画像を取得する。検査対象IT70が少なくとも一周するまで撮像素子28は2D画像を取得し続ける。
位置データ生成部182bは、2枚以上の2D画像を合成する。これにより、位置データ生成部182bは、全てのブレードBL70が写っている2D画像を生成する。位置データ生成部182bは、生成された2D画像における2つ以上の点の2D座標を含む2Dデータを生成する。
位置データ生成部182bは、動画の1枚以上のフレームを使用することにより、2Dデータを生成する。検査対象の全体が1枚のフレームに写っている場合、位置データ生成部182bは、そのフレームを使用することにより、2Dデータを生成してもよい。静止画は、動画のフレームと同じである。静止画は、2Dデータに含まれる1つ以上の点の2D座標と関連付けられている。
図49を使用することにより、第9の実施形態におけるデータ処理について説明する。図49は、データ処理の手順を示す。図49は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図7に示す処理と同じ処理の説明を省略する。
撮影を終了すると制御部180がステップS103において判断した場合、位置データ生成部182bは、被写体の1枚以上の2D画像に基づいて被写体上の2つ以上の点の2D座標を含む2Dデータを生成する。位置データ生成部182bは、2DデータをPC41内の記録媒体またはメモリカード42に記録する(ステップS241)。
ステップS241の後、データ取得部183は、PC41内の記録媒体またはメモリカード42にアクセスし、2Dデータおよび静止画をその記録媒体またはメモリカード42から取得する(ステップS242)。
ステップS242の後、表示制御部184は、2Dデータに基づいて2D画像を表示部5に表示し、かつ1枚以上の静止画を表示部5に表示する(ステップS243)。ステップS243は、情報表示ステップと対応する。2D画像の各画素は、2Dデータに含まれる2D座標と関連付けられている。
ステップS243の後、選択部186は、2Dデータに含まれる2つ以上の点の少なくとも1つを選択する。これにより、選択部186は、1つ以上の2D位置を選択する。さらに、選択部186は、その1つ以上の2D位置と関連付けられている1枚以上の静止画を選択する(ステップS244)。ステップS244は、位置選択ステップと対応する。ステップS244の後、ステップS108が実行される。
第9の実施形態において、内視鏡装置1は、2つ以上の点の2D座標を含む2Dデータを生成し、その2Dデータに基づいて2D画像を表示する。ユーザーは、2D画像において検査対象の位置を直感的に把握することができ、かつその位置を容易に選択することができる。内視鏡装置1は、ユーザーによって選択された位置の静止画と関連付けられているメタデータを処理する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。
(第10の実施形態)
本発明の第10の実施形態を説明する。内視鏡装置1は、メタデータを自動的に処理し、処理結果をユーザーに通知する。内視鏡装置1は、図6に示すCPU18を有する。
本発明の第10の実施形態を説明する。内視鏡装置1は、メタデータを自動的に処理し、処理結果をユーザーに通知する。内視鏡装置1は、図6に示すCPU18を有する。
表示制御部184は、3Dデータに基づいて、物体を含む3D空間内の2つ以上の位置の位置関係を示す位置情報を表示部5に表示する(情報表示ステップ)。選択部186は、2つ以上の位置に含まれる少なくとも1つの位置を選択する(位置選択ステップ)。データ処理部187は、メタデータを処理する(処理ステップ)。表示制御部184は、選択部186によって選択された少なくとも1つの位置を表示部5に表示する(位置表示ステップ)。
図50を使用することにより、第10の実施形態におけるデータ処理について説明する。図50は、データ処理の手順を示す。図50は、撮影を終了すると制御部180が図7に示すステップS103において判断した後に実行される処理を示す。図7に示す処理と同じ処理の説明を省略する。
ステップS105の後、画像処理部181は、セグメンテーション処理を実行する。これにより、画像処理部181は、被写体の3D形状の領域を2つ以上のセグメントに分割する(ステップS161)。ステップS161は、図28に示すステップS161と同じである。
ステップS161の後、表示制御部184は、3Dデータに基づいて3D画像を表示部5に表示し、かつ1枚以上の静止画を表示部5に表示する。このとき、表示制御部184は、2つ以上のセグメントを互いに異なる色で表示する(ステップS162)。ステップS162は、図28に示すステップS162と同じである。ステップS162は、情報表示ステップおよび位置表示ステップと対応する。
ステップS162の後、選択部186は、2つ以上のセグメントの1つを選択する。選択部186は、選択されたセグメントに含まれる3D位置を選択する(ステップS251)。ステップS251は、位置選択ステップと対応する。
ステップS251の後、選択部186は、第2の実施形態における方法を使用することにより、ステップS251において選択された3D位置と関連付けられている静止画を選択する(ステップS252)。2枚以上の静止画が、1つのセグメントに含まれる3D位置と関連付けられている場合、その2枚以上の静止画が選択される。その2枚以上の静止画は、1つのセグメントにおいて互いに異なる3D位置と関連付けられていてもよい。
ステップS252の後、データ処理部187は、ステップS252において選択された静止画のメタデータを処理する(ステップS253)。ステップS253は、データ処理ステップと対応する。
例えば、データ処理部187は、セグメント毎にフォルダをPC41内の記録媒体またはメモリカード42に生成する。データ処理部187は、ステップS252において選択された静止画をそのフォルダに保存する。1枚以上の静止画は、1つのフォルダに保存される。データ処理部187は、そのフォルダの名称(ファイルパス)をメタデータに記録する。
ステップS253の後、制御部180は、全てのセグメントにおいてステップS251からステップS253が実行されたか否かを判断する(ステップS254)。
1つ以上のセグメントにおいてステップS251からステップS253がまだ実行されていないと制御部180が判断した場合、ステップS251が実行される。このとき、前回までの処理において選択されていないセグメントが選択される。
全てのセグメントにおいてステップS251からステップS253が実行されたと制御部180が判断した場合、表示制御部184は、ステップS253において処理されたメタデータの内容を表示部5に表示する(ステップS255)。ユーザーは、メタデータがユーザーの意図に従って処理されたか否かを確認することができる。ステップS255が実行されたとき、データ処理が終了する。
図51は、ステップS162において表示部5に表示された画像の例を示す。その画像は、ステップS255においても表示部5に表示される。表示制御部184は、3D画像PR80を表示部5に表示する。表示制御部184は、セグメントSG81、セグメントSG82、セグメントSG83、セグメントSG84、およびセグメントSG85を表示部5に表示する。各セグメントは3D画像PR80に重畳されている。これらの領域は互いに異なる色で表示される。表示制御部184は各セグメントを3D画像PR80に重畳する必要はない。表示制御部184は、3D画像PR80が表示される領域と異なる領域に各セグメントを表示してもよい。
表示制御部184は、静止画IMG81、静止画IMG82、静止画IMG83、および静止画IMG84を表示部5に表示する。表示制御部184は、点P81、点P82、点P83、および点P84を表示部5に表示する。各点は、3D画像PR80に重畳されている。所定のマークが各点の位置に表示される。各点は、静止画を取得したカメラの位置を示す。
点P81は、静止画IMG81を取得したカメラの位置を示す。点P82は、静止画IMG82を取得したカメラの位置を示す。点P83は、静止画IMG83を取得したカメラの位置を示す。点P84は、静止画IMG84を取得したカメラの位置を示す。表示部5に表示された画像において、点P81、点P82、点P83、および点P84の各々は、静止画と線で接続されている。そのため、ユーザーは、各静止画が取得された位置を把握することができる。
静止画IMG81は、ファイル名「img01.jpg」を持ち、かつセグメントSG81における点P81と関連付けられている。静止画IMG82は、ファイル名「img02.jpg」を持ち、かつセグメントSG81における点P82と関連付けられている。静止画IMG83は、ファイル名「img03.jpg」を持ち、かつセグメントSG83における点P83と関連付けられている。静止画IMG84は、ファイル名「img04.jpg」を持ち、かつセグメントSG85における点P84と関連付けられている。各静止画のファイル名に含まれる文字列が各静止画の近傍に表示される。
図52は、ステップS255において表示部5に表示された画像の例を示す。表示制御部184は、ツリー構造T80を表示部5に表示する。表示制御部184は図51に示す3D画像PR80を表示部5に表示するが、3D画像PR80は図52に示されてない。
ツリー構造T80は、「検査データ」フォルダ、「First」フォルダ、「Second」フォルダ、「Third」フォルダ、「Fourth」フォルダ、および「Fifth」フォルダの階層構造を示す。「検査データ」フォルダは最上位のフォルダである。「First」フォルダ、「Second」フォルダ、「Third」フォルダ、「Fourth」フォルダ、および「Fifth」フォルダフォルダは「検査データ」フォルダの下位に位置している。各フォルダの名称がツリー構造T80上に表示される。
「First」フォルダは、図51に示すセグメントSG81と関連付けられている。データ処理部187は、静止画IMG81および静止画IMG82を「First」フォルダに保存する。静止画IMG81および静止画IMG82は、セグメントSG81における3D位置と関連付けられている。静止画IMG81のファイル名FN81および静止画IMG82のファイル名FN82が「First」フォルダにおいて表示される。
「Second」フォルダは、図51に示すセグメントSG82と関連付けられている。セグメントSG82における3D位置と関連付けられている静止画が存在しないため、静止画は「Second」フォルダに保存されない。
「Third」フォルダは、図51に示すセグメントSG83と関連付けられている。データ処理部187は、静止画IMG83を「Third」フォルダに保存する。静止画IMG83は、セグメントSG83における3D位置と関連付けられている。静止画IMG83のファイル名FN83が「Third」フォルダにおいて表示される。
「Fourth」フォルダは、図51に示すセグメントSG84と関連付けられている。セグメントSG84における3D位置と関連付けられている静止画が存在しないため、静止画は「Fourth」フォルダに保存されない。
「Fifth」フォルダは、図51に示すセグメントSG85と関連付けられている。データ処理部187は、静止画IMG84を「Fifth」フォルダに保存する。静止画IMG84は、セグメントSG85における3D位置と関連付けられている。静止画IMG84のファイル名FN84が「Fifth」フォルダにおいて表示される。
ユーザーは、各セグメントと各フォルダとの関係を予め把握している。各フォルダは、各セグメントの色と対応する名称を持ってもよい。ユーザーは、3D画像PR80およびツリー構造T80を参照することにより、各静止画のカメラ位置と、各静止画が保存されたフォルダとを確認する。
セグメントSG81は、「First」フォルダと関連付けられている。ユーザーは、3D画像PR80を参照することにより、静止画IMG81および静止画IMG82がセグメントSG81と関連付けられていることを確認する。静止画IMG81はファイル名「img01.jpg」を持つ。静止画IMG82はファイル名「img02.jpg」を持つ。ユーザーは、ツリー構造T80を参照することにより、静止画IMG81のファイル名FN81および静止画IMG82のファイル名FN82が「First」フォルダにおいて表示されていることを確認する。
セグメントSG83は、「Third」フォルダと関連付けられている。ユーザーは、3D画像PR80を参照することにより、静止画IMG83がセグメントSG83と関連付けられていることを確認する。静止画IMG83はファイル名「img03.jpg」を持つ。ユーザーは、ツリー構造T80を参照することにより、静止画IMG83のファイル名FN83が「Third」フォルダにおいて表示されていることを確認する。
セグメントSG85は、「Fourth」フォルダと関連付けられている。ユーザーは、3D画像PR80を参照することにより、静止画IMG84がセグメントSG85と関連付けられていることを確認する。静止画IMG84はファイル名「img04.jpg」を持つ。ユーザーは、ツリー構造T80を参照することにより、静止画IMG84のファイル名FN84が「Fourth」フォルダにおいて表示されていることを確認する。
ユーザーは、上記の作業を実施することにより、セグメント毎に用意されたフォルダに各静止画が保存されたか否かを確認することができる。メタデータが自動的に処理されるため、ユーザーの作業量が減る。
データ処理部187は、ステップS253において静止画のファイル名を変更してもよい。例えば、データ処理部187は、各セグメントと対応する文字列を静止画のファイル名に追加してもよい。
データ処理部187は、ステップS253において静止画を処理し、その静止画に写っている所定の領域を検出してもよい。例えば、所定の領域は、傷または曲がり角である。所定の領域が検出された場合、データ処理部187は、その領域の種類を示すメタデータを静止画と関連付けてもよい。
内視鏡装置1がロータリーエンコーダーを有してもよい。ロータリーエンコーダーは、検査対象内の空間に挿入された挿入部2の長さを示す長さ情報を生成する。データ処理部187は、ステップS253において、その長さ情報をメタデータとして静止画と関連付けてもよい。
ステップS255の後、データ処理部187は、図39に示すステップS222と同様の処理を実行することによりメタデータを修正してもよい。
ステップS251、ステップS252、およびステップS253のいずれか1つが実行された後にステップS162が実行されてもよい。ステップS255が実行された後にステップS162が実行されてもよい。
本発明の各態様のデータ処理方法は、情報表示ステップ(ステップS162)、位置選択ステップ(ステップS251)、処理ステップ(ステップS253)、および位置表示ステップ(ステップS162)を有する。表示制御部184は、情報表示ステップにおいて、位置データに基づいて、物体を含む3D空間内の2つ以上の位置の位置関係を示す位置情報を表示部5に表示する。位置データは、その2つ以上の位置を示す。選択部186は、位置選択ステップにおいて、その2つ以上の位置に含まれる少なくとも1つの位置を選択する。データ処理部187は、処理ステップにおいてメタデータを処理する。メタデータは、静止画と関連付けられている。その静止画は、物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された少なくとも1つの位置と関連付けられている。表示制御部184は、位置表示ステップにおいて、選択された少なくとも1つの位置を表示部5に表示する。
第10の実施形態において、内視鏡装置1は、メタデータを自動的に処理し、処理されたメタデータの内容を表示する。そのため、内視鏡装置1は、メタデータを処理するための作業の効率を改善することができる。処理されたメタデータの内容が表示されるため、ユーザーは、自動的に処理されたメタデータの内容を確認することができる。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
1,1b 内視鏡装置
2 挿入部
3 本体部
4 操作部
5 表示部
7 データ処理装置
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインタフェース
16 外部機器インタフェース
17 制御インタフェース
18,18a,18b CPU
19 センサ
20 先端
28 撮像素子
41 PC
42 メモリカード
70,184 表示制御部
71,186 選択部
72,187 データ処理部
180 制御部
181 画像処理部
182 3Dデータ生成部
182b 位置データ生成部
183 データ取得部
185 情報受付部
188 判断部
2 挿入部
3 本体部
4 操作部
5 表示部
7 データ処理装置
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインタフェース
16 外部機器インタフェース
17 制御インタフェース
18,18a,18b CPU
19 センサ
20 先端
28 撮像素子
41 PC
42 メモリカード
70,184 表示制御部
71,186 選択部
72,187 データ処理部
180 制御部
181 画像処理部
182 3Dデータ生成部
182b 位置データ生成部
183 データ取得部
185 情報受付部
188 判断部
Claims (33)
- 表示制御部が位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する情報表示ステップであって、前記位置データは、前記2つ以上の位置を示す前記情報表示ステップと、
前記位置情報が表示された後、選択部が前記2つ以上の位置に含まれる少なくとも1つの位置を選択する位置選択ステップと、
データ処理部がメタデータを処理する処理ステップであって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記処理ステップと、
を有するデータ処理方法。 - 前記表示制御部が、前記1枚以上の静止画のうち、選択された前記少なくとも1つの位置と関連付けられている少なくとも1枚の静止画を前記ディスプレイに表示する画像表示ステップと、
前記少なくとも1枚の静止画が表示された後、前記選択部が前記少なくとも1枚の静止画から任意の静止画を選択する画像選択ステップと、
をさらに有し、
前記データ処理部は、前記処理ステップにおいて、選択された前記静止画と関連付けられている前記メタデータを処理する
請求項1に記載のデータ処理方法。 - 前記2つ以上の位置は、前記1枚以上の静止画に含まれる第1の静止画が取得された第1の位置を含み、
前記選択部は、前記位置選択ステップにおいて、前記第1の位置を選択する
請求項1に記載のデータ処理方法。 - 前記表示制御部が、1つ以上の項目を含む入力フォーマットを前記ディスプレイに表示するフォーマット表示ステップをさらに有し、
前記1つ以上の項目に含まれる少なくとも1つの項目の内容が前記入力フォーマットに入力されたとき、前記データ処理部は、前記処理ステップにおいて、前記内容に基づいて前記メタデータを処理する
請求項1に記載のデータ処理方法。 - 前記メタデータが処理された後、前記表示制御部が、処理された前記メタデータの内容を含む操作画面を前記ディスプレイに表示するデータ表示ステップをさらに有する
請求項1に記載のデータ処理方法。 - 前記データ処理方法は、前記データ処理部が前記操作画面の操作に基づいて前記メタデータを修正するデータ修正ステップをさらに有する
請求項5に記載のデータ処理方法。 - 前記1枚以上の静止画は、前記物体を撮影することにより生成された動画の1枚以上のフレームと対応する
請求項1に記載のデータ処理方法。 - 前記1枚以上の静止画は、2つ以上の点の3次元座標を可視化し、
前記2つ以上の点の3次元座標は、前記物体を撮影することにより生成された2枚以上の画像にSfM(structure from motion)を適用することにより算出される
請求項1に記載のデータ処理方法。 - 2枚以上のフレームに含まれる少なくとも1枚のフレームにフラグが付加されており、
前記2枚以上のフレームは、前記物体を撮影することにより生成された動画に含まれ、
前記2枚以上のフレームのうち前記フラグが付加されている1枚以上のフレームが前記1枚以上の静止画として選択される
請求項1に記載のデータ処理方法。 - 前記2つ以上の位置は、前記1枚以上の静止画に含まれる第2の静止画が取得された第2の位置を含まず、
前記選択部は、前記位置選択ステップにおいて、推定された前記第2の位置を選択し、
前記処理ステップにおいて処理された前記メタデータは、選択された前記第2の位置で取得された前記第2の静止画と関連付けられている
請求項1に記載のデータ処理方法。 - 前記1枚以上の静止画は、第1の装置によって生成され、
前記位置データは、前記第1の装置と異なる第2の装置によって生成される
請求項1に記載のデータ処理方法。 - 前記位置データは、前記物体を撮影することにより生成された2枚以上の画像にSLAM(Simultaneous Localization and Mapping)を適用することにより生成される
請求項1に記載のデータ処理方法。 - 前記2枚以上の画像は、アクティブステレオ法の原理に基づいて生成される
請求項12に記載のデータ処理方法。 - 単眼光学系が、前記2枚以上の画像を生成するための撮影に使用され、
前記単眼光学系は、1つの視野と対応する
請求項12に記載のデータ処理方法。 - ステレオ光学系が、前記2枚以上の画像を生成するための撮影に使用され、
前記ステレオ光学系は、互いに異なる第1の視野および第2の視野と対応し、
前記2枚以上の画像は、前記第1の視野内で捕らえられた前記物体の2枚以上の画像と、前記第2の視野内で捕らえられた前記物体の2枚以上の画像と対応する
請求項12に記載のデータ処理方法。 - 前記1枚以上の静止画は、イメージセンサによって生成され、
前記イメージセンサは、前記3次元空間に挿入できる挿入部の先端部に配置され、
前記位置データは、前記イメージセンサ以外のセンサによって生成されたセンサ情報に基づいて生成される
請求項1に記載のデータ処理方法。 - 前記イメージセンサ以外の前記センサは、ロータリーエンコーダーであり、
前記ロータリーエンコーダーは、前記3次元空間に挿入された前記挿入部の長さを検出し、検出された長さを示す長さ情報を前記センサ情報として生成し、
前記位置データは、前記長さ情報に基づいて生成される
請求項16に記載のデータ処理方法。 - 前記イメージセンサ以外の前記センサは、重力センサであり、
前記重力センサは、前記先端部に配置され、前記先端部に加わる重力の方向を検出し、検出された前記方向を示す方向情報を前記センサ情報として生成し、
前記位置データは、前記方向情報に基づいて生成される
請求項16に記載のデータ処理方法。 - 前記イメージセンサ以外の前記センサは、ジャイロセンサであり、
前記ジャイロセンサは、前記先端部に配置され、前記先端部の動きによって発生する角速度を検出し、検出された前記角速度を示す角速度情報を前記センサ情報として生成し、
前記位置データは、前記角速度情報に基づいて生成される
請求項16に記載のデータ処理方法。 - 前記挿入部は、湾曲方向を示す指示に基づいて湾曲し、
前記位置データは、前記センサ情報および前記湾曲方向に基づいて生成される
請求項16に記載のデータ処理方法。 - 前記選択部が、前記1枚以上の静止画のうち、選択された前記少なくとも1つの位置と関連付けられている静止画を選択する画像選択ステップと、
前記表示制御部が、選択された前記静止画を前記ディスプレイに表示する画像表示ステップと、
をさらに有し、
前記データ処理部は、前記処理ステップにおいて、選択された前記静止画と関連付けられている前記メタデータを処理する
請求項1に記載のデータ処理方法。 - 分割部が前記2つ以上の位置を2つ以上のグループに分割する分割ステップをさらに有する
請求項1に記載のデータ処理方法。 - 前記選択部は、前記位置選択ステップにおいて、前記2つ以上のグループの1つを選択し、かつ選択されたグループに含まれる前記位置を選択する
請求項22に記載のデータ処理方法。 - 前記少なくとも1つの位置が選択される前に前記分割ステップが実行され、
前記データ処理方法は、前記少なくとも1つの位置が選択される前に、前記表示制御部が前記2つ以上のグループを前記ディスプレイに表示するグループ表示ステップをさらに有する
請求項22に記載のデータ処理方法。 - 前記2つ以上のグループの1つは、前記2つ以上の位置の少なくとも1つを含み、
前記データ処理方法は、
前記選択部が、前記2つ以上のグループの前記1つを選択するグループ選択ステップと、
前記1枚以上の静止画が、選択されたグループに含まれる少なくとも1つの位置のいずれとも関連付けられていないとき、警告出力部が警告を出力する警告出力ステップと、
をさらに有する
請求項22に記載のデータ処理方法。 - 2枚以上の静止画が前記1枚以上の静止画として使用され、
前記選択部は、前記位置選択ステップにおいて、前記2つ以上の位置に含まれる少なくとも2つの位置を選択し、
前記データ処理部は、前記処理ステップにおいて、前記少なくとも2つの位置に基づいて前記メタデータを処理し、
前記データ処理方法は、
判断部が、前記処理ステップにおいて処理された前記メタデータの内容が前記少なくとも2つの位置の間の位置関係と整合しているか否かを判断する判断ステップと、
前記内容が前記位置関係と整合していないと前記判断部が判断したとき、警告出力部が警告を出力する警告出力ステップと、
をさらに有する
請求項1に記載のデータ処理方法。 - 前記2つ以上の位置の各々は、2枚以上の画像の少なくとも1枚と関連付けられ、
前記2枚以上の画像は、前記物体を撮影することにより生成された動画に含まれ、
前記2枚以上の画像の各々は、前記2枚以上の画像の各々が生成された時刻を示す時刻情報と関連付けられており、
前記選択部は、前記位置選択ステップにおいて、前記時刻情報を選択し、かつ選択された前記時刻情報に基づいて前記少なくとも1つの位置を選択する
請求項1に記載のデータ処理方法。 - 前記メタデータは、前記静止画のファイル名と、前記静止画が記憶されるフォルダの名称との少なくとも1つである
請求項1に記載のデータ処理方法。 - 前記メタデータは、前記静止画をレポートに添付するか否かを示すデータを含む
請求項1に記載のデータ処理方法。 - 前記1枚以上の静止画は、内視鏡が前記物体を撮影したときに前記内視鏡によって取得される
請求項1に記載のデータ処理方法。 - 表示制御部が位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する情報表示ステップであって、前記位置データは、前記2つ以上の位置を示す前記情報表示ステップと、
選択部が前記2つ以上の位置に含まれる少なくとも1つの位置を選択する位置選択ステップと、
データ処理部がメタデータを処理する処理ステップであって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記処理ステップと、
前記表示制御部が、選択された前記少なくとも1つの位置を前記ディスプレイに表示する位置表示ステップと、
を有するデータ処理方法。 - 位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する表示制御部であって、前記位置データは、前記2つ以上の位置を示す前記表示制御部と、
前記位置情報が表示された後、前記2つ以上の位置に含まれる少なくとも1つの位置を選択する選択部と、
メタデータを処理するデータ処理部であって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記データ処理部と、
を有するデータ処理装置。 - 位置データに基づいて、物体を含む3次元空間内の2つ以上の位置の位置関係を示す位置情報をディスプレイに表示する情報表示ステップであって、前記位置データは、前記2つ以上の位置を示す前記情報表示ステップと、
前記位置情報が表示された後、前記2つ以上の位置に含まれる少なくとも1つの位置を選択する位置選択ステップと、
メタデータを処理する処理ステップであって、前記メタデータは、静止画と関連付けられており、前記静止画は、前記物体を撮影することにより生成された1枚以上の静止画に含まれ、かつ選択された前記少なくとも1つの位置と関連付けられている前記処理ステップと、
をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021064225A JP2022159806A (ja) | 2021-04-05 | 2021-04-05 | データ処理方法、データ処理装置、およびプログラム |
US17/709,982 US20220319038A1 (en) | 2021-04-05 | 2022-03-31 | Data-processing method, data-processing device, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021064225A JP2022159806A (ja) | 2021-04-05 | 2021-04-05 | データ処理方法、データ処理装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022159806A true JP2022159806A (ja) | 2022-10-18 |
JP2022159806A5 JP2022159806A5 (ja) | 2024-03-12 |
Family
ID=83449994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021064225A Pending JP2022159806A (ja) | 2021-04-05 | 2021-04-05 | データ処理方法、データ処理装置、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220319038A1 (ja) |
JP (1) | JP2022159806A (ja) |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007087615A2 (en) * | 2006-01-25 | 2007-08-02 | Redzone Robotics, Inc. | Spatio-temporal and context-based indexing and representation of subterranean networks and means for doing same |
US8547428B1 (en) * | 2006-11-02 | 2013-10-01 | SeeScan, Inc. | Pipe mapping system |
US8606597B2 (en) * | 2011-02-24 | 2013-12-10 | Olympus Corporation | Endoscope inspection report creating apparatus, creating method of endoscope inspection report and storage medium |
US10019812B2 (en) * | 2011-03-04 | 2018-07-10 | General Electric Company | Graphic overlay for measuring dimensions of features using a video inspection device |
JP6000679B2 (ja) * | 2012-06-20 | 2016-10-05 | オリンパス株式会社 | 内視鏡装置、内視鏡画像記録用フォルダ生成方法及びプログラム |
DE102012220115A1 (de) * | 2012-11-05 | 2014-05-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung |
US9588515B2 (en) * | 2012-12-31 | 2017-03-07 | General Electric Company | Systems and methods for remote control of a non-destructive testing system |
JP6150532B2 (ja) * | 2013-01-22 | 2017-06-21 | オリンパス株式会社 | 計測装置およびプログラム |
US9476823B2 (en) * | 2013-07-23 | 2016-10-25 | General Electric Company | Borescope steering adjustment system and method |
CA2921591A1 (en) * | 2013-08-18 | 2015-02-26 | Illusense Inc. | Systems and methods for optical scanning of fluid transport pipelines |
EP3316019A4 (en) * | 2015-06-25 | 2019-03-06 | Olympus Corporation | DEVICE WITH ENDOSCOPE |
WO2018138834A1 (ja) * | 2017-01-26 | 2018-08-02 | オリンパス株式会社 | 情報記録システム、情報記録装置、および情報記録方法 |
JP2018197674A (ja) * | 2017-05-23 | 2018-12-13 | オリンパス株式会社 | 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム |
JP2019161361A (ja) * | 2018-03-09 | 2019-09-19 | オリンパス株式会社 | 画像ファイル作成装置、画像ファイル作成方法、画像ファイル作成プログラム及びコンテンツ作成システム |
US11321618B2 (en) * | 2018-04-25 | 2022-05-03 | Om Digital Solutions Corporation | Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method |
US10902664B2 (en) * | 2018-05-04 | 2021-01-26 | Raytheon Technologies Corporation | System and method for detecting damage using two-dimensional imagery and three-dimensional model |
US11209115B2 (en) * | 2018-11-16 | 2021-12-28 | SeeScan, Inc. | Pipe inspection and/or mapping camera heads, systems, and methods |
JP2020126208A (ja) * | 2019-02-06 | 2020-08-20 | オリンパス株式会社 | 3次元画像表示方法、3次元画像表示装置、およびプログラム |
DE102019004433A1 (de) * | 2019-06-22 | 2020-12-24 | Karl Storz Se & Co. Kg | Videoendoskop und Griff für ein Videoendoskop |
WO2021106140A1 (ja) * | 2019-11-28 | 2021-06-03 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡システム及び内視鏡画像処理装置の作動方法 |
JP7515795B2 (ja) * | 2020-06-01 | 2024-07-16 | 株式会社エビデント | 画像処理システム、及び、画像処理方法、並びに、画像処理プログラム |
-
2021
- 2021-04-05 JP JP2021064225A patent/JP2022159806A/ja active Pending
-
2022
- 2022-03-31 US US17/709,982 patent/US20220319038A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220319038A1 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8485038B2 (en) | System and method for augmented reality inspection and data visualization | |
US8049777B2 (en) | Insertion support system for specifying a location of interest as an arbitrary region and also appropriately setting a navigation leading to the specified region | |
JP6371729B2 (ja) | 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム | |
JP5384473B2 (ja) | 画像表示装置及び画像表示方法 | |
US10964044B2 (en) | Method of operating measurement device, measurement device, and recording medium | |
JPWO2010024331A1 (ja) | 画像処理装置、及び画像処理方法 | |
US20110187707A1 (en) | System and method for virtually augmented endoscopy | |
US11957302B2 (en) | User-interface for visualization of endoscopy procedures | |
US11941749B2 (en) | Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon | |
US11832787B2 (en) | User-interface with navigational aids for endoscopy procedures | |
JP5826082B2 (ja) | 医用画像診断支援装置および方法並びにプログラム | |
JP2023552032A (ja) | 医療処置中に未検査領域を識別するためのデバイス、システム、及び方法 | |
JP7116925B2 (ja) | 観察装置の作動方法、観察装置、およびプログラム | |
US11055865B2 (en) | Image acquisition device and method of operating image acquisition device | |
JP2022159806A (ja) | データ処理方法、データ処理装置、およびプログラム | |
US11856176B2 (en) | Three-dimensional image display method, three-dimensional image display device, and recording medium | |
JP6081209B2 (ja) | 内視鏡装置およびプログラム | |
US20220020208A1 (en) | Measurement method, measurement device, and recording medium | |
JP2022172637A (ja) | 画像処理方法、画像処理装置、およびプログラム | |
US20110184710A1 (en) | Virtual endoscopy apparatus, method for driving thereof and medical examination apparatus | |
WO2024182110A1 (en) | Local navigation aids to assist endoscopists finding lost polyps | |
JP6426215B2 (ja) | 内視鏡装置およびプログラム | |
JP2023009838A (ja) | 画像処理方法、画像処理装置、およびプログラム | |
JP2022187239A (ja) | 内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラム | |
JP2014151107A (ja) | 画像処理装置及び予測プロット方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20220629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240304 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240304 |