JP2022172637A - 画像処理方法、画像処理装置、およびプログラム - Google Patents

画像処理方法、画像処理装置、およびプログラム Download PDF

Info

Publication number
JP2022172637A
JP2022172637A JP2021078629A JP2021078629A JP2022172637A JP 2022172637 A JP2022172637 A JP 2022172637A JP 2021078629 A JP2021078629 A JP 2021078629A JP 2021078629 A JP2021078629 A JP 2021078629A JP 2022172637 A JP2022172637 A JP 2022172637A
Authority
JP
Japan
Prior art keywords
image
index
unit
display
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021078629A
Other languages
English (en)
Inventor
直樹 山本
Naoki Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Co Ltd
Original Assignee
Evident Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Co Ltd filed Critical Evident Co Ltd
Priority to JP2021078629A priority Critical patent/JP2022172637A/ja
Priority to US17/729,280 priority patent/US20220357157A1/en
Publication of JP2022172637A publication Critical patent/JP2022172637A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被写体における3次元座標の算出に適している画像が選択される可能性を高めることができる画像処理方法、画像処理装置、およびプログラムを提供する。【解決手段】画像処理方法は、計測ステップ、指標算出ステップ、比較ステップ、および選択ステップを有する。計測部は、前記計測ステップにおいて、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する。指標算出部は、前記指標算出ステップにおいて、前記距離に基づいて第1の指標または第2の指標を算出する。比較部は、前記比較ステップにおいて、前記第1の指標または前記第2の指標と閾値とを比較する。前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に選択部は、前記選択ステップにおいて、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する。【選択図】図1

Description

本発明は、画像処理方法、画像処理装置、およびプログラムに関する。
ボイラー、パイプ、および航空機エンジン等の内部の傷および腐食等の観察および検査に工業用の内視鏡装置が使用されている。この内視鏡装置では、多様な観察物を観察および検査するための複数種類の光学アダプターが用意されている。光学アダプターは、内視鏡の先端部分に装着され、かつ交換可能である。このような内視鏡装置を使用した検査において、被写体の異常領域(欠陥または傷等)の大きさを定量的に計測したいという要望がある。この要望に応えるために、3次元計測機能(3D計測機能)を持つ内視鏡装置が開発されている。例えば、内視鏡装置は、ユーザーによって画像上で指定された点の情報に基づいて被写体の幾何学的な大きさを計測する機能を有する。
また、3次元再構成機能(3D再構成機能)を持つ内視鏡装置が開発されている。この内視鏡装置は、被写体の3次元形状(3D形状)を算出し、その3D形状を視覚化するための画像を生成する。ユーザーは、画像上の被写体の3D形状を確認することにより、被写体の状態を判断することができる。例えば、ユーザーは、傷などの異常が被写体上に存在するか否かを判断することができる。
内視鏡装置が3D計測機能または3D再構成機能を持つ場合、内視鏡装置は被写体における3次元座標(3D座標)を算出する。内視鏡装置が3D座標の算出に適していない画像を取得する場合がある。そのため、内視鏡装置が被写体の領域における3D座標を算出できない場合がある。あるいは、算出された3D座標に大きなノイズが含まれる場合がある。その領域における3D座標が算出されない場合、内視鏡装置はその領域の大きさまたはその領域の3D形状を算出することができない。算出された3D座標に大きなノイズが含まれる場合、その領域の大きさまたはその領域の3D形状は大きな誤差を含む。
内視鏡の先端から被写体までの距離が遠い場合、内視鏡装置が3D座標の算出に適していない画像を取得する可能性がある。その距離が近い場合、内視鏡装置によって取得された画像において被写体の表面が大きくかつ明るく写っている。そのような画像は3D座標の算出に適している。また、その距離が近い場合、内視鏡装置によって取得された画像は一般的に、三角測量の原理を使用することにより3D座標を算出する方法に適している。
内視鏡装置が3D座標の算出に失敗し、あるいは算出された3D座標に大きなノイズが含まれる場合、内視鏡装置は画像を再度取得する必要がある。そのため、内視鏡装置を操作するためのユーザーの負担が発生する。内視鏡装置が画像を取得している間、ユーザーは、内視鏡装置によって表示された画像を確認することができる。しかしながら、3D座標の算出に適している画像が取得されたか否かを判断するためには、ユーザーは高い技量を持つ必要がある。3D座標の算出に適している画像をユーザーが確認するための方法が必要である。
特許文献1は、構造物を点検するための画像を減らす方法を開示している。その方法では、情報処理装置は、画像に写っている被写体の大きさに基づいて画像を選択する。具体的には、情報処理装置は、特定の部分が最も大きく写っている画像を選択する。あるいは、情報処理装置は、画像の撮像範囲に含まれる被写体の割合が所定値以上となるような画像を選択する。情報処理装置は、選択された画像を蓄積する。
特開2020-149611号公報
しかしながら、画像に写っている被写体の大きさに基づいて画像を選択する方法では、内視鏡の先端から被写体までの距離は考慮されていない。そのため、3D座標の算出に適している画像が選択されるとは限らない。
本発明は、被写体における3次元座標の算出に適している画像が選択される可能性を高めることができる画像処理方法、画像処理装置、およびプログラムを提供することを目的とする。
本発明は、計測部が、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測ステップであって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測ステップと、指標算出部が前記距離に基づいて第1の指標または第2の指標を算出する指標算出ステップであって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出ステップと、比較部が、前記第1の指標または前記第2の指標と閾値とを比較する比較ステップと、前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に選択部が、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択ステップであって、前記少なくとも1枚の画像は、前記閾値よりも大きい前記第1の指標または前記閾値よりも小さい前記第2の指標を算出するために使用された画像である前記選択ステップと、を有する画像処理方法である。
本発明の画像処理方法は、表示制御部が、前記2つ以上の点の各々における前記距離を示す距離情報をディスプレイに表示する距離情報表示ステップをさらに有する。
本発明の画像処理方法において、前記表示制御部は、前記距離情報表示ステップにおいて、前記距離情報が重畳された前記1枚以上の画像を前記ディスプレイに表示する。
本発明の画像処理方法は、分類処理部が前記2つ以上の点における前記距離を、第1のグループおよび第2のグループを含む2つ以上のグループに分類する分類処理ステップであって、前記第1のグループに分類された前記距離の範囲は、前記第2のグループに分類された前記距離の範囲と異なる前記分類処理ステップと、表示制御部が、第1の距離情報を第1の状態でディスプレイに表示し、かつ第2の距離情報を前記第1の状態と異なる第2の状態で前記ディスプレイに表示する距離情報表示ステップであって、前記第1の距離情報は、前記第1のグループに分類された前記距離を示し、前記第2の距離情報は、前記第2のグループに分類された前記距離を示す前記距離情報表示ステップと、をさらに有する。
本発明の画像処理方法は、記録部が、前記少なくとも1枚の画像を記録媒体に記録する記録ステップをさらに有する。
本発明の画像処理方法は、形状算出部が、前記記録媒体に記録された前記少なくとも1枚の画像を使用することにより、前記被写体の3次元形状を算出する形状算出ステップをさらに有する。
本発明の画像処理方法は、表示制御部が、前記3次元形状をディスプレイに表示する形状表示ステップをさらに有する。
本発明の画像処理方法は、表示制御部が、前記少なくとも1枚の画像をディスプレイに表示する画像表示ステップをさらに有する。
本発明の画像処理方法は、前記選択部が、前記少なくとも1枚の画像のうち1枚以上の画像を選択する画像選択ステップをさらに有し、前記形状算出部は、前記形状算出ステップにおいて、前記画像選択ステップにおいて選択された前記1枚以上の画像を使用することにより前記3次元形状を算出する。
本発明の画像処理方法は、設定部が、計測領域を前記1枚以上の画像に設定する設定ステップをさらに有し、前記計測領域は、前記2つ以上の点を含む。
本発明の画像処理方法において、表示制御部が前記1枚以上の画像の各々をディスプレイに表示し、かつ前記ディスプレイに表示された画像上に前記計測領域を表示する領域表示ステップをさらに有する。
本発明の画像処理方法は、前記設定部は、前記設定ステップにおいて、入力装置に入力された領域情報に基づいて前記計測領域を設定し、前記領域情報は、前記1枚以上の画像における前記計測領域の位置を示す。
本発明の画像処理方法において、分割部が前記1枚以上の画像の各々の全体領域を2つ以上の部分領域に分割する分割ステップをさらに有し、前記設定部は、前記設定ステップにおいて、前記2つ以上の部分領域に含まれる少なくとも1つの部分領域に前記計測領域を設定する。
本発明の画像処理方法において、前記指標算出部は、前記指標算出ステップにおいて、前記2つ以上の点のうち前記距離が所定値よりも小さい点の数、前記2つ以上の点のうち前記距離が所定値よりも大きい点の数、前記2つ以上の点における前記距離の平均値、または前記2つ以上の点における前記距離の最小値に基づいて前記第1の指標または前記第2の指標を算出する。
本発明の画像処理方法において、前記1枚以上の画像に含まれる1枚の画像に対して前記計測ステップ、前記指標算出ステップ、および前記比較ステップが実行され、前記第1の指標が前記閾値以下である場合、または前記第2の指標が前記閾値以上である場合、前記1枚以上の画像に含まれる他の1枚の画像に対して前記計測ステップ、前記指標算出ステップ、および前記比較ステップが実行される。
本発明の画像処理方法は、表示制御部が、前記被写体上の2つ以上の位置を示す位置情報をディスプレイに表示する位置情報表示ステップをさらに有する。
本発明は、計測部が、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測ステップであって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測ステップと、指標算出部が前記距離に基づいて第1の指標または第2の指標を算出する指標算出ステップであって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出ステップと、比較部が、前記第1の指標または前記第2の指標と閾値とを比較する比較ステップと、出力部が、前記第1の指標と前記閾値とを比較した結果、または前記第2の指標と前記閾値とを比較した結果を示す比較情報を情報通知装置に出力する出力ステップと、前記出力ステップが実行された後、選択部が、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択ステップであって、前記少なくとも1枚の画像は、前記第1の指標または前記第2の指標を算出するために使用された画像である前記選択ステップと、を有する画像処理方法である。
本発明は、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測部であって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測部と、前記距離に基づいて第1の指標または第2の指標を算出する指標算出部であって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出部と、前記第1の指標または前記第2の指標と閾値とを比較する比較部と、前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択部であって、前記少なくとも1枚の画像は、前記閾値よりも大きい前記第1の指標または前記閾値よりも小さい前記第2の指標を算出するために使用された画像である前記選択部と、を有する画像処理装置である。
本発明は、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測ステップであって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測ステップと、前記距離に基づいて第1の指標または第2の指標を算出する指標算出ステップであって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出ステップと、前記第1の指標または前記第2の指標と閾値とを比較する比較ステップと、前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択ステップであって、前記少なくとも1枚の画像は、前記閾値よりも大きい前記第1の指標または前記閾値よりも小さい前記第2の指標を算出するために使用された画像である前記選択ステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、画像処理方法、画像処理装置、およびプログラムは、被写体における3次元座標の算出に適している画像が選択される可能性を高めることができる。
本発明の第1の実施形態による画像処理装置の構成を示すブロック図である。 本発明の第1の実施形態における画像処理の手順を示すフローチャートである。 本発明の第1の実施形態におけるカメラと被写体との距離の変化を示す図である。 本発明の第1の実施形態における距離の変化に応じた画像の変化を示す図である。 本発明の第2の実施形態による内視鏡装置の全体構成を示す斜視図である。 本発明の第2の実施形態による内視鏡装置の内部構成を示すブロック図である。 本発明の第2の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第2の実施形態における画像処理の手順を示すフローチャートである。 本発明の第2の実施形態において表示部に表示された画像の例を示す図である。 本発明の第2の実施形態の第1の変形例における画像処理の手順を示すフローチャートである。 本発明の第2の実施形態の第1の変形例において表示部に表示された画像の例を示す図である。 本発明の第2の実施形態の第2の変形例における画像処理の手順を示すフローチャートである。 本発明の第2の実施形態の第3の変形例における画像処理の手順を示すフローチャートである。 本発明の第3の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第3の実施形態における画像処理の手順を示すフローチャートである。 本発明の第3の実施形態において表示部に表示された画像の例を示す図である。 本発明の第3の実施形態の第1の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第3の実施形態の第1の変形例における画像処理の手順を示すフローチャートである。 本発明の第3の実施形態の第1の変形例において表示部に表示された画像の例を示す図である。 本発明の第3の実施形態の第2の変形例における画像処理の手順を示すフローチャートである。 本発明の第3の実施形態の第2の変形例において表示部に表示された画像の例を示す図である。 本発明の第3の実施形態の第3の変形例における画像処理の手順を示すフローチャートである。 本発明の第3の実施形態の第3の変形例において表示部に表示された画像の例を示す図である。 本発明の第4の実施形態における画像処理の手順を示すフローチャートである。 本発明の第4の実施形態の変形例における画像処理の手順を示すフローチャートである。 本発明の第5の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第5の実施形態における画像処理の手順を示すフローチャートである。 本発明の第5の実施形態における画像処理の手順を示すフローチャートである。 本発明の第5の実施形態において表示部に表示された画像の例を示す図である。 本発明の第5の実施形態において表示部に表示された画像の例を示す図である。 本発明の第5の実施形態において3D再構成処理が実行される状況を示す図である。 本発明の第6の実施形態における画像処理の手順を示すフローチャートである。 本発明の第6の実施形態において表示部に表示された画像の例を示す図である。 本発明の第6の実施形態において3D再構成処理が実行される状況を示す図である。 本発明の第6の実施形態の第1の変形例における画像処理の手順を示すフローチャートである。 本発明の第6の実施形態の第1の変形例において3D再構成処理が実行される状況を示す図である。 本発明の第6の実施形態の第2の変形例における画像処理の手順を示すフローチャートである。 本発明の第6の実施形態の第2の変形例において表示部に表示された画像の例を示す図である。 本発明の第6の実施形態の第3の変形例による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第6の実施形態の第3の変形例における画像処理の手順を示すフローチャートである。 本発明の第6の実施形態の第3の変形例において表示部に表示された画像の例を示す図である。
以下、図面を参照し、本発明の実施形態を説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態による画像処理装置7の構成を示す。図1に示す画像処理装置7は、計測部70、指標算出部71、比較部72、および選択部73を有する。
計測部70は、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する(計測ステップ)。その距離は、その1枚以上の画像を取得したカメラからその2つ以上の点の各々までの3次元距離(3D距離)を示す。指標算出部71は、その距離に基づいて第1の指標または第2の指標を算出する(指標算出ステップ)。カメラが被写体に近づくと第1の指標は増加する。カメラが被写体に近づくと第2の指標は減少する。比較部72は、第1の指標または第2の指標と閾値とを比較する(比較ステップ)。第1の指標が閾値よりも大きい場合、または第2の指標が閾値よりも小さい場合、選択部73は、その1枚以上の画像に含まれる少なくとも1枚の画像を選択する(選択ステップ)。その少なくとも1枚の画像は、閾値よりも大きい第1の指標または閾値よりも小さい第2の指標を算出するために使用された画像である。
図1に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。図1に示す各部は、1つまたは複数のプロセッサを含むことができる。図1に示す各部は、1つまたは複数の論理回路を含むことができる。
画像処理装置7のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、計測部70、指標算出部71、比較部72、および選択部73の動作を規定する命令を含む。つまり、計測部70、指標算出部71、比較部72、および選択部73の機能はソフトウェアにより実現されてもよい。
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により画像処理装置7に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
図2を使用して、第1の実施形態における画像処理について説明する。図2は、画像処理の手順を示す。
被写体の1枚以上の画像が画像処理に使用される。画像処理装置7は、その1枚以上の画像を記憶する記録媒体を有してもよい。あるいは、その記録媒体が画像処理装置7に接続されてもよい。
計測部70は、その1枚以上の画像における2つ以上の点の各々における距離を計測する(ステップS1)。ステップS1は、計測ステップと対応する。
その距離は、その1枚以上の画像を取得したカメラからその2つ以上の点の各々までの3D距離を示す。カメラは、撮像素子および観察光学系を含む。観察光学系は、観察光学系に入射した光を撮像素子に導く。例えば、その距離は、撮像素子または観察光学系から各点までの3D距離を示す。2枚以上の画像が使用される場合、計測部70は、ステップS1において各画像に含まれる2つ以上の点の各々における距離を計測する。
例えば、上記の距離は、カメラにおける基準点と2つ以上の点の各々とのユークリッド距離を示す。X軸およびY軸が、カメラの光学系の光軸と垂直であり、かつZ軸がその光軸と平行である場合、上記の距離は、2つ以上の点の各々のZ座標を示してもよい。
ステップS1の後、指標算出部71は、ステップS1において算出された距離に基づいて第1の指標または第2の指標を算出する(ステップS2)。ステップS2は、指標算出ステップと対応する。
第1の指標または第2の指標は、測定点の数または割合(密度)を示す。測定点は、上記の距離が算出された点を示す。
第1の指標および第2の指標は、被写体の領域に対するカメラの近さを示す。例えば、第1の指標は、全ての測定点の数に対する第1の測定点の数の割合に設定される。第1の測定点は、上記の距離が所定の距離よりも小さい点を示す。カメラが被写体に近づくと第1の指標は増加する。例えば、第2の指標は、全ての測定点の数に対する第2の測定点の数の割合に設定される。第2の測定点は、上記の距離が所定の距離よりも大きい点を示す。カメラが被写体に近づくと第2の指標は減少する。
図3は、カメラと被写体との距離の変化を示す。例えば、第1の観察状態においてカメラと被写体との距離は第1の距離である。例えば、このときの第1の指標は第1の値を持つ。その後、カメラが被写体に近づき、第1の観察状態は第2の観察状態に変化する。例えば、第2の観察状態において、カメラと被写体との距離は第2の距離である。このときの第1の指標は第2の値を持つ。
図4は、第1の観察状態および第2の観察状態の各々においてカメラが取得した画像の例を示す。カメラは、第1の観察状態において画像IMG1を取得し、第2の観察状態において画像IMG2を取得する。図3に示すように第2の観察状態における第2の距離が第1の観察状態における第1の距離よりも小さい場合、画像IMG2に写っている被写体は画像IMG1に写っている被写体よりも大きい。そのため、第1の指標の第2の値は第1の指標の第1の値よりも大きくなる。
例えば、第1の観察状態においてカメラと被写体との距離は第1の距離である。例えば、このときの第2の指標は第1の値を持つ。その後、カメラが被写体から遠ざかり、第1の観察状態は第2の観察状態に変化する。例えば、第2の観察状態において、カメラと被写体との距離は第2の距離である。このときの第2の指標は第2の値を持つ。第2の観察状態における第2の距離が第1の観察状態における第1の距離よりも小さい場合、画像IMG2に写っている被写体は画像IMG1に写っている被写体よりも小さい。そのため、第2の指標の第2の値は第2の指標の第1の値よりも小さくなる。
指標算出部71は、ステップS2において第1の指標および第2の指標の一方のみを算出してもよい。指標算出部71は、ステップS2において第1の指標および第2の指標を算出してもよい。
ステップS2の後、比較部72は、第1の指標または第2の指標と閾値とを比較する(ステップS3)。ステップS3は、比較ステップと対応する。
ステップS3の後、選択部73は、ステップS3の結果に基づいて少なくとも1枚の画像を選択する。具体的には、第1の指標が閾値よりも大きい場合、または第2の指標が閾値よりも小さい場合、選択部73は、その1枚以上の画像に含まれる少なくとも1枚の画像を選択する(ステップS4)。ステップS4は、選択ステップと対応する。ステップS4が実行されたとき、画像処理が終了する。
閾値は、被写体における3次元座標(3D座標)の算出に適している距離の条件を示す。第1の指標が閾値よりも大きい場合、選択部73は、その第1の指標を算出するために使用された画像を選択する。または、第2の指標が閾値よりも小さい場合、選択部73は、その第2の指標を算出するために使用された画像を選択する。第1の指標と比較される閾値は、第2の指標と比較される閾値と同じである必要はない。第1の指標が閾値よりも大きい場合、または第2の指標が閾値よりも小さい場合、カメラは被写体に近い。そのため、選択された画像は3D座標の算出に適していると期待される。
選択部73は、記録媒体に記録されている1枚以上の画像の全てを選択してもよい。2枚以上の画像が記録媒体に記録されている場合、選択部73はその2枚以上の画像に含まれる少なくとも1枚の画像を選択してもよい。2枚以上の画像が記録媒体に記録されている場合、選択部73はその2枚以上の画像の全てまたは一部を選択してもよい。
第1の指標が閾値以下である場合、または第2の指標が閾値以上である場合、選択部73は画像を選択しない。この場合、ステップS4は実行されない。
本発明の各態様の画像処理方法は、計測ステップ(ステップS1)、指標算出ステップ(ステップS2)、比較ステップ(ステップS3)、および選択ステップ(ステップS4)を有する。
第1の実施形態において、画像処理装置7は、カメラと被写体との距離を算出し、その距離に基づいて指標を算出する。画像処理装置7は、指標と閾値とを比較した結果に基づいて少なくとも1枚の画像を選択する。そのため、画像処理装置7は、被写体における3D座標の算出に適している画像が選択される可能性を高めることができる。
(第2の実施形態)
本発明の第2の実施形態を説明する。以下では、画像処理装置が内視鏡装置である例を説明する。画像処理装置は、第1の実施形態に示される機能を有する装置でありさえすればよく、内視鏡装置に限らない。画像処理装置は、特定の装置またはシステムに実装された組み込み機器であってもよい。画像処理装置は、パーソナルコンピュータ(PC)またはタブレット端末であってもよい。画像処理装置の一部の機能は、クラウド上の環境によって実現されてもよい。被写体は、工業製品である。
図5は、第2の実施形態による内視鏡装置1の外観を示す。図6は、内視鏡装置1の内部構成を示す。内視鏡装置1は、被写体を撮像し、画像を生成する。検査者は、種々の被写体の観察を実施するために、挿入部2の先端に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。
図5に示す内視鏡装置1は、挿入部2、本体部3、操作部4、および表示部5を有する。
挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被写体を撮像し、かつ撮像信号を本体部3に出力する。挿入部2の先端20には、光学アダプターが装着される。本体部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2で取得された被写体の画像および操作メニュー等を表示画面に表示する。
操作部4は、ユーザーインタフェース(入力装置)である。例えば、操作部4は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。ユーザーは、体の一部(例えば、指)または道具を使用することにより表示部5の画面をタッチする。
図6に示す本体部3は、内視鏡ユニット8、CCU(Camera Control Unit)9、および制御装置10を有する。内視鏡ユニット8は、図示していない光源装置および湾曲装置を有する。光源装置は、観察に必要な照明光を供給する。湾曲装置は、挿入部2に内蔵された湾曲機構を湾曲させる。挿入部2の先端20には撮像素子28が内蔵されている。撮像素子28は、イメージセンサである。撮像素子28は、光学アダプターによって形成された被写体の光学像を光電変換し、かつ撮像信号を生成する。CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を施す。CCU9は、前処理が施された撮像信号をNTSC信号等の映像信号に変換する。撮像素子28は、内視鏡を構成する。
制御装置10は、映像信号処理回路12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カードインタフェース15、外部機器インタフェース16、制御インタフェース17、およびCPU(Central Processing Unit)18を有する。
映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、視認性向上に関わる映像処理を実行する。例えば、その映像処理は、色再現、階調補正、ノイズ抑制、および輪郭強調などである。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18によって生成されたグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像、被写体の画像、および計測情報等を含む。計測情報は、計測結果等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。また、映像信号処理回路12は、CCU9から出力された映像信号に基づく画像データをCPU18に出力する。
ROM13は、CPU18が内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18が内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18は、ROM13に記録されたプログラムに基づいて内視鏡装置1の動作を制御する。
着脱可能な記録媒体であるメモリカード42がカードインタフェース15に接続される。カードインタフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御装置10に取り込む。また、カードインタフェース15は、内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
USB機器等の外部機器が外部機器インタフェース16に接続される。例えば、パーソナルコンピュータ(PC)41が外部機器インタフェース16に接続される。外部機器インタフェース16は、PC41へ情報を送信し、かつPC41から情報を受信する。これによって、PC41のモニタが情報を表示することができる。また、ユーザーは、PC41に指示を入力することにより、内視鏡装置1の制御に関する操作を実施することができる。
制御インタフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を実行する。制御インタフェース17は、ユーザーによって操作部4に入力された指示をCPU18に通知する。制御インタフェース17は、光源装置および湾曲装置を制御するための制御信号を内視鏡ユニット8に出力する。制御インタフェース17は、撮像素子28を制御するための制御信号をCCU9に出力する。
CPU18が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、PC41がプログラムを読み込んで実行してもよい。PC41は、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信することにより内視鏡装置1を制御してもよい。あるいは、PC41は、内視鏡装置1から映像信号を取得し、かつ取得された映像信号を処理してもよい。
上記のように、内視鏡装置1は、撮像素子28およびCPU18を有する。撮像素子28は、被写体を撮像し、かつ撮像信号を生成する。撮像信号は、被写体の画像を含む。したがって、撮像素子28は、被写体を撮像することにより生成された、その被写体の画像を取得する。その画像は2次元画像(2D画像)である。撮像素子28によって取得された2D画像は映像信号処理回路12を経由してCPU18に入力される。第2の実施形態におけるカメラは、撮像素子28および観察光学系を含む。
撮像素子28は、被写体の画像を取得する画像取得部の機能を有する。画像取得部は、画像入力装置であってもよい。例えば、PC41が画像処理装置として動作する場合、画像取得部は、内視鏡装置1と通信を実行する通信インタフェース(通信機)である。画像取得部は無線通信機であってもよい。画像取得部は、画像が記録された記録媒体から画像を読み出す読み出し回路であってもよい。
図7は、CPU18の機能構成を示す。CPU18の機能は、制御部180、計測部181、指標算出部182、分類処理部183、表示制御部184、情報受付部185、比較部186、選択部187、および記録部188を含む。図7に示すブロックの少なくとも1つがCPU18と異なる回路で構成されてもよい。
図7に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図7に示す各部は、1つまたは複数のプロセッサを含むことができる。図7に示す各部は、1つまたは複数の論理回路を含むことができる。
制御部180は、被写体の2D画像(画像データ)を映像信号処理回路12から取得し、かつ図7に示す各部が実行する処理を制御する。
計測部181は、図1に示す計測部70の機能を持つ。計測部181は、撮像素子28によって取得された画像における2つ以上の点の各々における距離を計測する(計測ステップ)。
例えば、互いに異なる2つの視野を持つステレオ光学系が、光学アダプターとして挿入部2の先端20に装着される。この場合、撮像素子28は、第1の視点から見た被写体の2D画像(第1の2D画像)と、第1の視点と異なる第2の視点から見た被写体の2D画像(第2の2D画像)とを含むステレオ画像を生成する。計測部181は、第1の2D画像に2つ以上の点を設定する。計測部181は、第2の2D画像において第1の2D画像上の点と対応する点を探索する。計測部181は、三角測量の原理を使用することにより第1の2D画像上の2つ以上の各々の点における距離を算出する。
ステレオ光学系は第1の光学系および第2の光学系を有する。内視鏡装置1は、第1の状態と第2の状態とを切り替えてもよい。第1の状態において、第1の光学系を通る光のみが撮像素子28に入射する。第2の状態において、第2の光学系を通る光のみが撮像素子28に入射する。撮像素子28は、第1の状態において第1の2D画像を生成し、かつ第2の状態において第2の2D画像を生成してもよい。第1の2D画像および第2の2D画像の組み合わせは、ステレオ画像を構成する。計測部181は、1枚以上の第1の2D画像および1枚以上の第2の2D画像を使用することにより距離を計測してもよい。
1つの視野を持つ単眼光学系が、光学アダプターとして挿入部2の先端20に装着されてもよい。計測部181は、アクティブステレオ法の原理に基づいて距離を計測してもよい。以下では、アクティブステレオ法を使用する例を説明する。
例えば、計測部181は、明部および暗部を含む所定のパターンを持つ光が被写体に照射されたときに取得された1枚以上の2D画像を使用することにより距離を計測してもよい。例えば、そのパターンはランダムパターンである。計測部181は、縞状または格子状のパターンを持つ光が被写体に照射されたときに取得された2枚以上の2D画像を使用することにより距離を計測してもよい。計測部181は、レーザー光(スポット光)またはスリット光が被写体に照射されたときに取得された1枚以上の2D画像を使用することにより距離を計測してもよい。模様が被写体の表面にない場合、計測部181は、距離を安定的に計測することができる。
計測部181は、Time of Flight(ToF)と呼ばれる技術を使用することにより距離を計測してもよい。ToFが使用される場合、計測部181は、光(赤外光など)または超音波が第1のタイミングから第2のタイミングまでに進む時間を計測する。第1のタイミングは、光または超音波がカメラから被写体に照射された時刻を示す。第2のタイミングは、被写体によって反射された光または超音波がカメラに到達する時刻を示す。計測部181は、第1のタイミングから第2のタイミングまでの時間に基づいて距離を算出する。この場合、計測部181が、距離を計測するために画像を使用する必要はない。
内視鏡装置1は、TOFカメラと呼ばれるカメラを使用してもよい。TOFカメラは、カラー画像および距離画像を同時に取得する。距離画像の各画素の値は、カメラから被写体までの距離を示す。この場合、カラー画像の各画素と距離画像の各画素とは互いに関連付けられている。
距離を計測する方法は上記の例に限らない。距離を計測する方法は、画像を使用する例に限らない。
画像における2つ以上の点の各々の座標は、予め設定されている。例えば、その座標は、ROM13に記録されているプログラムに含まれる。計測部181は、画像における3つ以上の点の各々における距離を計測してもよい。
指標算出部182は、図1に示す指標算出部71の機能を持つ。指標算出部182は、計測部181によって計測された距離に基づいて指標を算出する(指標算出ステップ)。指標算出部182は、その指標を、その距離を算出するために使用された画像と関連付ける。
例えば、その指標は、所定の条件を満たす点の数を示す。その所定の条件は、距離が所定値よりも小さいことを示す。例えば、その所定値は、15mmである。挿入部2の先端20が被写体に近づくとその指標は増加する。そのため、その指標は、第1の実施形態における第1の指標と対応する。
その所定の条件は、距離が所定値よりも大きいことを示してもよい。挿入部2の先端20が被写体に近づくとその指標は減少する。そのため、その指標は、第1の実施形態における第2の指標と対応する。
点の割合(密度)が点の数として使用されてもよい。例えば、指標算出部182は、全ての点の数に対する所定の条件を満たす点の数の比率を指標として算出してもよい。
指標算出部182は、2つ以上の点における距離の平均値を指標として算出してもよい。指標算出部182は、2つ以上の点における距離の最小値を指標として選択してもよい。挿入部2の先端20が被写体に近づくとその平均値またはその最小値は減少する。そのため、その平均値またはその最小値は、第1の実施形態における第2の指標と対応する。
上記の例では、指標は0以上である。指標は0よりも小さくてもよい。例えば、指標算出部182は、上記の点の数などに0よりも小さい係数を乗算することにより得られる値を指標として算出してもよい。
分類処理部183は、2つ以上の点において算出された2つ以上の距離を2つ以上のグループに分類する(分類処理ステップ)。各グループの距離の範囲は、他のグループの範囲と異なる。例えば、分類処理部183は、2つ以上の距離を3つのグループに分類する。3つのグループは、グループA、グループB、およびグループCである。15mm未満の距離はグループAに分類される。15mm以上かつ30mm未満の距離はグループBに分類される。30mm以上の距離はグループCに分類される。例えば、各グループの距離の範囲は、ROM13に記録されているプログラムに含まれる。
2つ以上の距離の各々は、2つ以上のグループのいずれか1つに分類される。2つ以上のグループの各々は1つ以上の距離を含む。
表示制御部184は、映像信号処理回路12によって実行される処理を制御する。CCU9は、2D映像信号を出力する。2D映像信号は、撮像素子28によって取得された2D画像の各画素のカラーデータを含む。表示制御部184は、映像信号処理回路12に、CCU9から出力された2D映像信号を表示部5に出力させる。映像信号処理回路12は、2D映像信号を表示部5に出力する。表示部5は、映像信号処理回路12から出力された2D映像信号に基づいて2D画像を表示する。これにより、表示制御部184は、撮像素子28によって取得された2D画像をライブ画像として表示部5に表示する。
表示制御部184は、各種情報を表示部5に表示する。つまり、表示制御部184は、画像上に各種情報を表示する。各種情報は、計測結果等を含む。各種情報は、カーソルを含んでもよい。カーソルは、ユーザーが画像上の特定の点を指定するためのマークである。
例えば、表示制御部184は、各種情報のグラフィック画像信号を生成する。表示制御部184は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18から出力されたグラフィック画像信号とを合成する。これにより、各種情報が画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、各種情報が重畳された画像を表示する。
表示制御部184は、距離情報を示すグラフィック画像信号を生成する。距離情報は、2つ以上の点の各々における距離を示す。表示制御部184は、そのグラフィック画像信号を映像信号処理回路12に出力する。これにより、表示制御部184は、距離情報を表示部5に表示する(距離情報表示ステップ)。
ユーザーは、操作部4を操作することにより、各種情報を内視鏡装置1に入力する。操作部4は、ユーザーによって入力された情報を出力する。その情報は、入力部である制御インタフェース17に入力される。その情報は、制御インタフェース17からCPU18に出力される。情報受付部185は、操作部4を経由して内視鏡装置1に入力された情報を受け付ける。
例えば、ユーザーは、操作部4を操作することにより、カーソルの位置情報を内視鏡装置1に入力する。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより画像上の位置を示す位置情報を内視鏡装置1に入力する。情報受付部185は、内視鏡装置1に入力された位置情報を受け付ける。情報受付部185は、位置情報に基づいて画像上の位置を算出する。表示制御部184は、情報受付部185によって算出された位置にカーソルを表示する。
比較部186は、図1に示す比較部72の機能を持つ。比較部186は、指標算出部182によって算出された指標と閾値とを比較する(比較ステップ)。例えば、その閾値は、ROM13に記録されているプログラムに含まれる。
選択部187は、図1に示す選択部73の機能を持つ。選択部187は、比較部186によって実行された比較の結果に基づいて少なくとも1枚の画像を選択する(選択ステップ)。指標算出部182によって算出された指標が選択条件を満たす場合、選択部187は、その指標と関連付けられている画像を選択する。
例えば、指標は、所定の条件を満たす点の数を示す。その所定の条件は、距離が所定値よりも小さいことを示す。この場合、上記の選択条件は、指標が閾値よりも大きいことを示す。この場合、指標は、前述した第1の指標と対応する。あるいは、その所定の条件は、距離が所定値よりも大きいことを示す。この場合、上記の選択条件は、指標が閾値よりも小さいことを示す。この場合、指標は、前述した第2の指標と対応する。
あるいは、指標は、2つ以上の点における距離の平均値または2つ以上の点における距離の最小値を示す。この場合、上記の選択条件は、指標が閾値よりも小さいことを示す。この場合、指標は、前述した第2の指標と対応する。
例えば、閾値は0以上である。指標が0よりも小さい場合、閾値は0よりも小さくてもよい。
記録部188は、選択部187によって選択された少なくとも1枚の画像を記録媒体に記録する(記録ステップ)。例えば、記録部188は、その少なくとも1枚の画像をPC41内の記録媒体またはメモリカード42に記録する。
図8を使用することにより、第2の実施形態における画像処理について説明する。図8は、画像処理の手順を示す。
撮像素子28は連続的に撮像信号を生成する。つまり、撮像素子28は、ライブ画像と対応する各フレームの撮像信号を生成する。ライブ画像は被写体の2D画像であり、所定のフレームレートで順次更新される。つまり、ライブ画像は動画である。動画は、2枚以上のフレームを含む。各フレームは、撮像素子28によって取得された2D画像によって構成される。
制御部180は、撮像素子28によって取得された画像(2D画像)を取得する(ステップS101)。
ステップS101の後、計測部181は、ステップS101において取得された画像における2つ以上の点の各々における距離を計測する(ステップS102)。ステップS102は、計測ステップと対応する。
計測部181は、各点における距離を計測する。2つ以上の点が1枚の画像に含まれるため、計測部181は2つ以上の距離を計測する。
ステップS102の後、分類処理部183は、ステップS102において算出された2つ以上の距離を2つ以上のグループに分類する(ステップS103)。ステップS103は、分類処理ステップと対応する。
ステップS103の後、表示制御部184は、距離情報が重畳された画像を表示部5に表示する。具体的には、表示制御部184は、距離情報を示すグラフィック画像信号を生成し、かつそのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、距離情報が重畳された画像を表示する(ステップS104)。ステップS104は、距離情報表示ステップと対応する。第2の実施形態において表示制御部184は、撮像素子28による画像の取得と並行してその画像および距離情報を表示部5に表示する。
図9は、ステップS104において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG10を表示部5に表示する。画像IMG10は、被写体の2D画像である。撮像素子28がステレオ画像を取得する場合、表示制御部184は、ステレオ画像を構成する2枚の画像のうちの1枚を表示部5に表示する。
図9に示す例では、計測部181は、9行かつ11列に並んだ99個の点における距離を計測する。図9に示す例では、分類処理部183は、99個の点において算出された99個の距離を3つのグループに分類する。その3つのグループは、前述したグループA、グループB、およびグループCである。15mm未満の距離はグループAに属する。15mm以上かつ30mm未満の距離はグループBに属する。30mm以上の距離はグループCに属する。
表示制御部184は距離情報を表示部5に表示する。距離情報は、画像IMG10に重畳されている。図9に示す例では、表示制御部184は、マークMK10、マークMK11、およびマークMK12を画像IMG10上に表示する。マークMK10は、グループAに分類された距離を示す。マークMK11は、グループBに分類された距離を示す。マークMK12は、グループCに分類された距離を示す。各マークは距離情報と対応する。各マークは、距離が計測された点の位置に表示される。各マークは、各グループと対応する形状を持つ。図9に示す例では、マークMK10は円であり、マークMK11は四角形であり、マークMK12は三角形である。
ユーザーは、画像IMG10が3D座標の算出に適しているか否かを判断することができる。カメラは、マークMK10の数が多い領域に近い。そのため、その領域は3D座標の算出に適している。カメラは、マークMK12の数が多い領域から遠い。そのため、その領域は3D座標の算出に適していない。画像IMG10においてマークMK10の数が多い場合、ユーザーは、画像IMG10が3D座標の算出に適していると判断することができる。
ユーザーは、距離情報を参照し、撮影の構図を変更する。距離情報は、画像IMG10上に表示された各マークによって示される。例えば、ユーザーは、マークMK10の数が多くなるように構図を変更する。これにより、3D座標の算出に適している画像が取得される可能性が高まる。
ステレオ光学系が使用される例を説明する。ステレオ光学系は第1の光学系および第2の光学系を有する。第1の光学系と第2の光学系とは互いに離れており、視差が発生する。そのため、第1の光学像および第2の光学像は互いに異なる。第1の光学像は、第1の光学系を通る光によって形成される。第2の光学像は、第2の光学系を通る光によって形成される。
視差だけでなくカメラの姿勢も第1の光学像および第2の光学像の違いに影響する。カメラの撮像方向は、被写体の表面に対するカメラの姿勢に応じて変化する。被写体の表面が平面であり、かつ撮像方向がその平面とほぼ垂直である場合、被写体の各点とカメラとの距離の差は小さい。その差は、第1の光学像および第2の光学像の違いにあまり影響しない。一方、被写体の表面が平面であり、かつ撮像方向がその平面とほぼ平行である場合、手前側の点と奥側の点との間で各点とカメラとの距離の差が大きい。その差は、第1の光学像および第2の光学像の違いに大きく影響する。各点とカメラとの距離の差が大きい領域では、十分な視差が発生しない。そのため、その領域が大きく写っている画像は3D座標の算出に適していない。このような理由により、ユーザーが2D画像のみから遠近感を把握することが難しく、カメラの姿勢が適切でないことを認識しづらい。
ユーザーは、距離情報を参照することにより、カメラの姿勢を確認することができる。マークMK10が画像IMG10の全体に広がっている場合、カメラは被写体の表面とほぼ垂直である。マークMK10が画像IMG10の一部の領域のみに表示されている場合、カメラは被写体の表面に対して傾いている。例えば、撮像方向が被写体の表面とほぼ平行である場合、マークMK10は、カメラに近い領域のみに表示される。そのため、ユーザーは、撮像方向が被写体の表面とほぼ平行になっていることを認識することができる。ユーザーは、マークMK10が画像IMG10の全体に広がるようにカメラの姿勢を変更する。つまり、ユーザーは、撮像方向が被写体の表面と垂直になるように構図を変更する。これにより、3D座標の算出に適している画像が取得される可能性が高まる。
表示制御部184は、画像IMG10の各点を距離情報と対応する色で表示してもよい。例えば、表示制御部184は、グループAに属する距離が算出された点を緑色で表示する。表示制御部184は、グループBに属する距離が算出された点を黄色で表示する。表示制御部184は、グループCに属する距離が算出された点を赤色で表示する。表示制御部184は、距離情報と対応する大きさを持つマークを画像IMG10の各点に表示してもよい。表示制御部184は、距離情報を示す数字または文字を画像IMG10の各点に表示してもよい。距離情報を表示する方法は、上記の例に限らない。
表示制御部184は、所定値以上の距離が算出された点の距離情報を表示する必要はない。その所定値は、視差が十分に発生せず、計測部181が3D座標を算出できない距離を示す。表示制御部184が距離情報を表示しない場合、表示されるマークをユーザーが識別する手間が省ける。そのため、ユーザーは操作を感覚的に実施しやすい。
前述したように、ステレオ画像は、第1の2D画像および第2の2D画像を含む。撮像素子28がステレオ画像を取得する場合、計測部181は、第2の2D画像において第1の2D画像上の点と対応する点を探索する。この処理は、第1の2D画像および第2の2D画像の間の相関係数を算出するマッチング処理を含む。相関係数の最小値は-1であり、相関係数の最大値は1である。相関係数が0よりも小さい場合、計測部181は、第1の2D画像上の点における距離を計測できないと判断してもよい。計測部181は、画像のテクスチャの強さを示す値などに基づいて距離を計測できるか否かを判断してもよい。表示制御部184は、距離を計測できない点における距離情報を表示する必要はない。
距離が計測される点の数は99に限らない。2つ以上の距離が分類されるグループの数は3に限らない。
表示部5の表示画面は、互いに異なる第1の領域および第2の領域を含んでもよい。表示制御部184は、距離情報が重畳されていない第1の画像を第1の領域に表示し、かつ距離情報が重畳された第2の画像を第2の領域に表示してもよい。ユーザーは、第1の画像を参照することにより、被写体の状態を容易に確認することができる。表示制御部184は、第1の画像を第1の領域に表示し、かつ距離情報のみで構成された第2の画像を第2の領域に表示してもよい。例えば、その第2の画像は、距離が計測された点のみを含む。これにより、ユーザーは、距離情報が重畳されていない被写体の画像を詳細に確認することができる。
ステップS104の後、指標算出部182は、ステップS102において計測された距離に基づいて指標を算出する。指標算出部182は、その指標を、その距離を算出するために使用された画像と関連付ける(ステップS105)。ステップS105は、指標算出ステップと対応する。
図9に示す例では、指標算出部182は、グループAに属する点の数を指標として算出してもよい。指標算出部182は、グループBに属する点の数とグループCに属する点の数との合計を指標として算出してもよい。指標算出部182は、2つ以上の点における距離の平均値または2つ以上の点における距離の最小値を指標として算出してもよい。
ステップS105の後、比較部186は、指標算出部182によって算出された指標と閾値とを比較する。比較部186は、その指標が選択条件を満たすか否かを判断する(ステップS106)。ステップS106は、比較ステップと対応する。
例えば、指標算出部182は、ステップS105において、グループAに属する点の数を第1の指標として算出する。例えば、ステップS106において使用される閾値は75である。比較部186は、ステップS106において第1の指標を75と比較する。選択条件は、第1の指標が閾値よりも大きいことを示す。指標が75よりも大きい場合、比較部186は、ステップS106において、第1の指標が選択条件を満たすと判断する。第1の指標が75以下である場合、比較部186は、ステップS106において、指標が選択条件を満たさないと判断する。
例えば、過去に実行された計測において、カメラと被写体との距離が15mmよりも小さい場合に所定の計測精度が得られることが判明している。その場合、所定の計測精度を得るために距離が15mmよりも小さい必要がある。例えば、上記の閾値75は、全ての点の数の75%の値である。上記の距離15mmは、光学系の倍率などに応じて変更されてもよい。
指標算出部182が、グループBに属する点の数とグループCに属する点の数との合計を第2の指標として算出する例を説明する。比較部186は、ステップS106において第1の指標の閾値を全ての点の数から引いた値を閾値として使用する。第1の指標の閾値は75であり、全ての点の数は99である。比較部186は、第2の指標を、算出された閾値(24)と比較する。第2の指標が24よりも小さい場合、比較部186は、ステップS106において、第2の指標が選択条件を満たすと判断する。第2の指標が24以上である場合、比較部186は、ステップS106において、指標が選択条件を満たさないと判断する。
指標算出部182が、2つ以上の点における距離の平均値または2つ以上の点における距離の最小値を第2の指標として算出する場合、比較部186は、ステップS106において指標を15mmと比較してもよい。第2の指標が15mmよりも小さい場合、比較部186は、ステップS106において、第2の指標が選択条件を満たすと判断してもよい。第2の指標が15mm以上である場合、比較部186は、ステップS106において、第2の指標が選択条件を満たさないと判断してもよい。
指標の種類は、予め自動で設定されてもよい。ユーザーが指標の種類を設定してもよい。閾値は、予め自動で設定されてもよい。ユーザーが閾値を設定してもよい。
指標が選択条件を満たさないと比較部186がステップS106において判断した場合、ステップS101が実行される。指標が選択条件を満たすまでステップS101からステップS106が繰り返し実行される。
指標が選択条件を満たすと比較部186がステップS106において判断した場合、選択部187は、その指標と関連付けられている画像を選択する(ステップS107)。ステップS107は、選択ステップと対応する。
ステップS107の後、記録部188は、選択部187によって選択された画像を記録媒体に記録する(ステップS108)。ステップS108は、記録ステップと対応する。ステップS108が実行されたとき、画像処理が終了する。
ステップS108の後、表示制御部184は、画像が記録されたことを示すメッセージを表示部5に表示してもよい。これにより、表示制御部184は、3D座標の算出に適している画像が記録されたことをユーザーに通知することができる。
指標算出部182によって算出された指標が選択条件を満たさないと比較部186がステップS106において判断した場合、表示制御部184は、構図の変更を支援するためのメッセージを表示部5に表示してもよい。例えば、指標が閾値の条件を満たさない場合、表示制御部184は、挿入部2の先端20を被写体に近づけることをユーザーに指示するメッセージを表示部5に表示してもよい。例えば、画像が水平方向に領域A、領域B、および領域Cに分割される。領域Aは、グループAに属する点を含む。領域Bは、グループBに属する点を含む。領域Cは、グループCに属する点を含む。この場合、撮像方向が被写体の表面と平行である可能性が高い。そのため、表示制御部184は、被写体が正面視で画像に写るように挿入部2の先端20の姿勢を変更することをユーザーに指示するメッセージを表示部5に表示してもよい。
表示制御部184は、画像の状態に応じたメッセージを表示部5に表示してもよい。カメラが、前述した距離を十分な精度で測定可能な位置にあっても、照明の光量が画像の取得に適してなく、計測部181が距離を計測できない場合がある。例えば、画像中の画素が飽和している場合、表示制御部184は、画像が暗いと判断してもよい。この場合、表示制御部184は、照明の光量を増加させることをユーザーに指示するメッセージを表示部5に表示してもよい。あるいは、画像が明るすぎる場合に照明の光量を減少させることをユーザーに指示するメッセージを表示部5に表示してもよい。
上記の例では、指標算出部182によって算出された指標は、所定の条件を満たす点の数を示す。その所定の条件は、距離が15mmよりも小さいことを示す。カメラと被写体との距離が非常に小さい場合、3D座標の算出に適していない画像が取得される可能性がある。例えば、その距離が5mmよりも小さい場合、画像がぼやける可能性がある。そのため、その所定の条件は、距離が15mmよりも小さく、かつ5mm以上であることを示してもよい。
その所定の条件は、距離が15mm以上であり、かつ5mmよりも小さいことを示してもよい。指標が24よりも小さい場合、比較部186は、ステップS106において、指標が選択条件を満たすと判断してもよい。
指標算出部182は、2つ以上の点における距離の平均値または2つ以上の点における距離の最小値を指標として算出してもよい。平均値または最小値が15mmよりも小さく、かつ5mm以上である場合、比較部186は、ステップS106において、指標が選択条件を満たすと判断してもよい。
図8に示す画像処理では、1枚の画像が記録媒体に記録される。ステップS108の後、ステップS101が実行されてもよい。ステップS101からステップS108が繰り返し実行されると、2枚以上の画像が記録媒体に記録される。
ステップS102の処理時間が長い場合、制御部180は、撮像素子28によって取得された画像を表示するための表示フレームレートを下げてもよい。あるいは、制御部180は、撮像素子28によって取得された画像を表示するための表示フレームレートを下げずに、距離情報をその画像に重畳する頻度を下げてもよい。
ステップS105は、ステップS102が実行されるタイミングとステップS106が実行されるタイミングとの間の任意のタイミングで実行されてもよい。したがって、ステップS102からステップS104のいずれか1つが実行された後、ステップS105が実行されてもよい。
表示制御部184は、距離情報を表示部5に表示する必要はない。したがって、表示制御部184は、ステップS104において、撮像素子28によって取得された画像のみを表示してもよい。距離情報が表示されない場合であっても、内視鏡装置1は、3D座標の算出に適している画像を選択および記録することができる。
表示制御部184は、計測された距離の値を距離情報として表示部5に表示してもよい。この場合、ステップS103が実行される必要はない。表示制御部184が距離情報を表示部5に表示しない場合も、ステップS103が実行される必要はない。したがって、CPU18が分類処理部183を有する必要はない。
ステップS107において選択された画像は、PC41内の記録媒体またはメモリカード42等に記録されずにRAM14に一時的に保持されてもよい。ステップS107において選択された画像は、外部サーバー等に送信されてもよい。これらの場合、ステップS108が実行される必要はない。したがって、CPU18が記録部188を有する必要はない。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、距離情報表示ステップ(ステップS104)において、距離情報を表示部5に表示する。距離情報は、被写体の1枚以上の画像における2つ以上の点の各々における距離を示す。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、距離情報表示ステップ(ステップS104)において、距離情報が重畳された1枚以上の画像を表示部5に表示する。
本発明の各態様は次の変形例を含んでもよい。分類処理部183は、分類処理ステップ(ステップS103)において、2つ以上の点における距離を、第1のグループおよび第2のグループを含む2つ以上のグループに分類する。第1のグループに分類された距離の範囲は、第2のグループに分類された距離の範囲と異なる。表示制御部184は距離情報表示ステップ(ステップS104)において、第1の距離情報を第1の状態で表示部5に表示し、かつ第2の距離情報を第1の状態と異なる第2の状態で表示部5に表示する。第1の距離情報は、第1のグループに分類された距離を示す。第2の距離情報は、第2のグループに分類された距離を示す。
図9に示す例では、第1のグループおよび第2のグループの各々は、グループA、グループB、およびグループCのいずれか1つと対応する。例えば、第1のグループはグループAと対応し、第2のグループはグループBと対応する。第1のグループに分類された距離の範囲は15mm未満である。第2のグループに分類された距離の範囲は15mm以上かつ30mm未満である。第1の状態および第2の状態は、図9に示す各マークの形状と対応する。グループの数は2つであってもよく、あるいは4つ以上であってもよい。第1の状態および第2の状態は、マークの形状に限らず、マークの大きさまたは点の色などと対応してもよい。
本発明の各態様は次の変形例を含んでもよい。記録部188は、記録ステップ(ステップS108)において、選択部187によって選択された少なくとも1枚の画像を記録媒体に記録する。
本発明の各態様は次の変形例を含んでもよい。指標算出部182は、指標算出ステップ(ステップS105)において、2つ以上の点のうち距離が所定値よりも小さい点の数、2つ以上の点のうち距離が所定値よりも大きい点の数、2つ以上の点における距離の平均値、または2つ以上の点における距離の最小値に基づいて第1の指標および第2の指標の少なくとも一方を算出する。
本発明の各態様は次の変形例を含んでもよい。被写体の1枚以上の画像に含まれる1枚の画像に対して計測ステップ(ステップS102)、指標算出ステップ(ステップS105)、および比較ステップ(ステップS106)が実行される。第1の指標が閾値以下であるという第1の条件と、第2の指標が閾値以上であるという第2の条件との少なくとも一方が満たされる場合、その1枚以上の画像に含まれる他の1枚の画像に対して計測ステップ、指標算出ステップ、および比較ステップが実行される。
第1の指標および第2の指標の少なくとも一方が選択条件を満たさないと比較部186がステップS106において判断した場合、ステップS101において画像が新たに取得される。その後、その画像を使用することによりステップS102からステップS106が再度実行される。
第2の実施形態において、内視鏡装置1は、カメラと被写体との距離を算出し、その距離に基づいて指標を算出する。内視鏡装置1は、指標と閾値とを比較した結果に基づいて少なくとも1枚の画像を選択する。そのため、内視鏡装置1は、被写体における3D座標の算出に適している画像が選択される可能性を高めることができる。
内視鏡装置1は、3D座標の算出に適している画像を記録媒体に自動的に記録する。そのため、ユーザーの負担が軽減される。
内視鏡装置1は、距離情報を表示する。指標が選択条件を満たさない場合、ユーザーは、距離情報を参照し、撮影の構図を変更することができる。
(第2の実施形態の第1の変形例)
本発明の第2の実施形態の第1の変形例を説明する。内視鏡装置1は、指標算出部182によって算出された指標と、閾値とを比較した結果をユーザーに通知する。ユーザーは、その結果を確認し、画像を記録するための記録指示を内視鏡装置1に入力する。記録指示が内視鏡装置1に入力されたとき、内視鏡装置1は画像を記録媒体に記録する。内視鏡装置1は、図7に示すCPU18を有する。
表示制御部184は、比較情報を含むグラフィック画像信号を生成する。比較情報は、指標算出部182によって算出された指標と、閾値とを比較した結果を示す。表示制御部184は、そのグラフィック画像信号を映像信号処理回路12に出力する(出力ステップ)。これにより、表示制御部184は、比較情報を表示部5に表示する。
表示制御部184は、比較情報を表示部5(情報通知装置)に出力する出力部として機能する。比較情報を出力する方法は、これに限らない。
CPU18の出力部は、音データをスピーカーに出力し、比較情報と対応する音をスピーカーに発生させてもよい。例えば、指標算出部182によって算出された指標が、前述した選択条件を満たす場合、出力部は、第1の音と対応する音データをスピーカーに出力する。指標算出部182によって算出された指標が選択条件を満たさない場合、出力部は、第1の音と異なる第2の音と対応する音データをスピーカーに出力する。
出力部は、振動のパターンを示す制御信号を振動発生器に出力し、比較情報と対応するパターンを持つ振動を振動発生器に発生させてもよい。例えば、指標算出部182によって算出された指標が選択条件を満たす場合、出力部は、第1のパターンを示す制御信号を振動発生器に出力する。指標算出部182によって算出された指標が選択条件を満たさない場合、出力部は、第1のパターンと異なる第2のパターンを示す制御信号を振動発生器に出力する。
出力部は、発光のパターンを示す制御信号を光源に出力し、比較情報と対応するパターンを持つ光を光源に発生させてもよい。例えば、指標算出部182によって算出された指標が選択条件を満たす場合、出力部は、第1のパターンを示す制御信号を光源に出力する。指標算出部182によって算出された指標が選択条件を満たさない場合、出力部は、第1のパターンと異なる第2のパターンを示す制御信号を光源に出力する。
光源が2種類以上の色の光を発生できる場合、出力部は、特定の色を示す制御信号を光源に出力し、比較情報と対応する色の光を光源に発生させてもよい。例えば、指標算出部182によって算出された指標が選択条件を満たす場合、出力部は、第1の色を示す制御信号を光源に出力する。指標算出部182によって算出された指標が選択条件を満たさない場合、出力部は、第1の色と異なる第2の色を示す制御信号を光源に出力する。
図10を使用することにより、第2の実施形態の第1の変形例における画像処理について説明する。図10は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS105の後、比較部186は、指標算出部182によって算出された指標と閾値とを比較する。比較部186は、比較結果を示す比較情報を生成する(ステップS111)。ステップS111は、比較ステップと対応する。
ステップS111の後、表示制御部184は、比較情報が重畳された画像を表示部5に表示する。具体的には、表示制御部184は、比較情報を示すグラフィック画像信号を生成し、かつそのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、比較情報が重畳された画像を表示する(ステップS112)。ステップS112は、出力ステップと対応する。
図11は、ステップS112において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG11を表示部5に表示する。画像IMG11は、被写体の2D画像である。
表示制御部184は距離情報を表示部5に表示する。距離情報は、画像IMG11に重畳されている。図11に示す例では、表示制御部184は、マークMK10、マークMK11、およびマークMK12を画像IMG11上に表示する。各マークは、図9に示す各マークと同じである。
表示制御部184は比較情報を表示部5に表示する。比較情報は、画像IMG11に重畳されている。図11に示す例では、表示制御部184は、値VL10を画像IMG11上に表示する。例えば、指標算出部182は、第2の実施形態におけるグループAに属する点の数を指標として算出する。値VL10は、全ての点の数に対するグループAに属する点の数の比率を示す。
指標算出部182によって算出された指標が選択条件を満たす場合、表示制御部184は値VL10を第1の色で表示してもよい。指標算出部182によって算出された指標が選択条件を満たさない場合、表示制御部184は値VL10を第1の色と異なる第2の色で表示してもよい。指標算出部182によって算出された指標が選択条件を満たす場合のみ表示制御部184は値VL10を強調してもよい。例えば、表示制御部184は値VL10の周囲に枠などを表示してもよい。
表示制御部184は、比較情報を示すインジケーターを表示部5に表示してもよい。そのインジケーターは、GUI(Graphical User Interface)コンポーネントであってもよい。上記の比率と対応する位置がそのコンポーネント上に示される。そのインジケーターは、マークまたは記号であってもよい。
表示部5の表示画面は、互いに異なる第1の領域および第2の領域を含んでもよい。表示制御部184は、比較情報が重畳されていない画像を第1の領域に表示し、かつ比較情報を第2の領域に表示してもよい。ユーザーは、その画像を参照することにより、被写体の状態を容易に確認することができる。
表示制御部184は、ボタンBT10を画像IMG11上に表示する。ボタンBT10は、画像を記録する指示を入力するためのボタンである。ユーザーは、操作部4を通して表示部5の表示画面上のボタンを押すことができる。表示部5がタッチパネルである場合、ユーザーは、表示画面を触ることにより、表示画面上のボタンを押すことができる。
ユーザーは、各マークおよび値VL10を確認し、かつ画像IMG11が3D座標の算出に適しているか否かを判断する。画像IMG11が3D座標の算出に適しているとユーザーが判断した場合、ユーザーはボタンBT10を押す。画像IMG11が3D座標の算出に適していないとユーザーが判断した場合、ユーザーは撮影の構図を変更する。
ステップS112の後、制御部180は、画像を記録するための記録指示が内視鏡装置1に入力されたか否かを判断する(ステップS113)。例えば、ユーザーは操作部4を操作することにより、記録指示を内視鏡装置1に入力する。図11に示す例では、ユーザーは、ボタンBT10を押すことにより記録指示を内視鏡装置1に入力する。情報受付部185は、記録指示を受け付ける。このとき、制御部180は、記録指示が内視鏡装置1に入力されたと判断する。
記録指示が内視鏡装置1に入力されていないと制御部180がステップS113において判断した場合、ステップS101が実行される。記録指示が内視鏡装置1に入力されるまでステップS101からステップS105およびステップS111からステップS113が繰り返し実行される。記録指示が内視鏡装置1に入力されたと制御部180がステップS113において判断した場合、ステップS107が実行される。
表示制御部184は、距離情報を表示部5に表示する必要はない。したがって、表示制御部184は、ステップS104において、撮像素子28によって取得された画像のみを表示してもよい。ステップS104において距離情報は画像に重畳されず、比較情報はステップS112において画像に重畳される。内視鏡装置1は距離情報を表示しないが、比較情報を表示する。距離情報が表示されない場合であっても、内視鏡装置1は、3D座標の算出に適している画像を選択および記録することができる。
距離情報が表示される場合、カメラと被写体との位置関係がユーザーにわかりやすい。指標が選択条件を満たさない場合、ユーザーは、距離情報を参照することにより、撮影の構図を容易に設定することができる。一方、熟練したユーザーは、距離情報を参照することなく撮影の構図をある程度設定することができる。撮影の構図が3D座標の算出に適しているか否かをユーザーが知ることができる限り、ユーザーは撮影の構図を調整することができる。そのため、表示制御部184は、距離情報を表示せずに比較情報を表示してもよい。
指標算出部182によって算出された指標が選択条件を満たさない場合、制御部180は内視鏡装置1への記録指示の入力を無効にしてもよい。指標が選択条件を満たす場合のみ、制御部180は内視鏡装置1への記録指示の入力を有効にしてもよい。
例えば、指標が選択条件を満たさない場合、情報受付部185は記録指示を受け付けない。指標が選択条件を満たす場合のみ、情報受付部185は記録指示を受け付ける。指標が選択条件を満たす間、ユーザーは任意のタイミングで記録指示を内視鏡装置1に入力することができる。
本発明の各態様の画像処理方法は、計測ステップ(ステップS102)、指標算出ステップ(ステップS105)、比較ステップ(ステップS111)、出力ステップ(ステップS112)、および選択ステップ(ステップS107)を有する。計測部181は、計測ステップにおいて、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する。その距離は、その1枚以上の画像を取得したカメラからその2つ以上の点の各々までの3D距離を示す。指標算出部182は、指標算出ステップにおいて、その距離に基づいて第1の指標または第2の指標を算出する。カメラが被写体に近づくと第1の指標は増加する。カメラが被写体に近づくと第2の指標は減少する。比較部186は、比較ステップにおいて、第1の指標または第2の指標と閾値とを比較する。表示制御部184(出力部)は、出力ステップにおいて、比較情報を表示部5(情報通知装置)に出力する。比較情報は、第1の指標と閾値とを比較した結果、または第2の指標と閾値とを比較した結果を示す。出力ステップが実行された後、選択部187は、選択ステップにおいて、その1枚以上の画像に含まれる少なくとも1枚の画像を選択する。その少なくとも1枚の画像は、第1の指標または第2の指標を算出するために使用された画像である。
第2の実施形態の第1の変形例において、内視鏡装置1は比較情報をユーザーに通知する。ユーザーによって記録指示が内視鏡装置1に入力されたとき、内視鏡装置1は画像を記録媒体に記録する。ユーザーは、比較情報を確認し、被写体における3D座標の算出に適している画像が取得されたときに記録指示を内視鏡装置1に入力する。そのため、内視鏡装置1は、被写体における3D座標の算出に適している画像が選択される可能性を高めることができる。
(第2の実施形態の第2の変形例)
本発明の第2の実施形態の第2の変形例を説明する。内視鏡装置1は、3D計測機能を持ち、被写体の大きさを算出する。内視鏡装置1は、図7に示すCPU18を有する。
図12を使用することにより、第2の実施形態の第2の変形例における画像処理について説明する。図12は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS108の後、3D計測機能が有効となる。表示制御部184は、ステップS107において選択された画像を表示部5に表示する(ステップS121)。内視鏡装置1は、ステップS108を実行せずにステップS121を実行してもよい。
ユーザーは、操作部4を操作することにより、位置情報を内視鏡装置1に入力する。位置情報は、ステップS121において表示された画像上の計測点の位置を示す。計測点は、被写体の大きさを計測する位置を示す。情報受付部185は、位置情報を受け付ける。計測部181は、位置情報が示す位置に計測点を設定する。ユーザーは、2つ以上の計測点の各々の位置情報を内視鏡装置1に入力する。そのため、計測部181は、ステップS121において表示された画像に2つ以上の計測点を設定する(ステップS122)。
ステップS122の後、計測部181は、被写体上の2つ以上の点の3D座標を算出する。その2つ以上の点は、ステップS122において設定された2つ以上の計測点と対応する。例えば、計測部181は、第1の2D画像および第2の2D画像を含むステレオ画像を使用することにより3D座標を算出する(ステップS123)。
ステップS123の後、計測部181は、ステップS123において算出された3D座標に基づいて被写体の大きさを算出する(ステップS124)。ステップS124が実行されたとき、画像処理が終了する。
例えば、計測部181は、被写体上の2つの点の間の3D距離を算出する。計測部181は、被写体上の3つ以上の点によって規定された3次元領域の面積を算出してもよい。計測部181は、被写体上の2つの点で規定された3次元直線と被写体上の1つの点との間の3D距離を算出してもよい。計測部181は、被写体上の3つの点で規定された3次元領域と被写体上の1つの点との間の3D距離を算出してもよい。上記の各点は、計測点と対応する。
内視鏡装置1は、3D再構成機能を有してもよい。CPU18は、2枚以上の画像を使用する3D再構成処理を実行することにより、被写体の3次元モデル(3Dモデル)を生成してもよい。3Dモデルは、被写体の3次元形状(3D形状)を示す。表示制御部184は、ステップS121において3Dモデルを表示部5に表示してもよい。計測部181は、ステップS122において2つ以上の計測点を3Dモデルに設定してもよい。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
第2の実施形態の第2の変形例において、内視鏡装置1は、ステップS107において選択された画像を使用することにより被写体の大きさを算出する。そのため、内視鏡装置1が3D座標の算出に成功する可能性が高まる。
(第2の実施形態の第3の変形例)
本発明の第2の実施形態の第3の変形例を説明する。内視鏡装置1は、撮像素子28によって取得された画像を動画として記録媒体に記録する。内視鏡装置1がその動画を再生するとき、内視鏡装置1は、第2の実施形態における画像処理と同様の画像処理を実行する。内視鏡装置1は、図7に示すCPU18を有する。
図13を使用することにより、第2の実施形態の第3の変形例における画像処理について説明する。図13は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
例えば、撮像素子28によって取得された2枚以上の画像を含む動画がメモリカード42に記録されている。制御部180は、その動画を構成する1枚の画像をメモリカード42から読み出す。これにより、制御部180は画像を取得する(ステップS131)。ステップS131の後、ステップS102が実行される。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS108の後、図12に示すステップS121からステップS124が実行されてもよい。
上記の動画がPC41内の記録媒体に記録されてもよい。PC41は、図12に示す処理と同様の処理を実行してもよい。上記の動画がクラウドサーバーなどのネットワーク装置内の記録媒体に記録されてもよい。内視鏡装置1は、ネットワーク装置と通信を実施し、動画をネットワーク装置から取得してもよい。
第2の実施形態の第3の変形例において、内視鏡装置1は、第2の実施形態と同様に、被写体における3D座標の算出に適している画像が選択される可能性を高めることができる。
(第3の実施形態)
本発明の第3の実施形態を説明する。第2の実施形態において内視鏡装置1は、カメラの撮像視野に収まる画像の全体において距離を計測する。ユーザーは画像の一部のみに注目する場合がある。第2の実施形態において内視鏡装置1は、第1の距離および第2の距離を算出する場合がある。第1の距離は、ユーザーが注目する第1の領域の点における距離を示す。第2の距離は、ユーザーが注目しない第2の領域の点における距離を示す。ユーザーが注目する第1の領域における第1の距離が適切であっても、第2の距離が適切でないために画像が選択されない可能性がある。あるいは、ユーザーが注目していない第2の領域における第2の距離が適切であり、かつ第1の距離が適切でない場合において画像が選択されてしまう可能性がある。そのため、内視鏡装置1が、ユーザーが注目する第1の領域における点の3D座標の算出に適している画像を選択しない可能性がある。
第3の実施形態において内視鏡装置1は、撮像素子28によって取得された画像に計測領域を設定する。計測領域は、ユーザーが注目する領域と対応する。内視鏡装置1は、計測領域において第2の実施形態における画像処理と同様の処理を実行する。
図7に示すCPU18は、図14に示すCPU18aに変更される。図14は、CPU18aの機能構成を示す。CPU18aの機能は、制御部180、計測部181、指標算出部182、分類処理部183、表示制御部184、情報受付部185、比較部186、選択部187、記録部188、および設定部189を含む。図14に示すブロックの少なくとも1つがCPU18aと異なる回路で構成されてもよい。図7に示す構成と同じ構成の説明を省略する。
図14に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図14に示す各部は、1つまたは複数のプロセッサを含むことができる。図14に示す各部は、1つまたは複数の論理回路を含むことができる。
設定部189は、撮像素子28によって取得された画像に計測領域を設定する(設定ステップ)。計測領域は、撮像素子28によって取得された画像の全体領域の一部である。全体領域は、カメラの撮像視野の全体と対応する。計測領域は、全体領域よりも小さい。表示制御部184は、撮像素子28によって取得された画像を表示部5に表示し、かつその画像上に計測領域を表示する(領域表示ステップ)。
ユーザーは、操作部4を操作することにより、領域情報を内視鏡装置1に入力する。領域情報は、撮像素子28によって取得された画像における計測領域の位置を示す。情報受付部185は、領域情報を受け付ける。設定部189は、領域情報に基づいて計測領域を設定する。
図15を使用することにより、第3の実施形態における画像処理について説明する。図15は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS101の後、設定部189は、ステップS101において取得された画像に計測領域を設定する(ステップS141)。ステップS141は、設定ステップと対応する。
例えば、表示制御部184は、ステップS141において画像を表示部5に表示する。ユーザーは、操作部4を操作することにより、領域情報を内視鏡装置1に入力する。カーソルが画像上に表示される例では、ユーザーは、カーソルをその画像上の所望の位置に移動させ、かつドラッグ等の操作を実行する。このとき、情報受付部185は、その位置を受け付ける。表示部5がタッチパネルである例では、ユーザーは表示部5の画面をタッチし、かつピンチ操作等の操作を実行する。このとき、情報受付部185は、その操作を通して指定された位置を受け付ける。領域情報は、情報受付部185によって受け付けられた位置を示す。設定部189は、ユーザーによって指定された位置に基づいて計測領域を設定する。
ステップS141の後、表示制御部184は、計測領域が重畳された画像を表示部5に表示する。具体的には、表示制御部184は、計測領域を示すグラフィック画像信号を生成し、かつそのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、計測領域が重畳された画像を表示する(ステップS142)。ステップS142は、領域表示ステップと対応する。
図16は、ステップS142において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG20を表示部5に表示する。画像IMG20は、被写体の2D画像である。図16に示す例では、表示制御部184は、計測領域RG20を表示部5に表示する。計測領域RG20は、画像IMG20に重畳されている。図16に示す例では、表示制御部184は、計測領域RG20を示す枠を画像IMG20上に表示する。ユーザーは、計測領域RG20の位置を確認しながら撮影の構図を調整することができる。
ステップS142の後、計測部181は、ステップS102において、計測領域の2つ以上の点の各々における距離を計測する。この場合、計測部181は、計測領域以外の領域の点における距離を計測しない。
計測部181は、ステップS102において、計測領域の2つ以上の点における距離に加えて、計測領域以外の領域の1つ以上の点における距離を計測してもよい。その場合、指標算出部182は、計測領域の2つ以上の点における距離のみに基づいて指標を算出する。
ステップS141が実行された後、指標算出部182によって算出された指標が選択条件を満たさないと比較部186がステップS106において判断する場合がある。この場合、ステップS141が再度実行される。撮影の構図が変化しない場合、設定部189は、以前に設定された計測領域と同じ計測領域を設定してもよい。したがって、ユーザーが領域情報を内視鏡装置1に再度入力する必要はない。
計測領域は、予め設定された領域であってもよい。例えば、計測領域は、画像の中心を含み、かつ所定の大きさを持つ。その場合、ユーザーが領域情報を内視鏡装置1に入力する必要はない。
表示制御部184が計測領域を表示部5に表示する必要はない。したがって、ステップS142が実行される必要はない。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS108の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。設定部189は、設定ステップ(ステップS141)において、計測領域を被写体の1枚以上の画像に設定する。計測領域は、その1枚以上の画像における2つ以上の点を含む。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、領域表示ステップ(ステップS142)において、被写体の1枚以上の画像の各々を表示部5に表示し、かつ表示部5に表示された画像上に計測領域を表示する。
本発明の各態様は次の変形例を含んでもよい。設定部189は、設定ステップ(ステップS141)において、操作部4に入力された領域情報に基づいて計測領域を設定する。領域情報は、被写体の1枚以上の画像における計測領域の位置を示す。
第3の実施形態において内視鏡装置1は、撮像素子28によって取得された画像に計測領域を設定する。内視鏡装置1は、計測領域の点におけるカメラと被写体との距離を算出する。そのため、内視鏡装置1は、計測領域における3D座標の算出に適している画像が選択される可能性を高めることができる。ユーザーは、ユーザーが注目する領域を計測領域として指定することができる。傷またはへこみなどの注目領域が画像の全体に写ることは少ない。ユーザーは、注目領域を容易に確認するために、注目領域が画像の中央に位置するように撮影の構図を調整することが多い。計測領域を限定することにより、画像の一部のみにおいて距離情報が算出される。そのため、計算の負荷が減る。
ユーザーが注目する領域が計測領域として指定される。内視鏡装置1が、計測領域における点の3D座標の算出に適していない画像を選択し、かつユーザーが計測領域を再度指定する必要がある可能性は減る。そのため、ユーザーの操作の負荷が減る。
(第3の実施形態の第1の変形例)
本発明の第3の実施形態の第1の変形例を説明する。内視鏡装置1は、セグメンテーション処理を実行することにより、撮像素子28によって取得された画像の全体領域を2つ以上の領域(セグメント)に分割する。内視鏡装置1は、2つ以上のセグメントのうちの少なくとも1つを計測領域として設定する。
図14に示すCPU18aは、図17に示すCPU18bに変更される。図17は、CPU18bの機能構成を示す。CPU18bの機能は、制御部180、計測部181、指標算出部182、分類処理部183、表示制御部184、情報受付部185、比較部186、選択部187、記録部188、設定部189、および分割部190を含む。図17に示すブロックの少なくとも1つがCPU18bと異なる回路で構成されてもよい。図14に示す構成と同じ構成の説明を省略する。
図17に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図17に示す各部は、1つまたは複数のプロセッサを含むことができる。図17に示す各部は、1つまたは複数の論理回路を含むことができる。
分割部190は、撮像素子28によって取得された画像の全体領域を2つ以上のセグメント(部分領域)に分割する(分割ステップ)。その全体領域は、その画像の画角の全体と対応する。設定部189は、少なくとも1つの部分領域に計測領域を設定する。
図18を使用することにより、第3の実施形態の第1の変形例における画像処理について説明する。図18は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS101の後、分割部190は、セグメンテーション処理を実行する。具体的には、分割部190は、撮像素子28によって取得された画像を使用することにより、被写体の形状の特徴を判断する。分割部190は、その特徴に基づいて、その画像に含まれる2つ以上の点を2つ以上のセグメントに分割する。例えば、分割部190は、Convolutional Neural Networkを使用することにより、2つ以上の点の各々を2つ以上のセグメントのうちの1つに割り当てる。これにより、分割部190は、画像の領域を2つ以上のセグメントに分割する(ステップS151)。ステップS151は、分割ステップと対応する。
分割部190は、撮像素子28によって取得された画像を使用することにより、被写体の状態を判断してもよい。例えば、分割部190は、その画像に画像処理を施すことにより、被写体のエッジを検出してもよい。分割部190は、その画像における3つ以上の点を第1の領域および第2の領域に分割してもよい。例えば、第1の領域は、エッジ上の点からなる。第2の領域は、そのエッジ以外の部分上の点からなる。
分割部190は、撮像素子28によって取得された画像の明るさまたは色に基づいて被写体の特徴を判断してもよい。分割部190は、被写体のステレオ画像にマッチング処理を施してもよく、かつそのマッチング処理において得られた相関係数に基づいて被写体の特徴を検出してもよい。分割部190は、WatershedアルゴリズムまたはDeep Learning等を使用することにより、被写体の特徴を判断してもよい。
2つ以上の点の各々は、2つ以上のセグメントのいずれか1つに分類される。2つ以上のセグメントの各々は1つ以上の点を含む。
表示制御部184は、ステップS151において、セグメントが重畳された画像を表示部5に表示する。具体的には、表示制御部184は、セグメントを示すグラフィック画像信号を生成し、かつそのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、セグメントが重畳された画像を表示する。
ステップS151の後、設定部189は、2つ以上のセグメントの各々の特徴量を算出する(ステップS152)。
例えば、設定部189は、2つ以上のセグメントの各々の面積を算出する。設定部189は、2つ以上のセグメントの各々の特徴量として輝度を算出してもよい。設定部189は、2つ以上のセグメントの各々の特徴量としてコントラストを算出してもよい。
ステップS152の後、設定部189は、ステップS152において算出された特徴量に基づいて、2つ以上のセグメントに含まれる1つ以上のセグメントを選択する。設定部189は、選択された1つ以上のセグメントに計測領域を設定する(ステップS153)。ステップS153は、設定ステップと対応する。
例えば、設定部189は、最大の面積を持つセグメントに計測領域を設定する。一般的に、ユーザーの注目する領域が大きく映るように撮影の構図が設定される。最大の面積を持つセグメントを自動的に測定領域に設定することにより、計測部181は、ユーザーによる測定領域の設定を待たずに距離を計測することができる。設定部189は、最大の輝度を持つセグメントに計測領域を設定してもよい。設定部189は、最大のコントラストを持つセグメントに計測領域を設定してもよい。
ステップS153の後、表示制御部184は、計測領域が重畳された画像を表示部5に表示する。具体的には、表示制御部184は、計測領域を示すグラフィック画像信号を生成し、かつそのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、計測領域が重畳された画像を表示する(ステップS154)。ステップS154は、領域表示ステップと対応する。ステップS154の後、ステップS102が実行される。
図19は、ステップS154において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG21を表示部5に表示する。画像IMG21は、被写体の2D画像である。図19に示す例では、表示制御部184は、セグメントSG20、セグメントSG21、セグメントSG22、セグメントSG23、セグメントSG24、セグメントSG25、セグメントSG26、セグメントSG27、およびセグメントSG28を画像IMG21上に表示する。各セグメントは画像IMG21に重畳されている。これらのセグメントは互いに異なる色またはパターンなどで表示される。表示制御部184は各セグメントを3画像IMG21に重畳する必要はない。表示制御部184は、画像IMG21が表示される領域と異なる領域に各セグメントを表示してもよい。
計測領域が設定されるときには表示制御部184は各セグメントを表示してもよいが、距離が計測されるときには表示制御部184は、設定された計測領域のセグメントのみをステップS154において表示してもよい。このとき、表示制御部184は、計測領域のセグメントを画像IMG21上に表示する、または画像IMG21が表示される領域と異なる領域に計測領域のセグメントを表示する。注目すべき計測領域以外の領域が表示されないため、表示部5の画面の視認性が向上する。
設定部189は、図19に示す各セグメントの面積を算出する。例えば、その面積は、各セグメントに含まれる画素の数である。設定部189は、最大の面積を持つセグメントに計測領域を設定する。例えば、セグメントSG26の面積は、他のセグメントの面積よりも大きい。設定部189は、セグメントSG26に計測領域を設定する。
表示制御部184は、計測領域を表示部5に表示する。図19に示す例では、表示制御部184は、計測領域を示す枠をセグメントSG26上に表示する。ユーザーは、計測領域の位置を確認することができる。
ステップS154が実行される必要はない。ステップS153が実行された後、内視鏡装置1は、ステップS154を実行せずにステップS102を実行してもよい。表示制御部184は、ステップS104において、距離情報および計測領域が重畳された画像を表示部5に表示してもよい。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS108の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。分割部190は、分割ステップ(ステップS151)において、被写体の1枚以上の画像の各々の全体領域を2つ以上の部分領域(セグメント)に分割する。設定部189は、設定ステップ(ステップS153)において、その2つ以上の部分領域に含まれる少なくとも1つの部分領域に計測領域を設定する。
第3の実施形態の第1の変形例において内視鏡装置1は、2つ以上のセグメントの少なくとも1つを計測領域として設定する。ユーザーは、計測領域を指定するための操作を実施する必要はない。そのため、計測領域を設定するためのユーザーの負担が軽減される。
(第3の実施形態の第2の変形例)
本発明の第3の実施形態の第2の変形例を説明する。内視鏡装置1は、第3の実施形態の第1の変形例と同様に、撮像素子28によって取得された画像の全体領域を2つ以上のセグメントに分割する。内視鏡装置1は、画像処理などを実行することにより、その画像における特徴領域を検出する。例えば、特徴領域は、傷が存在する領域である。特徴領域は、所定の形状または所定の色を持つ領域であってもよい。内視鏡装置1は、特徴領域が検出された1つ以上のセグメントを計測領域として設定する。内視鏡装置1は、図17に示すCPU18bを有する。
分割部190がセグメンテーション処理を実行した後、設定部189は2つ以上のセグメントの各々において特徴領域を検出する。2つ以上のセグメントの全てにおいて特徴領域が検出されるとは限らない。1つ以上のセグメントにおいて特徴領域が検出された場合、設定部189はその1つ以上のセグメントに計測領域を設定する。
図20を使用することにより、第3の実施形態の第2の変形例における画像処理について説明する。図20は、画像処理の手順を示す。図18に示す処理と同じ処理の説明を省略する。
ステップS151の後、設定部189は、特徴領域を検出するための領域検出処理を実行する(ステップS161)。
ステップS161の後、設定部189は、特徴領域が検出された1つ以上のセグメントを選択する。設定部189は、選択されたセグメントに計測領域を設定する(ステップS162)。ステップS162は、設定ステップと対応する。
ステップS162の後、表示制御部184は、ステップS154において、計測領域が重畳された画像を表示部5に表示する。
図21は、ステップS154において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG22を表示部5に表示する。画像IMG22は、被写体の2D画像である。図21に示す例では、表示制御部184は、セグメントSG20、セグメントSG21、セグメントSG22、セグメントSG23、セグメントSG24、セグメントSG25、セグメントSG26、セグメントSG27、およびセグメントSG28を画像IMG22上に表示する。各セグメントは画像IMG22に重畳されている。これらのセグメントは互いに異なる色またはパターンなどで表示される。
例えば、設定部189は、領域検出処理を実行することにより、セグメントSG26における特徴領域RG21を検出する。設定部189は、セグメントSG26に計測領域を設定する。
表示制御部184は、計測領域を表示部5に表示する。図21に示す例では、表示制御部184は、計測領域を示す枠をセグメントSG26上に表示する。ユーザーは、計測領域の位置を確認することができる。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS108の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
第3の実施形態の第2の変形例において内視鏡装置1は、特徴領域を含む1つ以上のセグメントを計測領域として設定する。ユーザーは、計測領域を指定するための操作を実施する必要はない。そのため、計測領域を設定するためのユーザーの負担が軽減される。
(第3の実施形態の第3の変形例)
本発明の第3の実施形態の第3の変形例を説明する。内視鏡装置1は、第3の実施形態の第1の変形例と同様に、撮像素子28によって取得された画像の全体領域を2つ以上のセグメントに分割する。内視鏡装置1は、ユーザーによって指定された1つ以上のセグメントを計測領域として設定する。内視鏡装置1は、図17に示すCPU18bを有する。
分割部190がセグメンテーション処理を実行した後、表示制御部184は画像を表示部5に表示する。ユーザーは、操作部4を操作することにより、セグメントを選択する。具体的には、ユーザーは、操作部4を操作することにより、セグメントを選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。選択指示は、ユーザーによって指定された1つ以上のセグメントを示す。
カーソルが画像上に表示される例では、ユーザーは、カーソルをその画像上の所望の位置に移動させ、かつクリック等の操作を実行する。このとき、情報受付部185は、その位置を受け付ける。表示部5がタッチパネルである例では、ユーザーは表示部5の画面をタッチする。ユーザーが、表示部5に表示されたボタンを押すことによりセグメントを選択してもよい。このとき、情報受付部185は、その操作を通して指定された位置を受け付ける。設定部189は、選択指示が示す位置を含むセグメントに計測領域を設定する。
図22を使用することにより、第3の実施形態の第3の変形例における画像処理について説明する。図22は、画像処理の手順を示す。図18に示す処理と同じ処理の説明を省略する。
ステップS151の後、情報受付部185は選択指示を受け付ける(ステップS171)。
ステップS171の後、設定部189は、選択指示が示す位置を含むセグメントを特定する。設定部189は、特定されたセグメントに計測領域を設定する(ステップS172)。ステップS172の後、ステップS154が実行される。
図23は、ステップS154において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG21を表示部5に表示する。図19に示す部分と同じ部分の説明を省略する。
ユーザーは、操作部4を操作することにより、セグメントを選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける。図23に示す例では、選択指示はセグメントSG26における位置を示す。設定部189は、選択指示が示す位置を含むセグメントSG26を特定し、セグメントSG26に計測領域を設定する。
表示制御部184は、計測領域を表示部5に表示する。図23に示す例では、表示制御部184は、計測領域を示す枠をセグメントSG26上に表示する。ユーザーは、計測領域の位置を確認することができる。
指標算出部182によって算出された指標が選択条件を満たさないと比較部186がステップS106において判断した場合、ステップS101からステップS106、ステップS151、ステップS171、ステップS172、およびステップS154が再度実行される。撮影の構図があまり変化しない場合、設定部189は、ステップS172が前回実行されたときに特定されたセグメントの位置と同じ位置にあるセグメントに計測領域を設定してもよい。この場合、ステップS171が実行される必要はない。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS108の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
第3の実施形態の第3の変形例において内視鏡装置1は、ユーザーによって指定された1つ以上のセグメントを計測領域として設定する。ユーザーは、セグメントにおける任意の位置を指定する操作を実施する。ユーザーが画像上の位置を正確に指定する必要はないため、計測領域を設定するためのユーザーの負担が軽減される。
特定の検査対象において、ユーザーが注目するセグメントが最大となるように撮影の構図を設定することが難しい場合がある。ユーザーがセグメントを指定できるため、内視鏡装置1は、ユーザーが所望する画像を処理することができる。
(第4の実施形態)
本発明の第4の実施形態を説明する。内視鏡装置1は、第2の実施形態における画像処理と同様の処理を実行し、3D座標の算出に適している2枚以上の画像を記録媒体に記録する。内視鏡装置1は、その2枚以上の画像のうち最も良い画像を選択する。内視鏡装置1は、図7に示すCPU18を有する。
選択部187は、前述した選択条件を満たす2枚以上の画像を選択する。記録部188は、選択部187によって選択された2枚以上の画像を記録媒体に記録する。選択部187は、その2枚以上の画像のうち最も良い指標と関連付けられている画像を選択する。これにより、選択部187は、3D座標の算出に最も適している画像を選択する。
図24を使用することにより、第4の実施形態における画像処理について説明する。図24は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS108の後、制御部180は、所定数の画像が記録媒体に記録されているか否かを判断する(ステップS181)。その所定数は2以上である。例えば、その所定数は10である。
所定数の画像が記録媒体に記録されていないと制御部180がステップS181において判断した場合、ステップS101が実行される。所定数の画像が記録媒体に記録されるまで、ステップS101からステップS108およびステップS181が繰り返し実行される。
所定数の画像が記録媒体に記録されていると制御部180がステップS181において判断した場合、選択部187は、記録媒体に記録されている2枚以上の画像の指標を互いに比較する。選択部187は、最も良い指標と関連付けられている1枚の画像を選択する(ステップS182)。ステップS182が実行されたとき、画像処理が終了する。
例えば、指標算出部182は、ステップS105において第1の指標を算出する。カメラが被写体に近づくと第1の指標は増加する。上記の2枚以上の画像は、閾値よりも大きい第1の指標を持つ。あるいは、指標算出部182は、ステップS105において第2の指標を算出する。カメラが被写体に近づくと第2の指標は減少する。上記の2枚以上の画像は、閾値よりも小さい第2の指標を持つ。
選択部187は、ステップS182において、最も大きい第1の指標を持つ画像を選択する。あるいは、選択部187は、ステップS182において、最も小さい第2の指標を持つ画像を選択する。
表示制御部184は、ステップS104において、距離情報が重畳された画像を表示部5に表示する。ユーザーは、距離情報を参照し、撮影の構図を変更する。これにより、3D座標の算出に適している画像が取得される可能性が高まる。
連続する2枚以上の画像がステップS108において記録媒体に記録される場合がある。構図があまり変化しない場合であっても多くの画像が記録媒体に記録される可能性がある。そのため、記録容量が不足する可能性がある。
連続するn枚の画像が選択条件を満たす場合、記録部188は、n枚の画像のうちの1枚のみを記録媒体に記録してもよい。数nは2以上である。例えば、数nは10である。これにより、記録容量が不足しにくくなる。
記録部188は、ステップS107において選択された画像と、前回記録された画像との間で被写体の動き量を算出してもよい。その動き量が所定量よりも大きい場合のみ、記録部188は、ステップS107において選択された画像を記録媒体に記録してもよい。例えば、その所定量は10pixelである。これにより、記録容量が不足しにくくなる。
ユーザーが撮影指示を内視鏡装置1に入力する前、画像の取得と画像の表示とが繰り返し実行されてもよい。ユーザーは、操作部4を操作することにより、撮影指示を内視鏡装置1に入力してもよい。情報受付部185は、撮影指示を受け付けてもよい。情報受付部185が撮影指示を受け付けたとき、ステップS102が実行されてもよい。
ユーザーは、操作部4を操作することにより、記録指示を内視鏡装置1に入力してもよい。情報受付部185は、記録指示を受け付けてもよい。所定数の画像が記録媒体に記録されていないと制御部180がステップS181において判断し、かつ情報受付部185が記録指示を受け付けた場合、ステップS182が実行されてもよい。
ステップS182の後、表示制御部184は、ステップS182において選択された画像を表示部5に表示してもよい。ユーザーは、表示部5に表示された画像を確認してもよい。ユーザーは、操作部4を操作することにより、画像を選択するための選択指示を内視鏡装置1に入力してもよい。情報受付部185は、選択指示を受け付けてもよい。情報受付部185が選択指示を受け付けた場合、ステップS182において選択された画像が有効となる。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS182の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
第4の実施形態において、内視鏡装置1は、3D座標の算出に適している2枚以上の画像のうち最も良い画像を選択する。ユーザーは、撮影の構図を細かく設定する必要はない。ユーザーは、撮影の構図を大まかに設定してもよい。そのため、ユーザーの負担が軽減される。
(第4の実施形態の変形例)
本発明の第4の実施形態の変形例を説明する。内視鏡装置1は、2種類以上の指標を算出し、3D座標の算出に適している2枚以上の画像を記録媒体に指標毎に記録する。内視鏡装置1は、その2枚以上の画像のうち最も良い画像を指標毎に選択する。内視鏡装置1は、指標毎に選択された画像を表示する。これにより、内視鏡装置1は2枚以上の画像を表示する。ユーザーは、表示された2枚以上の画像のうちの1枚を選択する。内視鏡装置1は、図7に示すCPU18を有する。
図25を使用することにより、第4の実施形態の変形例における画像処理について説明する。図25は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS104の後、指標算出部182は、ステップS102において計測された距離に基づいて2種類以上の指標を算出する。例えば、指標算出部182は、指標Aおよび指標Bを算出する。指標算出部182は、その2種類以上の指標を、その距離を算出するために使用された画像と関連付ける。その2種類以上の指標が、撮像素子28によって取得された各画像に関連付けられる(ステップS191)。ステップS191は、指標算出ステップと対応する。
ステップS191の後、比較部186は、指標算出部182によって算出された2種類以上の指標の各々と閾値とを比較する。比較部186は、各指標が選択条件を満たすか否かを判断する。例えば、比較部186は、指標Aが選択条件を満たすか否かを判断し、かつ指標Bが選択条件を満たすか否かを判断する。指標Aと比較される指標は、指標Bと比較される指標と異なっていてもよい(ステップS192)。ステップS192は、比較ステップと対応する。
2種類以上の指標の全てが選択条件を満たさないと比較部186がステップS192において判断した場合、ステップS101が実行される。1種類以上の指標が選択条件を満たすと比較部186がステップS192において判断した場合、選択部187は、ステップS107において、その1種類以上の指標と関連付けられている画像を選択する。
ステップS107の後、記録部188は、ステップS108において、選択部187によって選択された画像を記録媒体に記録する。例えば、指標Aが選択条件を満たす場合、記録部188は、ステップS108において、その指標Aと関連付けられている画像を記録媒体に記録する。指標Bが選択条件を満たす場合、記録部188は、ステップS108において、その指標Bと関連付けられている画像を記録媒体に記録する。指標Aおよび指標Bが選択条件を満たす場合、記録部188は、ステップS108において、その指標Aおよびその指標Bと関連付けられている画像を記録媒体に記録する。
ステップS108の後、制御部180は、所定数以上の画像が記録媒体に指標毎に記録されているか否かを判断する。例えば、制御部180は、指標Aと関連付けられている所定数以上の画像が記録媒体に記録されているか否かを判断する。また、制御部180は、指標Bと関連付けられている所定数以上の画像が記録媒体に記録されているか否かを判断する(ステップS193)。その所定数は2以上である。例えば、その所定数は10である。
1種類以上の指標に関して所定数以上の画像が記録媒体に記録されていないと制御部180がステップS193において判断した場合、ステップS101が実行される。制御部180が、2種類以上の指標の全てに関して所定数以上の画像が記録媒体に記録されているとステップS193において判断した場合、選択部187は、図24に示すステップS182と同様の処理を指標毎に実行し、最も良い1枚の画像を指標毎に選択する。例えば、制御部180は、2枚以上の画像のうち最も良い指標Aと関連付けられている画像を選択する。また、制御部180は、2枚以上の画像のうち最も良い指標Bと関連付けられている画像を選択する(ステップS194)。
ステップS194の後、表示制御部184は、ステップS194において選択された画像を表示部5に表示する。例えば、表示制御部184は、最も良い指標Aと関連付けられている画像を表示部5に表示し、かつ最も良い指標Bと関連付けられている画像を表示部5に表示する(ステップS195)。
表示制御部184は、ステップS194において選択された画像と関連付けられている指標を表示部5に表示してもよい。例えば、表示制御部184は、その指標をその画像上に表示してもよい。つまり、表示制御部184は、その指標が重畳された画像を表示部5に表示してもよい。ユーザーは、指標を確認することができる。
2種類以上の指標の各々と関連付けられている画像が表示された後、ユーザーは、操作部4を操作することにより、画像を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける(ステップS196)。その選択指示は、表示部5に表示された2枚以上の画像のうちのいずれか1枚を示す。その選択指示は、表示部5に表示された2枚以上の画像のうちの少なくとも2枚を示してもよい。
ステップS196の後、選択部187は、選択指示が示す画像を選択する(ステップS197)。ステップS197が実行されたとき、画像処理が終了する。
ステップS192の代わりに図10に示すステップS111からステップS113が実行されてもよい。この場合、比較部186は、ステップS111において、比較情報を指標毎に生成する。
ステップS197の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
第4の実施形態の変形例において、内視鏡装置1は、3D座標の算出に適している2枚以上の画像をユーザーに提示する。ユーザーは、その2枚以上の画像のうちの1枚を選択することができる。
(第5の実施形態)
本発明の第5の実施形態を説明する。内視鏡装置1は、3D再構成機能を持つ。内視鏡装置1は、3D再構成処理を実行し、被写体の3Dモデルを生成する。3Dモデルは、被写体の3D形状を示す。内視鏡装置1は、3Dモデルを表示する。
図7に示すCPU18は、図26に示すCPU18cに変更される。図26は、CPU18cの機能構成を示す。CPU18cの機能は、制御部180、計測部181、指標算出部182、分類処理部183、表示制御部184、情報受付部185、比較部186、選択部187、記録部188、および3Dモデル生成部191を含む。図26に示すブロックの少なくとも1つがCPU18cと異なる回路で構成されてもよい。図7に示す構成と同じ構成の説明を省略する。
図26に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図26に示す各部は、1つまたは複数のプロセッサを含むことができる。図26に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dモデル生成部191は、撮像素子28によって取得された1枚以上の画像に基づいて被写体上の2つ以上の点の3D座標を算出し、かつその2つ以上の点の3D座標を含む3Dモデルを生成する(形状算出ステップ)。例えば、3Dモデル生成部191は、ステレオ画像を使用することにより3Dモデルを生成する。3Dモデル生成部191は、形状算出部として機能する。表示制御部184は、3Dモデルを表示部5に表示することにより、被写体の3D形状を表示部5に表示する(形状表示ステップ)。
ステレオ画像が使用される場合、ステレオ光学系が、光学アダプターとして挿入部2の先端20に装着される。ステレオ光学系は第1の光学系および第2の光学系を有する。ステレオ光学系は、互いに異なる2つの光学系を通して取得された2つの光学像を撮像素子28に入射させる。ステレオ光学系が製造されるとき、第1の光学系および第2の光学系の間の位置の関係が得られる。また、ステレオ光学系が製造されるとき、第1の光学系および第2の光学系の間の撮像方向の関係が得られる。したがって、ステレオ画像が生成されるとき、カメラの位置およびカメラの姿勢の各々と対応するパラメータは既知である。3Dモデル生成部191は、そのパラメータを使用することにより、被写体上の2つ以上の点の3D座標を算出する。
図27および図28を使用することにより、第5の実施形態における画像処理について説明する。図27および図28は、画像処理の手順を示す。図8に示す処理と同じ処理の説明を省略する。
ステップS104の後、制御部180は、後述するステップS205において開始された3D再構成処理が終了したか否かを判断する(ステップS201)。
3Dモデル生成部191が、後述する3D再構成処理を開始する前、制御部180は、3D再構成処理が終了していないと判断する。3Dモデル生成部191がステップS205において3D再構成処理を開始し、かつ3Dモデル生成部191が3D再構成処理を終了していない場合、制御部180は、3D再構成処理が終了していないと判断する。3Dモデル生成部191が3D再構成処理を終了し、かつ次の3D再構成処理を開始していない場合、制御部180は、3D再構成処理が終了したと判断する。
3D再構成処理が終了していないと制御部180がステップS201において判断した場合、ステップS204が実行される。3D再構成処理が終了したと制御部180がステップS201において判断した場合、表示制御部184は、3Dモデル生成部191によって生成された3Dモデルを表示部5に表示する(ステップS202)。ステップS202は、形状表示ステップと対応する。表示制御部184は、被写体の画像と3Dモデルとを同時に表示部5に表示する。
図29は、ステップS104において表示部5に表示された画像の例を示す。表示部5は、表示画面50を有する。表示制御部184は、画像IMG10を表示画面50に表示する。画像IMG10は、図9に示す画像IMG10と同じである。3D再構成処理が終了していない場合、表示制御部184は、メッセージMS30を表示画面50の領域RG30に表示する。メッセージMS30は、3D再構成処理が実行中であることを示す。
図30は、ステップS202において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG10および3DモデルMD30を表示画面50に表示する。画像IMG10は、図9に示す画像IMG10と同じである。3DモデルMD30は、図29に示す領域RG30に表示される。表示制御部184は、画像IMG10を表示画面50の第1の領域に表示し、3DモデルMD30を表示画面50の第2の領域に表示する。第2の領域は第1の領域と異なる。3DモデルMD30は、画像IMG10と重ならない。
ユーザーは、3DモデルMD30を確認することにより、被写体の状態を判断することができる。例えば、ユーザーは、傷などの異常が被写体上に存在するか否かを判断することができる。表示制御部184は、内視鏡の視点から見た被写体の3DモデルMD30を表示部5に表示する。そのため、ユーザーは、被写体の表面に対するカメラの姿勢を容易に確認することができる。また、ユーザーは、操作部4を操作することにより、被写体の3DモデルMD30を回転させてもよい。これにより、ユーザーは、内視鏡の視点を、被写体の特徴をよりとらえやすい視点に変更することができる。
計測部181が被写体の領域における3D座標を算出できない場合がある。この場合、3DモデルMD30においてその領域は表示されない。ユーザーは、ユーザーが注目している領域の3Dモデルが得られたか否かを判断することができる。3Dモデルが領域RG30に表示されない場合、計測部181が3D座標を計算中である可能性がある。図29に示すメッセージMS30が表示されるため、ユーザーは、計測部181が3D座標を計算中である場合と、計測部181が3D座標を算出できない場合とを区別することができる。
計測部181によって算出された3D座標がノイズを含む場合がある。この場合、そのノイズの影響が3DモデルMD30に現れる。ユーザーは、ノイズが小さいか否かを判断することができる。ユーザーは、上記の判断を実行することにより、妥当な3Dモデルが得られたか否かを判断することができる。ユーザーは、画像IMG10と一緒に3DモデルMD30を確認することができる。計測部181が3D座標を計算中である場合、ユーザーは、検査を中断せずに検査を継続することができる。妥当な3DモデルMD30が得られなかったとユーザーが判断した場合、ユーザーは撮影の構図を再度設定することができる。
表示制御部184は、3DモデルMD30が表示されるか否かに応じて画像IMG10の大きさを変更してもよい。例えば、前述した第2の実施形態において3DモデルMD30は表示されない。この場合、表示制御部184は、画像IMG10が図30に示す画像IMG10よりも大きくなるように画像IMG10を表示画面50に表示してもよい。表示制御部184は、画像IMG10の一部と3DモデルMD30の一部とが互いに重なるように画像IMG10および3DモデルMD30を表示画面50に表示してもよい。表示制御部184は、3DモデルMD30と画像IMG10とを交互に切り替えてもよい。これにより、表示制御部184は、ユーザーが、画像IMG10を使用する検査と、3DモデルMD30の確認とを実施するのに適した大きさを持つ画像IMG10および3DモデルMD30を表示することができる。
表示制御部184は、内視鏡の視点とは異なる視点から見た被写体の3Dモデルを表示部5に表示してもよい。これにより、ユーザーは、妥当な3Dモデルが得られたか否かを容易に判断することができる。
3Dモデルが表示部5に表示され、かつユーザーが3Dモデルの品質に満足する場合、ユーザーは、操作部4を操作することにより終了指示を内視鏡装置1に入力する。情報受付部185は、終了指示を受け付ける。制御部180は、情報受付部185が終了指示を受け付けたか否かを判断する。これにより、制御部180は、画像処理の終了が指示されたか否かを判断する(ステップS203)。
情報受付部185が終了指示を受け付けた場合、制御部180は、画像処理の終了が指示されたと判断する。情報受付部185が終了指示を受け付けていない場合、制御部180は、画像処理の終了が指示されていないと判断する。
画像処理の終了が指示されたと制御部180がステップS203において判断した場合、画像処理が終了する。画像処理の終了が指示されていないと制御部180がステップS203において判断した場合、制御部180は、3D再構成処理が実行中であるか否かを判断する(ステップS204)。
3Dモデル生成部191が、後述する3D再構成処理を開始する前、制御部180は、3D再構成処理が実行中ではないと判断する。3Dモデル生成部191がステップS205において3D再構成処理を開始し、かつ3Dモデル生成部191が3D再構成処理を終了していない場合、制御部180は、3D再構成処理が実行中であると判断する。3Dモデル生成部191が3D再構成処理を終了し、かつ次の3D再構成処理を開始していない場合、制御部180は、3D再構成処理が実行中ではないと判断する。
3D再構成処理が実行中であると制御部180がステップS204において判断した場合、ステップS101が実行される。3D再構成処理が実行中ではないと制御部180がステップS204において判断した場合、ステップS105が実行される。
ステップS108の後、3Dモデル生成部191は3D再構成処理を開始する(ステップS205)。ステップS205は、形状算出ステップと対応する。ステップS205の後、ステップS101が実行される。
3Dモデル生成部191は、精密な3D形状を算出するためのアルゴリズムを使用することにより3D再構成処理を実行する。例えば、3D再構成処理は、数秒の実行時間を必要とする。3Dモデル生成部191は3D再構成処理をバックグラウンドで実行する。そのため、3D再構成処理は、距離の計測および指標の算出と同時に実行される。
例えば、内視鏡装置1の計算リソースに制約があり、内視鏡装置1は2つ以上の3D再構成処理を同時に実行することができない。3Dモデル生成部191が3D再構成処理を終了するまで次の3D再構成処理は実行されない。
選択部187は、前述した選択条件を満たす画像をステップS107において選択する。記録部188は、その画像をステップS108において記録媒体に記録する。3Dモデル生成部191は、ステップS205において、その画像を使用する3D再構成処理を開始する。
3Dモデル生成部191が3D再構成処理を実行している間、3D再構成処理が終了していないと制御部180はステップS201において判断する。そのため、その3D再構成処理において生成される3Dモデルは表示部5に表示されない。3Dモデル生成部191が3D再構成処理を実行している間、3D再構成処理が実行中であると制御部180はステップS204において判断する。そのため、前述した選択条件を満たす画像は選択されず、新たな3D再構成処理は開始されない。
3Dモデル生成部191が3D再構成処理を終了した後、3D再構成処理が終了したと制御部180はステップS201において判断する。そのため、表示制御部184は、ステップS202において3Dモデルを表示部5に表示する。表示された3Dモデルは、次の3Dモデルが完成するまで表示され続ける。3Dモデル生成部191が3D再構成処理を終了し、かつ選択部187がステップS107において選択条件を満たす画像を選択した後、3Dモデル生成部191は、ステップS205において、その画像を使用する3D再構成処理を開始する。
図31は、3D再構成処理が実行される状況を示す。撮像素子28は、2枚以上の画像を順次取得する。その2枚以上の画像が示されている。図31に示す例では、10枚の画像が示されている。図31に示す右方向は、時間を示す。図31における各画像の位置は、各画像が取得された時刻を示す。
図31に示す例では、画像IMG30がステップS108において記録媒体に記録される。例えば、画像IMG30は、2枚の2D画像を含むステレオ画像である。3Dモデル生成部191は、画像IMG30を使用することにより3D再構成処理を実行する。
3Dモデル生成部191が3D再構成処理を実行している間、撮像素子28は画像を順次取得する。3Dモデル生成部191が3D再構成処理を実行している間、選択条件を満たす画像は選択されない。
3Dモデル生成部191が3D再構成処理を実行している間、ステップS104は繰り返し実行される。表示制御部184は、ステップS104において、距離情報が重畳された画像を表示部5に表示する。ユーザーは、距離情報を参照し、撮影の構図を変更することができる。
図31に示す例では、3Dモデル生成部191は3DモデルMD31を生成し、3D再構成処理を終了する。表示制御部184は3DモデルMD31を表示部5に表示する。
ユーザーは、3DモデルMD31を確認する。ユーザーが3DモデルMD31の品質に満足しない場合、ユーザーは終了指示を内視鏡装置1に入力しない。この場合、ユーザーは、撮影の構図を変更することができる。選択条件を満たす画像が記録媒体に再度記録される。図31に示す例では、画像IMG31がステップS108において記録媒体に記録される。3Dモデル生成部191は、画像IMG31を使用することにより3D再構成処理を実行する。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS202の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
3Dモデル生成部191が画像の全体領域において3D再構成処理を実行する場合、処理時間が長い可能性がある。計測領域がステップS141、ステップS153、ステップS162、またはステップS172において設定される場合、3D再構成処理に必要な処理時間が短くなる。
本発明の各態様は次の変形例を含んでもよい。3Dモデル生成部191(形状算出部)は、記録媒体に記録された少なくとも1枚の画像を使用することにより、形状算出ステップ(ステップS205)において、被写体の3D形状(3Dモデル)を算出する。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、形状表示ステップ(ステップS202)において、3D形状(3Dモデル)を表示部5に表示する。
第5の実施形態において、内視鏡装置1は、被写体の3Dモデルを表示する。ユーザーは、3Dモデルを確認することにより、被写体の状態を判断することができる。また、ユーザーは、妥当な3Dモデルが得られたか否かを判断することができる。
3D再構成処理が実行されている間、内視鏡装置1は、距離を計測し、距離情報を表示する。ユーザーは、3D再構成処理が終了するのを待たずに、構図を調整することができる。そのため、内視鏡装置1は、処理時間を短縮することができる。その処理時間は、ユーザーが満足する品質を持つ3Dモデルを内視鏡装置1が取得するまでの時間を示す。
(第6の実施形態)
本発明の第6の実施形態を説明する。内視鏡装置1は、第5の実施形態と同様に被写体の3Dモデルを生成する。内視鏡装置1は、前述した選択条件を満たす2枚以上の画像を記録媒体に順次記録する。内視鏡装置1は、2回以上の3D再構成処理を順次実行し、2つ以上の3Dモデルを順次生成する。内視鏡装置1は、その2つ以上の3Dモデルを表示する。内視鏡装置1は、図26に示すCPU18cを有する。
3Dモデル生成部191は、第5の実施形態と同様に被写体の3Dモデルを生成する(形状算出ステップ)。表示制御部184は、第5の実施形態と同様に、3Dモデルを表示部5に表示する(形状表示ステップ)。表示制御部184は、3Dモデルを生成するために使用された画像を表示部5に表示する(画像表示ステップ)。3D再構成処理が実行される前、または3D再構成処理が実行されているとき、表示制御部184は、その画像を表示部5に表示する。
図27および図32を使用することにより、第6の実施形態における画像処理について説明する。図27および図32は、画像処理の手順を示す。図27に示す処理は、第5の実施形態における処理と同じである。そのため、図27に示す処理の説明を省略する。また、図8に示す処理と同じ処理の説明を省略する。
ステップS108の後、表示制御部184は、ステップS108において記録媒体に記録された画像を表示部5に表示する(ステップS211)。ステップS211は、画像表示ステップと対応する。
ステップS211の後、制御部180は、3D再構成処理が実行中であるか否かを判断する(ステップS212)。ステップS212は、図28に示すステップS204と同様である。
3D再構成処理が実行中であると制御部180がステップS212において判断した場合、ステップS101が実行される。3D再構成処理が実行中ではないと制御部180がステップS212において判断した場合、ステップS205が実行される。
選択部187は、前述した選択条件を満たす画像をステップS107において選択する。記録部188は、その画像をステップS108において記録媒体に記録する。3Dモデル生成部191は、ステップS205において、その画像を使用する3D再構成処理を開始する。
3Dモデル生成部191が3D再構成処理を実行している間、3D再構成処理が終了していないと制御部180はステップS201において判断する。そのため、その3D再構成処理において生成される3Dモデルは表示部5に表示されない。
3Dモデル生成部191が3D再構成処理を実行している間、記録部188は、ステップS108において、選択条件を満たす画像を記録媒体に記録する。3Dモデル生成部191が3D再構成処理を実行している間、3D再構成処理が実行中であると制御部180はステップS212において判断する。そのため、前述した選択条件を満たす画像を使用する新たな3D再構成処理は開始されない。
3Dモデル生成部191が3D再構成処理を終了した後、3D再構成処理が終了したと制御部180はステップS201において判断する。そのため、表示制御部184は、ステップS202において3Dモデルを表示部5に表示する。表示された3Dモデルは、次の3Dモデルが完成するまで表示され続ける。3Dモデル生成部191が3D再構成処理を終了した後、3D再構成処理が実行中ではないと制御部180はステップS212において判断する。3Dモデル生成部191は、ステップS205において、新たな3D再構成処理を開始する。このとき、3Dモデル生成部191は、ステップS108において画像が記録媒体に記録された順、すなわちステップS211において画像が表示された順に画像を使用する。
図33は、ステップS202およびステップS211において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG40を表示画面50に表示する。画像IMG40は、被写体の2D画像である。画像IMG40は、図9に示す画像IMG10と同様に、距離情報が重畳された画像である。
表示制御部184は、3DモデルMD40を表示画面50に表示する。また、表示制御部184は、ステップS108において記録媒体に記録された画像IMG41および画像IMG42を表示画面50に表示する。表示制御部184は、メッセージMS40、メッセージMS41、およびメッセージMS42を表示画面50に表示する。メッセージMS40は、3DモデルMD40を生成する3D再構成処理が終了していることを示す。メッセージMS41は、内視鏡装置1が、画像IMG41を使用する3D再構成処理を実行中であることを示す。メッセージMS41は、内視鏡装置1が、画像IMG42を使用する3D再構成処理の開始を待機していることを示す。
図34は、3D再構成処理が実行される状況を示す。撮像素子28は、2枚以上の画像を順次取得する。その2枚以上の画像が示されている。図34に示す例では、10枚の画像が示されている。図34に示す右方向は、時間を示す。図34における各画像の位置は、各画像が取得された時刻を示す。
図34に示す例では、画像IMG43がステップS108において記録媒体に記録される。例えば、画像IMG43は、2枚の2D画像を含むステレオ画像である。3Dモデル生成部191は、画像IMG43を使用することにより3D再構成処理を実行する。
3Dモデル生成部191が3D再構成処理を実行している間、撮像素子28は画像を順次取得する。3Dモデル生成部191が3D再構成処理を実行している間、画像IMG44および画像IMG45が記録媒体に記録される。画像IMG44および画像IMG45は、選択条件を満たす。3Dモデル生成部191が3D再構成処理を実行している間、内視鏡装置1は、画像IMG44を使用する3D再構成処理の開始を待機する。また、内視鏡装置1は、画像IMG45を使用する3D再構成処理の開始を待機する。
3Dモデル生成部191が3D再構成処理を実行している間、ステップS104は繰り返し実行される。表示制御部184は、ステップS104において、距離情報が重畳された画像を表示部5に表示する。ユーザーは、距離情報を参照し、撮影の構図を変更することができる。
図34に示す例では、3Dモデル生成部191は3DモデルMD41を生成し、3D再構成処理を終了する。表示制御部184は3DモデルMD41を表示部5に表示する。
ユーザーは、3DモデルMD41を確認する。ユーザーが3DモデルMD41の品質に満足しない場合、ユーザーは終了指示を内視鏡装置1に入力しない。3Dモデル生成部191が3D再構成処理を終了した後、3Dモデル生成部191は、画像IMG44を使用することにより3D再構成処理を実行する。内視鏡装置1は、画像IMG45を使用する3D再構成処理の開始を待機する。3D再構成処理が実行されている間、ユーザーは、撮影の構図を変更することができる。
図34に示す例では、3Dモデル生成部191は、2枚以上の画像が選択された順、すなわち2枚以上の画像が記録媒体に記録された順に3D再構成処理を実行する。図34に示す例では、画像IMG43、画像IMG44、および画像IMG45が記録媒体に順に記録される。3Dモデル生成部191は、最初に記録媒体に記録された画像IMG43を使用する3D再構成処理を実行する。画像IMG43を使用する3D再構成処理が終了した後、3Dモデル生成部191は、画像IMG44を使用する3D再構成処理を実行する。画像IMG44を使用する3D再構成処理が終了した後、3Dモデル生成部191は、画像IMG45を使用する3D再構成処理を実行する。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS202の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、画像表示ステップ(ステップS211)において、記録媒体に記録された少なくとも1枚の画像を表示部5に表示する。
第6の実施形態において、内視鏡装置1は、被写体の2つ以上の3Dモデルを順次表示する。ユーザーは、2つ以上の3Dモデルを確認することにより、被写体の状態を判断することができる。また、ユーザーは、妥当な3Dモデルが得られたか否かを判断することができる。3D再構成処理が実行されている間、内視鏡装置1は、3D座標の算出に適している画像を記録媒体に記録することができる。
3D再構成処理が実行されている間、ユーザーは、開始を待機している3D再構成処理に使用される画像を確認する。これにより、ユーザーは、検査に適した数の画像が取得されているか否かを確認しながら、またはどの画像が次の3D再構成処理に使用されるのかを予想しながら検査を継続することができる。
(第6の実施形態の第1の変形例)
本発明の第6の実施形態の第1の変形例を説明する。内視鏡装置1は、第6の実施形態と同様に2回以上の3D再構成処理を順次実行し、2つ以上の3Dモデルを順次生成する。内視鏡装置1は、その2つ以上の3Dモデルを表示する。3D再構成処理に使用される画像の数よりも多い数の画像が使用できる場合、内視鏡装置1は、3D再構成処理に使用される画像を選択する。内視鏡装置1は、選択された画像を使用することにより3D再構成処理を実行する。内視鏡装置1は、図26に示すCPU18cを有する。
3Dモデル生成部191は、第5の実施形態と同様に被写体の3Dモデルを生成する(形状算出ステップ)。表示制御部184は、第5の実施形態と同様に、3Dモデルを表示部5に表示する(形状表示ステップ)。表示制御部184は、第6の実施形態と同様に、3Dモデルを生成するために使用された画像を表示部5に表示する(画像表示ステップ)。3D再構成処理が実行される前、または3D再構成処理が実行されているとき、表示制御部184は、その画像を表示部5に表示する。
選択部187は、記録媒体に記録されている少なくとも1枚の画像のうち1枚以上の画像を選択する(画像選択ステップ)。このとき、選択部187は、画像の優先度を判断し、その優先度に従って画像を選択する。例えば、選択部187は、指標算出部182によって算出された指標に基づいて優先度を判断する。3Dモデル生成部191は、選択部187によって選択された画像を使用することにより3D再構成処理を実行する。
図27および図35を使用することにより、第6の実施形態の第1の変形例における画像処理について説明する。図27および図35は、画像処理の手順を示す。図27に示す処理は、第5の実施形態における処理と同じである。そのため、図27に示す処理の説明を省略する。また、図32に示す処理と同じ処理の説明を省略する。
3D再構成処理が実行中ではないと制御部180がステップS212において判断した場合、選択部187は、3D再構成処理に使用される画像を選択する(ステップS221)。ステップS221は、画像選択ステップと対応する。ステップS221の後、ステップS205が実行される。
選択部187は、記録媒体に記録されている少なくとも1枚の画像のうち3D再構成処理に使用されていない画像の数を確認する。その数が1であるとき、選択部187は、3D再構成処理に使用されていない1枚の画像を選択する。その数が2以上であるとき、選択部187は、3D再構成処理に使用されていない2枚以上の画像の優先度を判断する。選択部187は、その優先度に従って1枚の画像を選択する。例えば、選択部187は、その2枚以上の画像のうち最も良い指標と関連付けられている画像を選択する。3Dモデル生成部191は、選択部187によって選択された画像を使用する3D再構成処理を開始する。
図36は、3D再構成処理が実行される状況を示す。撮像素子28は、2枚以上の画像を順次取得する。その2枚以上の画像が示されている。図36に示す例では、10枚の画像が示されている。図36に示す右方向は、時間を示す。図36における各画像の位置は、各画像が取得された時刻を示す。
図36に示す例では、画像IMG43がステップS108において記録媒体に記録される。例えば、画像IMG43は、2枚の2D画像を含むステレオ画像である。3Dモデル生成部191は、画像IMG43を使用することにより3D再構成処理を実行する。
3Dモデル生成部191が3D再構成処理を実行している間、撮像素子28は画像を順次取得する。3Dモデル生成部191が3D再構成処理を実行している間、画像IMG44および画像IMG45が記録媒体に記録される。画像IMG44および画像IMG45は、選択条件を満たす。3Dモデル生成部191が3D再構成処理を実行している間、内視鏡装置1は、画像IMG44を使用する3D再構成処理の開始を待機する。また、内視鏡装置1は、画像IMG45を使用する3D再構成処理の開始を待機する。
図36に示す例では、3Dモデル生成部191は3DモデルMD41を生成し、3D再構成処理を終了する。表示制御部184は3DモデルMD41を表示部5に表示する。
3Dモデル生成部191が3D再構成処理を終了したとき、画像IMG44および画像IMG45が記録媒体に記録されている。画像IMG44および画像IMG45は3D再構成処理にまだ使用されてない。例えば、画像IMG45の指標は、画像IMG44の指標よりも良い。選択部187は、画像IMG45を選択する。3Dモデル生成部191は、画像IMG45を使用することにより3D再構成処理を実行する。内視鏡装置1は、画像IMG44を使用する3D再構成処理の開始を待機する。
図36に示す例では、2枚以上の画像が記録媒体に記録されている場合、3Dモデル生成部191は、その2枚以上の画像の優先度に従って3D再構成処理を実行する。図36に示す例では、画像IMG43、画像IMG44、および画像IMG45が記録媒体に順に記録される。3Dモデル生成部191は、最初に記録媒体に記録された画像IMG43を使用する3D再構成処理を実行する。画像IMG43を使用する3D再構成処理が終了した後、選択部187は画像IMG44および画像IMG45の優先度を判断し、かつ画像IMG45を選択する。3Dモデル生成部191は、画像IMG45を使用する3D再構成処理を実行する。
選択部187は、3D再構成処理に使用されていない3枚以上の画像の優先度を判断してもよい。選択部187は、3枚以上の画像のうちの2枚以上を選択してもよい。3Dモデル生成部191は、選択部187によって選択された2枚以上の画像を使用することにより3D再構成処理を実行してもよい。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS202の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。選択部187は、画像選択ステップ(ステップS221)において、記録媒体に記録されている少なくとも1枚の画像のうち1枚以上の画像を選択する。3Dモデル生成部191(形状算出部)は、形状算出ステップ(ステップS205)において、画像選択ステップにおいて選択された1枚以上の画像を使用することにより被写体の3D形状を算出する。
第6の実施形態の第1の変形例において、内視鏡装置1は、記録媒体に記録されている少なくとも1枚の画像の優先度に従って1枚以上の画像を選択する。内視鏡装置1は、選択された1枚以上の画像を使用することにより3D再構成処理を実行する。内視鏡装置1は、相対的に高い品質を持つ画像を優先的に使用することにより3D再構成処理を実行することができる。
(第6の実施形態の第2の変形例)
本発明の第6の実施形態の第2の変形例を説明する。内視鏡装置1は、第6の実施形態と同様に2回以上の3D再構成処理を順次実行し、2つ以上の3Dモデルを順次生成する。内視鏡装置1は、その2つ以上の3Dモデルを表示する。3D再構成処理に使用される画像の数よりも多い数の画像が使用できる場合、内視鏡装置1は、画像を選択する指示をユーザーから受け付ける。内視鏡装置1は、その指示に基づいて画像を選択する。内視鏡装置1は、選択された画像を使用することにより3D再構成処理を実行する。内視鏡装置1は、図26に示すCPU18cを有する。
図27および図37を使用することにより、第6の実施形態の第2の変形例における画像処理について説明する。図27および図37は、画像処理の手順を示す。図27に示す処理は、第5の実施形態における処理と同じである。そのため、図27に示す処理の説明を省略する。また、図35に示す処理と同じ処理の説明を省略する。
3D再構成処理が実行中であると制御部180がステップS212において判断した場合、表示制御部184は、3D再構成処理に使用される画像の選択をユーザーに指示するメッセージを表示部5に表示する。この処理は、図37に示されていない。ユーザーは、操作部4を操作することにより、画像を選択するための選択指示を内視鏡装置1に入力する。情報受付部185は、選択指示を受け付ける(ステップS231)。その選択指示は、表示部5に表示された1枚以上の画像のうちのいずれか1枚を示す。ステップS231の後、ステップS101が実行される。
図38は、ステップS202およびステップS211において表示部5に表示された画像の例を示す。表示制御部184は、画像IMG50を表示画面50に表示する。画像IMG50は、被写体の2D画像である。画像IMG50は、図9に示す画像IMG10と同様に、距離情報が重畳された画像である。
表示制御部184は、ステップS108において記録媒体に記録された画像IMG51、画像IMG52、および画像IMG53を表示画面50に表示する。表示制御部184は、メッセージMS50、メッセージMS51、およびメッセージMS52を表示画面50に表示する。メッセージMS50は、内視鏡装置1が画像IMG51を使用する3D再構成処理を実行中であることを示す。メッセージMS51は、内視鏡装置1が、画像IMG52を使用する3D再構成処理の開始を待機していることを示す。メッセージMS52は、内視鏡装置1が、画像IMG53を使用する3D再構成処理の開始を待機していることを示す。
ユーザーは、画像IMG52または画像IMG53を使用する3D再構成処理がまだ開始されていないことを確認する。ユーザーは、画像IMG52および画像IMG53を確認し、かつ画像IMG52および画像IMG53のうちの1枚を選択する。図38に示す例では、ユーザーは、画像IMG53を選択する。このとき、ユーザーは、操作部4を操作し、選択指示を内視鏡装置1に入力する。情報受付部185は、画像IMG53を示す選択指示を受け付ける。
表示制御部184は、画像IMG53が選択されたことを示す情報を表示画面50に表示する。図38に示す例では、表示制御部184は、画像IMG53を囲む枠を表示する。ユーザーは、画像IMG53が次の3D再構成処理に使用されることを確認することができる。
選択部187は、ステップS221において、以下の処理を実行する。選択部187は、ステップS231が実行されたか否かを判断する。ステップS231が実行されていない場合、選択部187は、第6の実施形態の第1の変形例と同様の方法を使用することにより1枚の画像を選択する。ステップS231が実行された場合、選択部187は、ステップS231において受け付けられた選択指示が示す1枚の画像を選択する。
ユーザーは、3D再構成処理に使用されていない3枚以上の画像のうち2枚以上の画像を選択するための選択指示を内視鏡装置1に入力してもよい。選択部187は、選択指示が示す2枚以上の画像を選択してもよい。3Dモデル生成部191は、選択部187によって選択された2枚以上の画像を使用することにより3D再構成処理を実行してもよい。
情報受付部185が選択指示を受け付けたとき、3Dモデル生成部191は、実行中の3D再構成処理を停止してもよい。停止された3D再構成処理において3Dモデルは生成されない。その後、選択部187は、選択指示が示す1枚以上の画像を選択してもよく、かつ3Dモデル生成部191は、その1枚以上の画像を使用することにより3D再構成処理を実行してもよい。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS202の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
第6の実施形態の第2の変形例において、内視鏡装置1は、記録媒体に記録されている少なくとも1枚の画像のうち1枚以上の画像を選択する。このとき、内視鏡装置1は、選択指示が示す1枚以上の画像を選択する。内視鏡装置1は、選択された1枚以上の画像を使用することにより3D再構成処理を実行する。内視鏡装置1は、ユーザーによって指定された画像を優先的に使用することにより3D再構成処理を実行することができる。
(第6の実施形態の第3の変形例)
本発明の第6の実施形態の第3の変形例を説明する。内視鏡装置1は、互いに異なる2つ以上の状態で2枚以上の画像を取得する。その2つ以上の状態では、カメラの位置が異なり、かつそのカメラの姿勢が異なる。内視鏡装置1は、その2枚以上の画像を使用することにより、被写体の3D形状を示す3次元マップ(3Dマップ)を生成する。内視鏡装置1は、生成された3Dマップを表示する。
図26に示すCPU18cは、図39に示すCPU18dに変更される。図39は、CPU18dの機能構成を示す。CPU18dの機能は、制御部180、計測部181、指標算出部182、分類処理部183、表示制御部184、情報受付部185、比較部186、選択部187、記録部188、3Dモデル生成部191、および3Dマップ生成部192を含む。図39に示すブロックの少なくとも1つがCPU18dと異なる回路で構成されてもよい。図26に示す構成と同じ構成の説明を省略する。
図39に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図39に示す各部は、1つまたは複数のプロセッサを含むことができる。図39に示す各部は、1つまたは複数の論理回路を含むことができる。
3Dマップ生成部192は、撮像素子28によって取得された2枚以上の画像を使用することにより、被写体上の2つ以上の点の3D座標を算出する。このとき、3Dマップ生成部192は、カメラの2つ以上の相対的な位置およびカメラの2つ以上の相対的な姿勢を算出する。各位置は、撮像素子28が各画像を取得したときのカメラの位置である。各姿勢は、撮像素子28が各画像を取得したときのカメラの姿勢である。3Dマップ生成部192は、2つ以上の点の3D座標を含む3Dマップを生成する。例えば、3Dマップ生成部192は、Simultaneous Localization and Mapping(SLAM)またはstructure from motion(SfM)と呼ばれる技術を使用することにより、3Dマップを生成する。
例えば、3Dマップは、点群データ、サーフェースデータ、またはボリュームデータである。3Dマップ生成部192によって生成された3Dマップは、PC41内の記録媒体またはメモリカード42に記憶される。
3Dマップは、2つ以上の点の3D座標を含む。3Dマップは、3つ以上の点の3D座標を含んでもよい。3Dマップは、各点のX座標、Y座標、およびZ座標を含む。例えば、X軸およびY軸は、2枚以上の画像を取得したカメラの光学系の光軸と垂直である。例えば、Z軸は、その光軸と平行である。
3Dモデル生成部191は、被写体の第1の領域と対応する3Dモデルを生成する。3Dマップ生成部192は、被写体の第2の領域と対応する3Dマップを生成する。例えば、第2の領域は第1の領域よりも大きい。第1の領域の少なくとも一部および第2の領域の少なくとも一部は互いに重なってもよい。
表示制御部184は、3Dマップを表示部5に表示する。これにより、表示制御部184は、被写体上の2つ以上の位置を示す位置情報を表示部5に表示する(位置情報表示ステップ)。
図27および図40を使用することにより、第6の実施形態の第3の変形例における画像処理について説明する。図27および図40は、画像処理の手順を示す。図27に示す処理は、第5の実施形態における処理と同じである。そのため、図27に示す処理の説明を省略する。また、図32に示す処理と同じ処理の説明を省略する。
ステップS101が実行されたとき、記録部188は、ステップS101において取得された画像を記録媒体に記録する。そのため、連続する2枚以上の画像が記録媒体に記録される。
表示制御部184は、ステップS202において3Dモデルを表示部5に表示する。その3Dモデルを生成するために使用された画像の構図と同じ構図で画像を再度取得することをユーザーが希望する場合がある。その場合、ユーザーは、3Dマップを生成するための生成指示を内視鏡装置1に入力する。
ステップS205の後、制御部180は、生成指示が内視鏡装置1に入力されたか否かを判断する(ステップS241)。例えば、ユーザーは操作部4を操作することにより、生成指示を内視鏡装置1に入力する。情報受付部185は、生成指示を受け付ける。このとき、制御部180は、生成指示が内視鏡装置1に入力されたと判断する。
指標算出部182によって算出された指標が選択条件を満たさないと比較部186がステップS106において判断した場合、または3D再構成処理が実行中であると制御部180がステップS212において判断した場合、ステップS241が実行される。
生成指示が内視鏡装置1に入力されていないと制御部180がステップS241において判断した場合、ステップS101が実行される。生成指示が内視鏡装置1に入力されたと制御部180がステップS241において判断した場合、3Dマップ生成部192は、ステップS101において記録媒体に記録された2枚以上の画像を使用することにより3Dマップを生成する。例えば、3Dマップ生成部192は、ステップS101において記録された全ての画像を使用することにより3Dマップを生成する(ステップS242)。
3Dマップを生成するために使用される2枚以上の画像の各々は、前述した選択条件を満たすとは限らない。つまり、その2枚以上の画像の各々は、ステップS108において記録媒体に記録された画像と同じであるとは限らない。
ステップS242の後、表示制御部184は、ステップS242において生成された3Dマップを表示部5に表示する(ステップS243)。ステップS243は、位置情報表示ステップと対応する。ステップS243の後、ステップS101が実行される。
生成指示が内視鏡装置1に入力されとき、3Dモデル生成部191は、実行中の3D再構成処理を停止してもよい。3Dマップが生成された後、3Dモデル生成部191は、3D再構成処理を再度開始してもよい。
図41は、ステップS243において表示部5に表示された画像の例を示す。表示制御部184は、図33に示す例と同様に、画像IMG40、3DモデルMD40、画像IMG41、および画像IMG42を表示画面50に表示する。表示制御部184は、図33に示す例と同様に、メッセージMS40、メッセージMS41、およびメッセージMS42を表示画面50に表示する。
表示制御部184は、ステップS104においてボタンBT60を表示画面50に表示する。ボタンBT60は、生成指示を入力するためのボタンである。3Dマップの表示が必要である場合、ユーザーは、ボタンBT60を押すことにより生成指示を内視鏡装置1に入力する。このとき、3Dマップ生成部192は、3Dマップを生成する。
表示制御部184は、3DマップMP60を表示画面50に表示する。3DマップMP60は、画像IMG40と重ならない。表示制御部184は、画像IMG40の一部と3DマップMP60の一部とが互いに重なるように画像IMG40および3DマップMP60を表示画面50に表示してもよい。
表示制御部184は、カメラの位置および姿勢を示す情報を3DマップMP60上に表示する。そのカメラは、3DモデルMD40を生成するために使用された画像を取得したカメラである。
表示制御部184は、3DマップMP60を生成するために使用された2枚以上の画像に付与されている時刻情報を取得してもよい。表示制御部184は、時刻情報に基づいて、その2枚以上の画像のうち最後に取得された画像を特定してもよい。表示制御部184は、特定された画像を取得したカメラの位置および姿勢を示す情報を3DマップMP60上に表示してもよい。特定された画像は、表示部5に現在表示されている画像IMG40が取得された時刻と近い時刻で取得された画像である。
ユーザーは、3DマップMP60を確認することにより、カメラが現在捉えている被写体の領域を確認することができる。ユーザーは、撮影の構図を過去に画像が取得されたときの構図に戻すために3DマップMP60を参照することができる。
内視鏡装置1は、ロータリーエンコーダーおよび2つのローラーを有してもよい。2つのローラーは、挿入部2を挟むように配置される。2つのローラーは、挿入部2と接触している。挿入部2が移動すると2つのローラーが回転する。ロータリーエンコーダーは、2つのローラーのうちの少なくとも1つの回転量を検出することにより、検査対象内の空間に挿入された挿入部2の長さ(距離)を検出する。その長さは、撮影位置と対応する。
表示制御部184は、撮影位置と、その撮影位置において取得された画像との関係を示す情報を表示部5に表示してもよい。ユーザーは、撮影の構図を過去に画像が取得されたときの構図に戻すためにその情報を参照してもよい。表示制御部184は、最近の情報を表示してもよいし、過去の情報を表示してもよい。
挿入部2が検査対象内の空間に挿入されているとき、ユーザーは、操作部4を操作することにより、挿入部2を湾曲させるための湾曲指示を内視鏡装置1に入力する。情報受付部185は、湾曲指示を受け付ける。湾曲指示は、挿入部2が曲がる方向(湾曲方向)を示し、かつ挿入部2が曲がる量(湾曲)を示す。制御部180は、挿入部2を湾曲方向に湾曲量だけ湾曲させるための制御を実行する。
表示制御部184は、湾曲量に関する情報を表示部5に表示してもよい。ユーザーは、撮影の構図を過去に画像が取得されたときの構図に戻すためにその情報を参照してもよい。
ステップS106の代わりに図10に示すステップS111からステップS113が実行されてもよい。
ステップS202の後、図12に示すステップS121からステップS124が実行されてもよい。
ステップS101の代わりに図13に示すステップS131が実行されてもよい。
ステップS101およびステップS102の間に図15に示すステップS141およびステップS142が実行されてもよい。
ステップS101およびステップS102の間に図18に示すステップS151からステップS154が実行されてもよい。
ステップS101およびステップS102の間に図20に示すステップS151、ステップS161、ステップS162、およびステップS154が実行されてもよい。
ステップS101およびステップS102の間に図22に示すステップS151、ステップS171、ステップS172、およびステップS154が実行されてもよい。
3D再構成処理が実行中ではないと制御部180がステップS212において判断した場合、図35におけるステップS221が実行されてもよい。ステップS221が実行された後、ステップS205が実行されてもよい。3D再構成処理が実行中であると制御部180がステップS212において判断した場合、図37におけるステップS231が実行されてもよい。ステップS231が実行された後、ステップS241からステップS243が実行されてもよい。
図8、図10、図13、図15、図18、図20、または図22に示す画像処理においてステップS241からステップS243が実行されてもよい。例えば、ステップS108の後、ステップS241からステップS243が実行されてもよい。
図12に示す画像処理においてステップS241からステップS243が実行されてもよい。例えば、ステップS124の後、ステップS241からステップS243が実行されてもよい。
図24に示す画像処理においてステップS241からステップS243が実行されてもよい。例えば、ステップS182の後、ステップS241からステップS243が実行されてもよい。
図25に示す画像処理においてステップS241からステップS243が実行されてもよい。例えば、ステップS197の後、ステップS241からステップS243が実行されてもよい。
図28に示す画像処理においてステップS241からステップS243が実行されてもよい。例えば、ステップS205の後、ステップS241からステップS243が実行されてもよい。
本発明の各態様は次の変形例を含んでもよい。表示制御部184は、位置情報表示ステップ(ステップS243)において、被写体上の2つ以上の位置を示す位置情報を表示部5に表示する。
第6の実施形態の第3の変形例において、内視鏡装置1は、3Dマップを生成し、かつ3Dマップを表示する。ユーザーは、撮影の構図を過去に画像が取得されたときの構図に戻すために3Dマップを参照することができる。ユーザーが3Dモデルを確認し、妥当な3Dモデルが得られなかったとユーザーが判断した場合、ユーザーは、その3Dモデルを生成するために使用された画像が取得された位置を3Dマップ上で確認する。ユーザーは、内視鏡をその位置まで戻し、作業を再度実施することができる。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
1 内視鏡装置
2 挿入部
3 本体部
4 操作部
5 表示部
7 画像処理装置
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインタフェース
16 外部機器インタフェース
17 制御インタフェース
18,18a,18b,18c,18d CPU
20 先端
28 撮像素子
41 PC
42 メモリカード
70,181 計測部
71,182 指標算出部
72,186 比較部
73,187 選択部
180 制御部
183 分類処理部
184 表示制御部
185 情報受付部
188 記録部
189 設定部
190 分割部
191 3Dモデル生成部
192 3Dマップ生成部

Claims (19)

  1. 計測部が、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測ステップであって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測ステップと、
    指標算出部が前記距離に基づいて第1の指標または第2の指標を算出する指標算出ステップであって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出ステップと、
    比較部が、前記第1の指標または前記第2の指標と閾値とを比較する比較ステップと、
    前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に選択部が、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択ステップであって、前記少なくとも1枚の画像は、前記閾値よりも大きい前記第1の指標または前記閾値よりも小さい前記第2の指標を算出するために使用された画像である前記選択ステップと、
    を有する画像処理方法。
  2. 表示制御部が、前記2つ以上の点の各々における前記距離を示す距離情報をディスプレイに表示する距離情報表示ステップをさらに有する
    請求項1に記載の画像処理方法。
  3. 前記表示制御部は、前記距離情報表示ステップにおいて、前記距離情報が重畳された前記1枚以上の画像を前記ディスプレイに表示する
    請求項2に記載の画像処理方法。
  4. 分類処理部が前記2つ以上の点における前記距離を、第1のグループおよび第2のグループを含む2つ以上のグループに分類する分類処理ステップであって、前記第1のグループに分類された前記距離の範囲は、前記第2のグループに分類された前記距離の範囲と異なる前記分類処理ステップと、
    表示制御部が、第1の距離情報を第1の状態でディスプレイに表示し、かつ第2の距離情報を前記第1の状態と異なる第2の状態で前記ディスプレイに表示する距離情報表示ステップであって、前記第1の距離情報は、前記第1のグループに分類された前記距離を示し、前記第2の距離情報は、前記第2のグループに分類された前記距離を示す前記距離情報表示ステップと、
    をさらに有する
    請求項1に記載の画像処理方法。
  5. 記録部が、前記少なくとも1枚の画像を記録媒体に記録する記録ステップをさらに有する
    請求項1に記載の画像処理方法。
  6. 形状算出部が、前記記録媒体に記録された前記少なくとも1枚の画像を使用することにより、前記被写体の3次元形状を算出する形状算出ステップをさらに有する
    請求項5に記載の画像処理方法。
  7. 表示制御部が、前記3次元形状をディスプレイに表示する形状表示ステップをさらに有する
    請求項6に記載の画像処理方法。
  8. 表示制御部が、前記少なくとも1枚の画像をディスプレイに表示する画像表示ステップをさらに有する
    請求項6に記載の画像処理方法。
  9. 前記選択部が、前記少なくとも1枚の画像のうち1枚以上の画像を選択する画像選択ステップをさらに有し、
    前記形状算出部は、前記形状算出ステップにおいて、前記画像選択ステップにおいて選択された前記1枚以上の画像を使用することにより前記3次元形状を算出する
    請求項6に記載の画像処理方法。
  10. 設定部が、計測領域を前記1枚以上の画像に設定する設定ステップをさらに有し、
    前記計測領域は、前記2つ以上の点を含む
    請求項1に記載の画像処理方法。
  11. 表示制御部が前記1枚以上の画像の各々をディスプレイに表示し、かつ前記ディスプレイに表示された画像上に前記計測領域を表示する領域表示ステップをさらに有する
    請求項10に記載の画像処理方法。
  12. 前記設定部は、前記設定ステップにおいて、入力装置に入力された領域情報に基づいて前記計測領域を設定し、
    前記領域情報は、前記1枚以上の画像における前記計測領域の位置を示す
    請求項10に記載の画像処理方法。
  13. 分割部が前記1枚以上の画像の各々の全体領域を2つ以上の部分領域に分割する分割ステップをさらに有し、
    前記設定部は、前記設定ステップにおいて、前記2つ以上の部分領域に含まれる少なくとも1つの部分領域に前記計測領域を設定する
    請求項10に記載の画像処理方法。
  14. 前記指標算出部は、前記指標算出ステップにおいて、前記2つ以上の点のうち前記距離が所定値よりも小さい点の数、前記2つ以上の点のうち前記距離が所定値よりも大きい点の数、前記2つ以上の点における前記距離の平均値、または前記2つ以上の点における前記距離の最小値に基づいて前記第1の指標または前記第2の指標を算出する
    請求項1に記載の画像処理方法。
  15. 前記1枚以上の画像に含まれる1枚の画像に対して前記計測ステップ、前記指標算出ステップ、および前記比較ステップが実行され、
    前記第1の指標が前記閾値以下である場合、または前記第2の指標が前記閾値以上である場合、前記1枚以上の画像に含まれる他の1枚の画像に対して前記計測ステップ、前記指標算出ステップ、および前記比較ステップが実行される
    請求項1に記載の画像処理方法。
  16. 表示制御部が、前記被写体上の2つ以上の位置を示す位置情報をディスプレイに表示する位置情報表示ステップをさらに有する
    請求項1に記載の画像処理方法。
  17. 計測部が、被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測ステップであって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測ステップと、
    指標算出部が前記距離に基づいて第1の指標または第2の指標を算出する指標算出ステップであって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出ステップと、
    比較部が、前記第1の指標または前記第2の指標と閾値とを比較する比較ステップと、
    出力部が、前記第1の指標と前記閾値とを比較した結果、または前記第2の指標と前記閾値とを比較した結果を示す比較情報を情報通知装置に出力する出力ステップと、
    前記出力ステップが実行された後、選択部が、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択ステップであって、前記少なくとも1枚の画像は、前記第1の指標または前記第2の指標を算出するために使用された画像である前記選択ステップと、
    を有する画像処理方法。
  18. 被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測部であって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測部と、
    前記距離に基づいて第1の指標または第2の指標を算出する指標算出部であって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出部と、
    前記第1の指標または前記第2の指標と閾値とを比較する比較部と、
    前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択部であって、前記少なくとも1枚の画像は、前記閾値よりも大きい前記第1の指標または前記閾値よりも小さい前記第2の指標を算出するために使用された画像である前記選択部と、
    を有する画像処理装置。
  19. 被写体の1枚以上の画像における2つ以上の点の各々における距離を計測する計測ステップであって、前記距離は、前記1枚以上の画像を取得したカメラから前記2つ以上の点の各々までの3次元距離を示す前記計測ステップと、
    前記距離に基づいて第1の指標または第2の指標を算出する指標算出ステップであって、前記カメラが前記被写体に近づくと前記第1の指標は増加し、前記カメラが前記被写体に近づくと前記第2の指標は減少する前記指標算出ステップと、
    前記第1の指標または前記第2の指標と閾値とを比較する比較ステップと、
    前記第1の指標が前記閾値よりも大きい場合、または前記第2の指標が前記閾値よりも小さい場合に、前記1枚以上の画像に含まれる少なくとも1枚の画像を選択する選択ステップであって、前記少なくとも1枚の画像は、前記閾値よりも大きい前記第1の指標または前記閾値よりも小さい前記第2の指標を算出するために使用された画像である前記選択ステップと、
    をコンピュータに実行させるためのプログラム。
JP2021078629A 2021-05-06 2021-05-06 画像処理方法、画像処理装置、およびプログラム Pending JP2022172637A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021078629A JP2022172637A (ja) 2021-05-06 2021-05-06 画像処理方法、画像処理装置、およびプログラム
US17/729,280 US20220357157A1 (en) 2021-05-06 2022-04-26 Image-processing method, image-processing device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021078629A JP2022172637A (ja) 2021-05-06 2021-05-06 画像処理方法、画像処理装置、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022172637A true JP2022172637A (ja) 2022-11-17

Family

ID=83901308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021078629A Pending JP2022172637A (ja) 2021-05-06 2021-05-06 画像処理方法、画像処理装置、およびプログラム

Country Status (2)

Country Link
US (1) US20220357157A1 (ja)
JP (1) JP2022172637A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7374388B1 (ja) 2023-02-17 2023-11-06 三菱電機株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7374388B1 (ja) 2023-02-17 2023-11-06 三菱電機株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
US20220357157A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
EP2495524B1 (en) Method and device for displaying a three-dimensional view of the surface of a viewed object
JP6037683B2 (ja) 計測装置、計測装置の作動方法、およびプログラム
WO2014155778A1 (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理方法
JP6478136B1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP2012220496A (ja) 目視される物体の表面に関する3次元データの品質の指示を表示するための方法およびデバイス
JP2014138691A (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理方法
US20200074666A1 (en) Method of operating measurement device, measurement device, and recording medium
JP2008100073A (ja) 対象体の大きさを測定するための超音波診断装置及び方法
US11321861B2 (en) Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium
US20190104921A1 (en) Endoscopic system
US11650407B2 (en) Method of operating observation device, observation device, and recording medium
US11232568B2 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium
JP5307407B2 (ja) 内視鏡装置およびプログラム
JP2022172637A (ja) 画像処理方法、画像処理装置、およびプログラム
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
US20200053296A1 (en) Measurement device, method of operating measurement device, and recording medium
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
JP6081209B2 (ja) 内視鏡装置およびプログラム
JP7423654B2 (ja) 計測方法、計測装置、および記録媒体
Kim et al. Object dimension estimation for remote visual inspection in borescope systems
JP2009015210A (ja) 画像計測装置および方法
JP6426215B2 (ja) 内視鏡装置およびプログラム
JP2023009838A (ja) 画像処理方法、画像処理装置、およびプログラム
US20230003991A1 (en) Surface estimation method, surface estimation device, and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240304