JP2022184415A - 3次元画像表示方法、3次元画像表示装置、およびプログラム - Google Patents

3次元画像表示方法、3次元画像表示装置、およびプログラム Download PDF

Info

Publication number
JP2022184415A
JP2022184415A JP2021092249A JP2021092249A JP2022184415A JP 2022184415 A JP2022184415 A JP 2022184415A JP 2021092249 A JP2021092249 A JP 2021092249A JP 2021092249 A JP2021092249 A JP 2021092249A JP 2022184415 A JP2022184415 A JP 2022184415A
Authority
JP
Japan
Prior art keywords
data
dimensional
coordinate system
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021092249A
Other languages
English (en)
Inventor
陽平 坂本
Yohei Sakamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Co Ltd
Original Assignee
Evident Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Co Ltd filed Critical Evident Co Ltd
Priority to JP2021092249A priority Critical patent/JP2022184415A/ja
Priority to US17/741,911 priority patent/US11856176B2/en
Publication of JP2022184415A publication Critical patent/JP2022184415A/ja
Priority to US18/514,216 priority patent/US20240089421A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Abstract

【課題】2つ以上の3次元データが共通の領域のデータを含まない場合であっても2つ以上の3次元データが示す3次元形状を表示することができる3次元画像表示方法、3次元画像表示装置、およびプログラムを提供する。【解決手段】3次元画像表示方法において、取得部は、被写体の第1の3次元データおよび第2の3次元データを記録媒体から取得する。変換部は、前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元データの第1の3次元座標系および前記第2の3次元データの第2の3次元座標系を3次元の共通座標系に変換する。表示制御部は、前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する。【選択図】図2

Description

本発明は、3次元画像表示方法、3次元画像表示装置、およびプログラムに関する。
工業用の内視鏡装置は、ボイラー、ガスタービン、自動車エンジン、およびパイプ等の内部の異常(傷および腐食等)の検査に使用されている。内視鏡検査において、異常の有無および異常の深刻さを検査の証拠として残すために検査の作業者は検査中に静止画を記録する。内視鏡検査が完了した後、検査レポートが生成される。一般的に、記録された静止画に写っている異常の状態などを示すテキストがその静止画と一緒に検査レポートに付加される。
位置情報が、異常に関する付加事項に含まれる。位置情報は、記録された静止画が検査対象物において取得された位置を示す。発見された異常の位置情報は、異常な部位を交換または修理する際、あるいは次回の検査が実施される際に重要である。異常の位置情報を記録および管理する方法として、検査中に記録された静止画を、検査対象の3次元形状(3D形状)を示す3次元データ(3Dデータ)における特定の位置と関連付け、かつその静止画が取得された位置を可視化するという方法がある。このような方法を使用することにより、静止画が取得された検査対象の位置が明確になる。
検査対象の3Dデータを取得する方法として、検査中に記録された動画を使用することにより検査対象の3D形状を再構成する方法がある。この方法では、検査中に記録された動画が使用される。そのため、特別な検査機器が検査現場に持ち込まれる必要はなく、かつ検査対象の設計図などは必要ない。
検査対象の3D形状を再構成する方法では、複数の視点において取得された複数の画像を互いに関連付ける必要がある。複数の画像を互いに関連付けることが困難な場合、3Dデータが複数のデータに分割されるという問題がある。例えば、動画の記録中に内視鏡の先端が突然動き、画像の構図が大きく変わる場合がある。あるいは、動画の記録中に画像においてハレーション等が発生し、画像の状態が大きく変わる場合がある。あるいは、動画の記録が中断を経て再開され、動画の記録の再開後の画像に写っている検査対象が、動画の記録の中断前の画像に写っている検査対象と一致しない場合がある。これらの場合、3Dデータが複数のデータに分割される。
検査対象のできるだけ広い領域の3Dデータが分割されずに1つのデータとして構成されることがユーザーにとって好ましい。検査対象の複数の3Dデータが生成された場合には、複数の3Dデータを接続し、検査対象の広い領域の3Dデータを生成することが重要である。部分的な領域の複数の3Dデータを接続することにより広い領域の3Dデータを生成する方法として、以下の技術が開示されている。
特許文献1に開示された技術は、3Dデータを生成するために使用された2次元画像群と3Dデータとの関係を使用することにより複数の3Dデータを接続する方法を提供する。第1の3Dデータは第1の2次元画像群と関連付けられ、かつ第2の3Dデータは第2の2次元画像群と関連付けられている。重複する特徴点を持つ第1の画像および第2の画像が選択される。第1の画像は第1の2次元画像群に含まれ、かつ第2の画像は第2の2次元画像群に含まれる。第1の画像における特徴点の3次元座標と第2の画像における特徴点の3次元座標とが一致するように、3Dデータの平行移動および回転が実施される。その後、3次元座標の誤差が最小化される。
特許文献2および特許文献3の各々に開示された技術は、3Dデータが示す3D形状に基づいて複数の3Dデータを接続する方法を提供する。特許文献2に開示された技術では、地面特徴、平面特徴、または柱体特徴が部分的な領域の複数の3Dデータに割り当てられる。その特徴が一致するように複数の3Dデータが接続される。特許文献3に開示された技術では、複数の3Dデータの各々において、3つの平面が検出される。3つの平面の法線は互いに直交する。その3つの平面が一致するように複数の3Dデータが接続される。
特許第6040882号公報 特許第6811763号公報 特開2010-66595号公報
特許文献1、特許文献2、および特許文献3に開示された技術では、共通の領域のデータが複数の3Dデータに含まれる必要がある。共通の領域のデータが複数の3Dデータに含まれない場合、複数の3Dデータを接続することができない。
特許文献1に開示された技術では、第1の画像および第2の画像の少なくとも一方にハレーション等が発生し、第1の画像の見え方と第2の画像の見え方とが互いに異なる場合、複数の3Dデータを接続することができない。
本発明は、2つ以上の3次元データが共通の領域のデータを含まない場合であっても2つ以上の3次元データが示す3次元形状を表示することができる3次元画像表示方法、3次元画像表示装置、およびプログラムを提供することを目的とする。
本発明は、取得部が、被写体の第1の3次元データおよび前記被写体の第2の3次元データを記憶する記録媒体に接続し、かつ前記第1の3次元データを前記記録媒体から取得し、前記第1の3次元データは、第1の3次元座標系において定義された3次元座標を含み、前記第2の3次元データは、前記第1の3次元座標系と異なる第2の3次元座標系において定義された3次元座標を含み、前記第1の3次元データと対応する前記被写体の領域の少なくとも一部と、前記第2の3次元データと対応する前記被写体の領域の少なくとも一部とは互いに異なる第1の取得ステップと、前記取得部が前記記録媒体に接続し、かつ前記第2の3次元データを前記記録媒体から取得する第2の取得ステップと、変換部が、前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を3次元の共通座標系に変換し、前記構造情報は、前記第1の3次元データおよび前記第2の3次元データのいずれも使用せずに生成される変換ステップと、表示制御部が、前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する表示ステップと、を有する3次元画像表示方法である。
本発明の3次元画像表示方法において、前記第1の3次元データは、互いに異なる2つ以上の視点において取得された2枚以上の第1の画像を使用することにより生成され、前記第2の3次元データは、互いに異なる2つ以上の視点において取得された2枚以上の第2の画像を使用することにより生成され、前記2枚以上の第1の画像の少なくとも1枚と、前記2枚以上の第2の画像の少なくとも1枚とは、互いに異なる。
本発明の3次元画像表示方法において、前記2枚以上の第1の画像の各々と、前記2枚以上の第2の画像の各々とは時間情報を含み、前記変換部は、前記変換ステップにおいて、前記時間情報に基づいて前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する。
本発明の3次元画像表示方法において、前記2枚以上の第1の画像は、第1の動画に含まれる2枚以上の画像の少なくとも一部であり、前記2枚以上の第2の画像は、前記第1の動画と同じまたは異なる第2の動画に含まれる2枚以上の画像の少なくとも一部である。
本発明の3次元画像表示方法において、前記2枚以上の第1の画像および前記2枚以上の第2の画像は、1つの動画ファイルを構成する。
本発明の3次元画像表示方法は、算出部が、前記2枚以上の第1の画像の枚数と、前記2枚以上の第2の画像の枚数と、第3の画像の枚数とに基づいて欠落領域の位置を算出し、前記第3の画像は、前記動画ファイルにおいて時間的に前記2枚以上の第1の画像と前記2枚以上の第2の画像との間に配置され、前記欠落領域は、前記被写体の第1の領域および前記被写体の第2の領域のいずれとも異なる前記被写体の領域であり、前記第1の領域は、前記第1の3次元データに含まれる前記3次元座標と対応し、前記第2の領域は、前記第2の3次元データに含まれる前記3次元座標と対応する算出ステップをさらに有し、前記変換部は、前記変換ステップにおいて、前記欠落領域の前記位置に基づいて前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する。
本発明の3次元画像表示方法において、前記算出部は、前記算出ステップにおいて、前記欠落領域の形状を算出し、前記変換部は、前記変換ステップにおいて、前記欠落領域の前記形状に基づいて前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する。
本発明の3次元画像表示方法において、前記構造情報は、前記被写体を持つ物体の内部に挿入される挿入部の先端が配置された2つ以上の位置を示す。
本発明の3次元画像表示方法において、前記構造情報は、第1の位置情報および第2の位置情報を含み、前記第1の位置情報は、前記2枚以上の第1の画像を取得するために前記先端が配置された2つ以上の位置を示し、前記第2の位置情報は、前記2枚以上の第2の画像を取得するために前記先端が配置された2つ以上の位置を示し、前記3次元画像表示方法は、パラメーター生成部が前記第1の位置情報および前記第2の位置情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換するための位置の変換パラメーターおよび姿勢の変換パラメーターを生成する生成ステップをさらに有し、前記変換部は、前記変換ステップにおいて、前記位置の前記変換パラメーターおよび前記姿勢の前記変換パラメーターを使用することにより前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する。
本発明の3次元画像表示方法において、前記変換部は、前記変換ステップにおいて、前記被写体の第1の領域および前記被写体の第2の領域が互いに接続されるように前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換し、前記第1の領域は、前記第1の3次元データに含まれる前記3次元座標と対応し、前記第2の領域は、前記第2の3次元データに含まれる前記3次元座標と対応し、前記表示制御部は、前記表示ステップにおいて、前記第1の領域および前記第2の領域の位置を示す情報を前記ディスプレイに表示する。
本発明の3次元画像表示方法において、前記表示制御部は、前記表示ステップにおいて、前記第1の領域および前記第2の領域の接続の精度を示す情報を前記ディスプレイに表示する。
本発明の3次元画像表示方法において、前記2枚以上の第1の画像および前記2枚以上の第2の画像は、内視鏡によって生成される。
本発明の3次元画像表示方法において、前記2枚以上の第1の画像および前記2枚以上の第2の画像は、単眼光学系を通して取得された前記被写体の光学像に基づいて生成される。
本発明の3次元画像表示方法は、前記第1の3次元データが示す3次元形状の縮尺と、前記第2の3次元データが示す3次元形状の縮尺との少なくとも1つを補正するための縮尺の変換パラメーターをパラメーター生成部が生成する生成ステップをさらに有し、前記変換部は、前記変換ステップにおいて、前記縮尺の前記変換パラメーターを使用することにより前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する。
本発明の3次元画像表示方法において、前記構造情報は、前記幾何的な構造の設計値を含む設計データである、または前記第1の3次元データおよび前記第2の3次元データのいずれとも異なる3次元データである。
本発明の3次元画像表示方法において、前記構造情報は、センサーから出力されたデータに基づいて生成される。
本発明の3次元画像表示方法において、前記2枚以上の第1の画像および前記2枚以上の第2の画像は、挿入部によって取得された前記被写体の光学像に基づいて生成され、前記挿入部は、前記被写体を持つ物体の内部に挿入され、かつ湾曲可能であり、前記構造情報は、前記挿入部の湾曲方向および湾曲量を示す情報に基づいて生成される。
本発明の3次元画像表示方法は、パラメーター生成部が前記構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換するための位置の変換パラメーターおよび姿勢の変換パラメーターを生成する生成ステップをさらに有し、前記変換部は、前記変換ステップにおいて、前記位置の前記変換パラメーターおよび前記姿勢の前記変換パラメーターを使用することにより前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する。
本発明の3次元画像表示方法は、調整部が、前記共通座標系における前記第1の3次元データおよび前記第2の3次元データの少なくとも一方の位置および姿勢の少なくとも一方を調整する調整ステップをさらに有する。
本発明の3次元画像表示方法において、前記被写体は2つ以上の物体を含み、前記構造情報は、前記2つ以上の物体が配置された位置を示す。
本発明は、被写体の第1の3次元データおよび前記被写体の第2の3次元データを記憶する記録媒体に接続し、かつ前記第1の3次元データおよび前記第2の3次元データを前記記録媒体から取得し、前記第1の3次元データは、第1の3次元座標系において定義された3次元座標を含み、前記第2の3次元データは、前記第1の3次元座標系と異なる第2の3次元座標系において定義された3次元座標を含み、前記第1の3次元データと対応する前記被写体の領域の少なくとも一部と、前記第2の3次元データと対応する前記被写体の領域の少なくとも一部とは互いに異なる取得部と、前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を3次元の共通座標系に変換し、前記構造情報は、前記第1の3次元データおよび前記第2の3次元データのいずれも使用せずに生成される変換部と、前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する表示制御部と、を有する3次元画像表示装置である。
本発明は、被写体の第1の3次元データおよび前記被写体の第2の3次元データを記憶する記録媒体に接続し、かつ前記第1の3次元データを前記記録媒体から取得し、前記第1の3次元データは、第1の3次元座標系において定義された3次元座標を含み、前記第2の3次元データは、前記第1の3次元座標系と異なる第2の3次元座標系において定義された3次元座標を含み、前記第1の3次元データと対応する前記被写体の領域と、前記第2の3次元データと対応する前記被写体の領域とは互いに異なる第1の取得ステップと、前記記録媒体に接続し、かつ前記第2の3次元データを前記記録媒体から取得する第2の取得ステップと、前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を3次元の共通座標系に変換し、前記構造情報は、前記第1の3次元データおよび前記第2の3次元データのいずれも使用せずに生成される変換ステップと、前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する表示ステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、3次元画像表示方法、3次元画像表示装置、およびプログラムは、2つ以上の3次元データが共通の領域のデータを含まない場合であっても2つ以上の3次元データが示す3次元形状を表示することができる。
本発明の第1の実施形態による画像表示装置の構成を示すブロック図である。 本発明の第1の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態による表示部に表示されたダイアログボックスの例を示す図である。 本発明の第1の実施形態における参照テーブルの例を示す図である。 本発明の第1の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第1の変形例による画像表示装置の構成を示すブロック図である。 本発明の第1の実施形態の第1の変形例による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態の第1の変形例による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第2の変形例による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第2の変形例による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第3の変形例による表示部に表示されたダイアログボックスの例を示す図である。 本発明の第1の実施形態の第3の変形例による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第4の変形例におけるU字菅の例を示す図である。 本発明の第1の実施形態の第4の変形例による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第5の変形例におけるブレードの構成を示す図である。 本発明の第1の実施形態の第5の変形例による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第1の実施形態の第5の変形例による表示部に表示された画像の例を示す図である。 本発明の第1の実施形態の第5の変形例による表示部に表示された画像の例を示す図である。 本発明の第2の実施形態による内視鏡装置の全体構成を示す斜視図である。 本発明の第2の実施形態による内視鏡装置の内部構成を示すブロック図である。 本発明の第2の実施形態による内視鏡装置が有するCPUの機能構成を示すブロック図である。 本発明の第2の実施形態による内視鏡装置が有するデータ生成部の機能構成を示すブロック図である。 本発明の第2の実施形態における画像取得の状況を示す模式図である。 本発明の第2の実施形態における3Dデータを生成する処理の手順を示すフローチャートである。 本発明の第3の実施形態による画像表示装置の構成を示すブロック図である。 本発明の第3の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第4の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第4の実施形態による表示部に表示された画像の例を示す図である。 本発明の第4の実施形態による表示部に表示された画像の例を示す図である。 本発明の第4の実施形態の第1の変形例における参照データを示す図である。 本発明の第4の実施形態の第1の変形例による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第4の実施形態の第1の変形例による表示部に表示された画像の例を示す図である。 本発明の第4の実施形態の第2の変形例における燃焼室の構造を示す図である。 本発明の第4の実施形態の第2の変形例による表示部に表示された画像の例を示す図である。 本発明の第5の実施形態による画像表示装置の構成を示すブロック図である。 本発明の第5の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第5の実施形態による表示部に表示された画像の例を示す図である。 本発明の第5の実施形態による表示部に表示された画像の例を示す図である。 本発明の第5の実施形態による表示部に表示された画像の例を示す図である。 本発明の第5の実施形態による表示部に表示された画像の例を示す図である。 本発明の第5の実施形態における欠落区間を算出する方法を示す図である。 本発明の第5の実施形態におけるカメラ軌跡データと3Dデータとの関係を示す図である。 本発明の第5の実施形態における動画ファイルを示す図である。 本発明の第5の実施形態の変形例による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第5の実施形態の変形例による表示部に表示された画像の例を示す図である。 本発明の第6の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第6の実施形態による画像表示装置が実行する処理の手順を示すフローチャートである。 本発明の第6の実施形態による表示部に表示された画像の例を示す図である。 本発明の第6の実施形態による表示部に表示された画像の例を示す図である。 本発明の第6の実施形態における熱交換器の構造を示す図である。
以下、図面を参照し、本発明の実施形態を説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態による画像表示装置50の構成を示す。図1に示す画像表示装置50は、制御部51、データ取得部52、パラメーター生成部53、変換部54、データ生成部55、表示制御部56、情報受付部57、および構造推定部58を有する。図1に示す操作部70、表示部71、通信部72、および記憶部73が画像表示装置50に接続されている。画像表示装置50は、操作部70、表示部71、通信部72、および記憶部73の少なくとも1つを有してもよい。
例えば、画像表示装置50は、PC(Personal Computer)である。画像表示装置50は、デスクトップPC、ラップトップPC、およびタブレット端末のいずれであってもよい。画像表示装置50は、クラウド上で動作するコンピュータシステムであってもよい。
操作部70は、ユーザーインタフェースである。例えば、操作部70は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。操作部70は、ユーザーの操作を受け付ける。ユーザーは、操作部70を操作することにより、各種情報を画像表示装置50に入力することができる。操作部70は、ユーザーが入力した情報を受け付け、その情報を画像表示装置50に出力する。
表示部71は、表示画面を有し、かつ3Dデータの画像等を表示画面に表示する。表示部71は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部71は、タッチパネルであってもよい。その場合、操作部70および表示部71は一体化される。
通信部72は、内視鏡装置等の外部装置と通信を実行する。例えば、通信部72はケーブルあるいは無線で外部装置と接続される。通信部72と外部装置との間の通信は、LAN(Local Area Network)またはインターネットを経由して実行されてもよい。
記憶部73は、不揮発性の記録媒体である。例えば、記憶部73は、SRAM(Static Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびフラッシュメモリの少なくとも1つである。
記憶部73は、第1の3Dデータおよび第2の3Dデータを含む2つ以上の3Dデータを記憶する。記憶部73は、第1の3Dデータを記憶する第1の記憶部と、第2の3Dデータを記憶する第2の記憶部とを有してもよい。
第1の3Dデータおよび第2の3Dデータの各々は、被写体の2つ以上の点の3次元座標(3D座標)を含む。第1の3Dデータおよび第2の3Dデータの各々は、被写体の3D形状を示す。第1の3Dデータは、互いに異なる2つ以上の視点において取得された2枚以上の第1の画像を使用することにより生成される。第2の3Dデータは、互いに異なる2つ以上の視点において取得された2枚以上の第2の画像を使用することにより生成される。2枚以上の第1の画像および2枚以上の第2の画像は、完全に同じではない。2枚以上の第1の画像の少なくとも1枚と、2枚以上の第2の画像の少なくとも1枚とは、互いに異なる。2枚以上の第1の画像の全てが2枚以上の第2の画像のいずれとも異なってもよい。2枚以上の第2の画像の全てが2枚以上の第1の画像のいずれとも異なってもよい。
第1の3Dデータおよび第2の3Dデータは互いに異なる。第1の3Dデータに含まれる3D座標の少なくとも一部は第2の3Dデータに含まれる3D座標と異なる。第1の3Dデータに含まれる1つ以上の点は、第2の3Dデータに含まれる1つ以上の点と異なる。第2の3Dデータに含まれる3D座標の少なくとも一部は第2の3Dデータに含まれる3D座標と異なる。第2の3Dデータに含まれる1つ以上の点は、第1の3Dデータに含まれる1つ以上の点と異なる。
第1の3Dデータに含まれる3D座標の全てが第2の3Dデータに含まれる3D座標と異なってもよい。第1の3Dデータに含まれる2つ以上の点の全てが第2の3Dデータに含まれる2つ以上の点の全てと異なってもよい。第2の3Dデータに含まれる3D座標の全てが第1の3Dデータに含まれる3D座標と異なってもよい。第2の3Dデータに含まれる2つ以上の点の全てが第1の3Dデータに含まれる2つ以上の点の全てと異なってもよい。
つまり、第1の3Dデータの少なくとも一部と対応する被写体領域は、第2の3Dデータの全体と対応する被写体領域に存在しない。また、第2の3Dデータの少なくとも一部と対応する被写体領域は、第1の3Dデータの全体と対応する被写体領域に存在しない。
第1の3Dデータの3次元座標系(第1の3D座標系)および第2の3Dデータの3次元座標系(第2の3D座標系)は互いに異なる。位置、姿勢、および縮尺の各々を示すパラメーターを使用することにより第1の3D座標系および第2の3D座標系の一方を他方に変換することができる。第1の3D座標系および第2の3D座標系の間では位置、姿勢、および縮尺の少なくとも1つが異なる。姿勢は3つのパラメーターを使用することにより定義される。第1の3D座標系および第2の3D座標系の間では姿勢を示す少なくとも1つのパラメーターが異なっていてもよい。
2枚以上の第1の画像が取得された2つ以上の視点の少なくとも一部は、2枚以上の第2の画像が取得された2つ以上の視点と異なる。2枚以上の第1の画像が取得された2つ以上の視点の全てが、2枚以上の第2の画像が取得された2つ以上の視点と異なってもよい。2枚以上の第2の画像が取得された2つ以上の視点の少なくとも一部は、2枚以上の第1の画像が取得された2つ以上の視点と異なる。2枚以上の第2の画像が取得された2つ以上の視点の全てが、2枚以上の第1の画像が取得された2つ以上の視点と異なってもよい。
制御部51は、画像表示装置50の各部を制御する。
データ取得部52は、記憶部73に接続し、かつ第1の3Dデータおよび第2の3Dデータを記憶部73から取得する。
パラメーター生成部53は、第1の3D座標系および第2の3D座標系を共通座標系に変換するための変換パラメーターを生成する。共通座標系は、第1の3Dデータおよび第2の3Dデータに共通の3D座標系である。第1の3D座標系および第2の3D座標系を共通座標系に変換することにより、第1の3Dデータおよび第2の3Dデータの各々は、共通座標系における3Dデータに変換される。変換パラメーターは、第1の3D座標系を共通座標系に変換するための第1の変換パラメーターと、第2の3D座標系を共通座標系に変換するための第2の変換パラメーターとを含む。第1の変換パラメーターおよび第2の変換パラメーターの各々は、各3D座標系の位置および姿勢を変換するための位置姿勢変換パラメーターと、各3D座標系の縮尺を変換するための縮尺変換パラメーターとを含む。
変換部54は、パラメーター生成部53によって生成された変換パラメーターを使用することにより、第1の3D座標系および第2の3D座標系を共通座標系に変換する。これにより、変換部54は、第1の3Dデータおよび第2の3Dデータの各々を共通座標系における3Dデータに変換する。
データ生成部55は、変換部54によって共通座標系における3Dデータに変換された第1の3Dデータおよび第2の3Dデータを互いに接続する。これにより、データ生成部55は、被写体の広い範囲の3Dデータを生成する。
表示制御部56は、3Dデータの画像を表示部71に出力し、かつその画像を表示部71に表示する。表示制御部56は、第1の3Dデータおよび第2の3Dデータの各々の画像を表示部71に表示する。つまり、表示制御部56は、第1の3Dデータが示す3D形状と、第2の3Dデータが示す3D形状との各々の画像を表示部71に表示する。また、表示制御部56は、データ生成部55によって生成された3Dデータの画像を表示部71に表示する。つまり、表示制御部56は、被写体の広い範囲の3Dデータが示す3D形状の画像を表示部71に表示する。
情報受付部57は、操作部70から出力された情報を受け付ける。あるいは、情報受付部57は、通信部72によって受信された情報を受け付ける。情報受付部57は、図1に示されていないマイクに入力された音声と対応する情報を受け付けてもよい。情報受付部57は、被写体の幾何的な構造に関する構造情報を受け付けてもよい。構造情報は、第1の3Dデータの3D形状と第2の3Dデータの3D形状とが互いに接続される領域における被写体の構造を示す。以下では、その領域を接続領域と呼ぶ。構造情報は、第1の3Dデータおよび第2の3Dデータのいずれも使用せずに生成される。情報受付部57は、構造情報を含まない情報を受け付けてもよい。
情報受付部57が、構造情報を含まない情報を受け付けた場合、構造推定部58は、その情報に基づいて、接続領域における被写体の構造を推定し、かつ構造情報を生成する。情報受付部57が、構造情報を含む情報を受け付けた場合、構造推定部58は使用されない。
画像表示装置50の各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。画像表示装置50の各部は、1つまたは複数のプロセッサを含むことができる。画像表示装置50の各部は、1つまたは複数の論理回路を含むことができる。
画像表示装置50のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、画像表示装置50の各部の動作を規定する命令を含む。つまり、画像表示装置50の各部の機能はソフトウェアにより実現されてもよい。
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により画像表示装置50に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
以下では、第1の実施形態の特徴的な処理について説明する。以下の説明では、3Dデータは、内視鏡機器が取得した静止画群に基づいて生成されることを想定している。第1の3Dデータを生成するために使用された2枚以上の第1の画像と、第2の3Dデータを生成するために使用された2枚以上の第2の画像とは、内視鏡機器によって生成される。また、2枚以上の第1の画像および2枚以上の第2の画像は、単眼光学系を通して取得された被写体の光学像に基づいて生成される。静止画群を取得する検査機器は内視鏡機器に限らない。検査機器がカメラを有する限り、検査機器はどのような機器であってもよい。
例えば、2枚以上の第1の画像の各々は静止画であり、かつ2枚以上の第2の画像の各々は静止画である。2枚以上の第1の画像は、動画に含まれる2枚以上の画像の全部または一部であってもよい。2枚以上の第2の画像は、動画に含まれる2枚以上の画像の全部または一部であってもよい。2枚以上の第1の画像が第1の動画ファイルに含まれ、かつ2枚以上の第2の画像が第1の動画ファイルと異なる第2の動画ファイルに含まれてもよい。2枚以上の第1の画像および2枚以上の第2の画像が2つの動画ファイルに分割される必要はない。2枚以上の第1の画像および2枚以上の第2の画像は、1つの動画ファイルに含まれてもよい。
図2を使用することにより、画像表示装置50が実行する処理について説明する。図2は、画像表示装置50が実行する処理の手順を示す。
データ取得部52は、記憶部73に接続し、かつ第1の3Dデータを記憶部73から取得する(ステップS100)。ステップS100の後、表示制御部56は、第1の3Dデータの画像を表示部71に表示する(ステップS101)。
ステップS101の後、データ取得部52は、記憶部73に接続し、かつ第2の3Dデータを記憶部73から取得する(ステップS102)。ステップS102の後、表示制御部56は、第2の3Dデータの画像を表示部71に表示する(ステップS103)。
ステップS100からS103の順番は、図2に示す順番に限らない。例えば、ステップS102およびステップS103が実行された後、ステップS100およびステップS101が実行されてもよい。あるいは、ステップS100およびステップS102が実行された後、ステップS101およびステップS103が実行されてもよい。ステップS101およびステップS103は省略されてもよい。
図3は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG11を表示部71に表示する。画像IMG11は、領域R11および領域R12を含む。第1の3D形状3D11の画像が領域R11に表示される。第1の3D形状3D11は、第1の3Dデータによって示される。第2の3D形状3D12の画像が領域R12に表示される。第2の3D形状3D12は、第2の3Dデータによって示される。
ステップS103の後、情報受付部57は検査対象の情報を受け付ける(ステップS104)。以下では、情報受付部57が、構造情報を含まない情報を操作部70から受け付ける例を説明する。
表示制御部56は、ダイアログボックスを表示部71に表示する。図4は、表示部71に表示されたダイアログボックスの例を示す。表示制御部56は、ダイアログボックスDL10を表示部71に表示する。ユーザーは、操作部70を操作することにより、ダイアログボックスDL10内の情報を選択することができる。
カーソルCS10およびカーソルCS11がダイアログボックスDL10に表示される。カーソルCS10およびカーソルCS11の各々は、現在選択されている項目を示す。情報INF10がダイアログボックスDL10に表示される。情報INF10は、検査対象の名称を含み、かつ検査対象に存在する典型的な検査部位または構造物の名称を含む。
ユーザーは、検査対象における被写体を選択する。図3に示す第1の3D形状3D11と第2の3D形状3D12とが互いに接続される領域が“直管”である場合、ユーザーは、図4に示す“パイプ”を選択し、その後、“直管”を選択する。選択が決定したことを示す情報をユーザーが画像表示装置50に入力したとき、情報受付部57は、ユーザーによって選択された情報を受け付ける。このとき、情報受付部57は、“直管”という文字列を受け付ける。
ステップS104の後、構造推定部58は、ステップS104において受け付けられた情報に基づいて、接続領域における被写体の構造を推定し、かつ構造情報を生成する(ステップS105)。
構造推定部58が構造情報を生成する方法の例を説明する。例えば、構造推定部58は、図5に示す参照テーブルTB11を使用する。参照テーブルTB11は、情報受付部57によって受け付けられた情報(入力情報)と構造情報とを含む。入力情報および構造情報は互いに関連付けられている。
構造推定部58は、情報受付部57によって受け付けられた文字列を構造情報に変換する。例えば、情報受付部57が“直管”という文字列を受け付けた場合、構造推定部58は参照テーブルTB11における列CL11を参照し、列CL11における構造情報を取得する。例えば、構造情報は、第1の3Dデータおよび第2の3Dデータの各々の3D形状が略円柱形状であることを示す。3Dデータが異物などを含む可能性があるため、構造情報は、完全な円柱形状ではなく円柱形状に近い形状を示す。構造情報は、第1の3Dデータの3D形状の内径および第2の3Dデータの3D形状の内径が等しいことを示す。構造情報は、第1の3Dデータの円柱の中心軸および第2の3Dデータの円柱の中心軸が一致することを示す。
構造情報を生成する方法は、参照テーブルTB11を使用する方法に限らない。例えば、情報受付部57は、参照テーブルTB11に含まれる構造情報と同様の情報を操作部70から受け付けてもよい。つまり、情報受付部57は、構造情報を含む情報を操作部70から受け付けてもよい。この場合、構造推定部58は省略されてもよい。
表示制御部56は、入力ボックスを表示部71に表示してもよい。ユーザーは、操作部70またはマイクを使用することにより単語またはキーワードを入力ボックスに入力してもよい。構造推定部58は、入力された単語またはキーワードに基づいて被写体の構造を推定し、かつ構造情報を生成してもよい。
接続領域の構造情報を取得する方法は、上記の方法に限らない。例えば、構造推定部58は、AI(Artificial Intelligence)等の技術を使用することにより被写体の構造を推定してもよい。
ステップS105の後、パラメーター生成部53は、第1の3D座標系および第2の3D座標系を共通座標系に変換するための変換パラメーターを生成する(ステップS106)。
以下では、3D座標系について説明する。第1の3Dデータにおける第1の3D座標系と、第2の3Dデータにおける第2の3D座標系とは、互いに一致しない。第1の3Dデータと第2の3Dデータとを広い範囲の3Dデータに合成するためには、第1の3D座標系および第2の3D座標系を任意の共通座標系に変換する必要がある。共通座標系は、第1の3D座標系および第2の3D座標系のいずれとも異なる3D座標系であってもよい。共通座標系は、第1の3D座標系または第2の3D座標系と同じであってもよい。
共通座標系が第1の3D座標系および第2の3D座標系のいずれとも異なる場合、パラメーター生成部53は、第1の3D座標系を第3の3D座標系に変換するための第1の変換パラメーターを生成し、かつ、第2の3D座標系を第3の3D座標系に変換するための第2の変換パラメーターを生成する。
一方、共通座標系が第1の3D座標系と同じである場合、パラメーター生成部53は、第2の3D座標系を第1の3D座標系に変換するための第2の変換パラメーターのみを生成する。同様に、共通座標系が第2の3D座標系と同じである場合、パラメーター生成部53は、第1の3D座標系を第2の3D座標系に変換するための第1の変換パラメーターのみを生成する。
以下では、3D座標系の縮尺について説明する。第1の3Dデータの縮尺と、第2の3Dデータの縮尺とは、必ずしも互いに一致しない。第1の3Dデータと第2の3Dデータとを広い範囲の3Dデータに合成するためには、第1の3Dデータの縮尺と第2の3Dデータの縮尺とを互いに一致させる必要がある。合成された3Dデータの縮尺は、第1の3Dデータの縮尺および第2の3Dデータの縮尺のいずれとも異なっていてもよい。合成された3Dデータの縮尺は、第1の3Dデータの縮尺または第2の3Dデータの縮尺と同じであってもよい。
以下では、第1の3D座標系が座標系の基準であり、かつ共通座標系として使用される例を説明する。以下の例では、パラメーター生成部53は、第2の3D座標系の位置および姿勢を第1の3D座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。また、パラメーター生成部53は、第2の3D座標系の縮尺を第1の3D座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。しかしながら、変換パラメーターを生成する方法は、以下の例に限らない。第2の3D座標系が共通座標系として使用されてもよい。第1の3D座標系および第2の3D座標系のいずれとも異なる3D座標系が共通座標系として使用されてもよい。
パラメーター生成部53は、ステップS106において、図6に示す処理を実行する。図6は、パラメーター生成部53が実行する処理の手順を示す。
構造情報は、第1の3Dデータおよび第2の3Dデータの各々の3D形状が略円柱形状であることを示す。そのため、パラメーター生成部53は、第1の3Dデータの円柱軸(第1の円柱軸)を算出する(ステップS106a)。第1の3Dデータの円柱軸は、第1の3Dデータの円柱の中心軸を示す。
図7は、図3と同様の画像を示す。図3に示す部分と同じ部分の説明を省略する。パラメーター生成部53は、第1の円柱軸AX11を算出する。
ステップS106aの後、パラメーター生成部53は、第2の3Dデータの円柱軸(第2の円柱軸)を算出する(ステップS106b)。第2の3Dデータの円柱軸は、第2の3Dデータの円柱の中心軸を示す。パラメーター生成部53は、図7に示す第2の円柱軸AX12を算出する。
ステップS106aおよびステップS106bの順番は、図6に示す順番に限らない。ステップS106bが実行された後、ステップS106aが実行されてもよい。
構造情報は、第1の3Dデータの3D形状の内径および第2の3Dデータの3D形状の内径が等しいことを示す。そのため、ステップS106bの後、パラメーター生成部53は、第1の3Dデータの円柱の内径および第2の3Dデータの円柱の内径が互いに一致するように第2の3Dデータの縮尺を補正するための縮尺変換パラメーターを生成する(ステップS106c)。具体的には、パラメーター生成部53は、図7に示す第2の3D形状3D12の円柱の直径DM12を第1の3D形状3D11の円柱の直径DM11と一致させるための縮尺変換パラメーターを生成する。
構造情報は、第1の3Dデータの円柱の中心軸および第2の3Dデータの円柱の中心軸が一致することを示す。そのため、ステップS106cの後、パラメーター生成部53は、第1の3Dデータの円柱軸および第2の3Dデータの円柱軸が互いに一致するように第2の3Dデータの位置および姿勢を補正するための位置姿勢変換パラメーターを生成する(ステップS106d)。ステップS106dが実行されたとき、図6に示す処理が終了する。
各3Dデータがタイムスタンプを含む場合、パラメーター生成部53は、タイムスタンプ(時間情報)を使用することにより、接続領域を特定することができる。タイムスタンプは、第1の3Dデータおよび第2の3Dデータの各々を生成するために使用された2枚以上の画像の各々が生成された時刻を示す。例えば、第1の3Dデータは、図7に示す時刻t1から時刻t2までのタイムスタンプを含み、かつ第2の3Dデータは、図7に示す時刻t3から時刻t4までのタイムスタンプを含む。
パラメーター生成部53は、時刻t2と関連付けられた第1の3Dデータの領域と、時刻t3と関連付けられた第2の3Dデータの領域とを接続領域として特定する。具体的には、パラメーター生成部53は、第1の3D形状3D11の第1の接続領域CR11および第2の3D形状3D12の第2の接続領域CR12を特定する。
第1の接続領域CR11は、第1の3D形状3D11の終端を含む。第2の接続領域CR12は、第2の3D形状3D12の始端を含む。パラメーター生成部53は、第2の接続領域CR12における第2の円柱軸AX12を第1の接続領域CR11における第1の円柱軸AX11と一致させるための位置姿勢変換パラメーターを生成する。
パラメーター生成部53は、ステップS106aからS106dを実行することにより、第1の3D座標系および第2の3D座標系を共通座標系に変換することができる。情報受付部57が“直管”という文字列を受け付けた場合、パラメーター生成部53は、第1の3D座標系および第2の3D座標系を共通座標系に変換するための位置姿勢パラメーターおよび縮尺パラメーターを生成する。
ステップS106の後、変換部54は、ステップS106において生成された変換パラメーターを使用することにより、第1の3D座標系および第2の3D座標系を共通座標系に変換する。つまり、変換部54は、第1の3Dデータおよび第2の3Dデータの各々を共通座標系における3Dデータに変換する(ステップS107)。第1の3D座標系が共通座標系として使用される場合、第1の3D座標系の位置、姿勢、および縮尺は変更されず、第2の3D座標系の位置、姿勢、および縮尺が変更される。
ステップS107の後、データ生成部55は、共通座標系における第1の3Dデータおよび第2の3Dデータを互いに接続する(ステップS108)。これにより、データ生成部55は、被写体の広い範囲の3Dデータを生成する。
第1の3D座標系および第2の3D座標系が共通座標系に変換された後、第1の3Dデータおよび第2の3Dデータが1つの3Dデータに合成される必要はない。したがって、データ生成部55が省略されてもよい。
ステップS108の後、表示制御部56は、ステップS108において生成された3Dデータが示す3D形状の画像を表示部71に表示する(ステップS109)。ステップS109が実行されたとき、図2に示す処理が終了する。
図8は、表示部71に表示された画像の例を示す。図7に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG12を表示部71に表示する。画像IMG12は、領域R13を含む。第1の3D形状3D11と第2の3D形状3D12との画像が領域R13に表示される。
第1の接続領域および第2の接続領域が互いに接続されるように第1の3D形状3D11および第2の3D形状3D12が配置される。図8に示す例では、第1の接続領域および第2の接続領域の接続を理解することを容易にするために、第1の3D形状3D11および第2の3D形状3D12の間にすき間がある。
表示制御部56は、領域R14および領域R15を領域R13に表示する。領域R14は第1の接続領域と対応し、かつ領域R15は第2の接続領域と対応する。図8に示す例では、領域R14および領域R15の各々は線で表示される。領域R14および領域R15の各々が線で表示されるため、ユーザーは、第1の3D形状3D11および第2の3D形状3D12が互いに接続されている位置を容易に確認することができる。
表示制御部56は、領域R14および領域R15を第1の色で表示し、かつ領域R14および領域R15以外の領域を第1の色と異なる第2の色で表示してもよい。領域R14および領域R15の各々の位置が音声でユーザーに通知されてもよい。ユーザーが接続領域と接続領域以外の領域とを互いに区別できる限り、3D形状の領域をユーザーに通知する方法は上記の方法に限らない。
表示制御部56は、領域R14および領域R15を互いに異なる色で表示してもよい。ユーザーが広い範囲の3D形状を見渡したとき、ユーザーは、第1の3D形状3D11と第2の3D形状3D12とが互いにどれだけ離れているのかを容易に確認することができる。また、ユーザーは、第1の3D形状3D11と第2の3D形状3D12とがどこで互いに接続されているのかを容易に確認することができる。
第1の3D形状3D11と第2の3D形状3D12との画像が検査レポートに付加されてもよい。表示制御部56は、その検査レポートを表示部71に表示することにより、第1の3D形状3D11と第2の3D形状3D12との画像を表示部71に表示してもよい。
パラメーター生成部53は、ステップS106において、第1の接続領域および第2の接続領域の接続の信頼度を算出してもよい。その信頼度は、第1の接続領域および第2の接続領域の接続の精度を示す。例えば、パラメーター生成部53は、第1の3Dデータを使用する円柱フィッティングを実行する。これにより、パラメーター生成部53は、第1の3Dデータを近似する円柱を算出し、かつその円柱の中心軸(第1の円柱軸)を算出する。また、パラメーター生成部53は、第2の3Dデータを使用する円柱フィッティングを実行する。これにより、パラメーター生成部53は、第2の3Dデータを近似する円柱を算出し、かつその円柱の中心軸(第2の円柱軸)を算出する。
3Dデータに含まれる3D座標と、算出された円柱の3D座標との間に誤差が発生する。パラメーター生成部53は、3Dデータの各点と円柱上の各点との距離の誤差を3Dデータの点毎に算出し、その誤差の平均または標準偏差等を3Dデータの信頼度として算出する。パラメーター生成部53は、第1の3Dデータの信頼度および第2の3Dデータの信頼度の統計値を第1の接続領域および第2の接続領域における接続の信頼度として算出する。その統計値は、第1の3Dデータの信頼度および第2の3Dデータの信頼度の最小値、最大値、平均値などである。
表示制御部56は、ステップS109において、第1の3Dデータの信頼度および第2の3Dデータの信頼度を表示部71に表示してもよい。例えば、各信頼度は、百分率として表示される。あるいは、各信頼度は、1から5の段階で表示される。信頼度を表示する方法は、上記の例に限らない。
3Dデータによって示される3D形状が完全な円柱である場合、パラメーター生成部53は、円柱軸を正確に算出することができる。そのため、信頼度は高い。一方、3Dデータが誤差を含む場合、3Dデータを近似する円柱の中心軸は本来の中心軸からずれている。そのため、信頼度は低い。信頼度が表示されるため、ユーザーは、第1の接続領域および第2の接続領域の接続の精度を確認することができる。
本発明の各態様の3次元画像表示方法は、第1の取得ステップ、第2の取得ステップ、変換ステップ、および表示ステップを有する。データ取得部52は、第1の取得ステップ(ステップS100)において、被写体の第1の3Dデータおよびその被写体の第2の3Dデータを記憶する記憶部73(記録媒体)に接続し、かつ第1の3Dデータを記憶部73から取得する。第1の3Dデータは、第1の3D座標系において定義された3D座標を含む。第2の3Dデータは、第1の3D座標系と異なる第2の3D座標系において定義された3D座標を含む。第1の3Dデータと対応する被写体の領域の少なくとも一部と、第2の3Dデータと対応する被写体の領域の少なくとも一部とは互いに異なる。データ取得部52は、第2の取得ステップ(ステップS102)において、記憶部73に接続し、かつ第2の3Dデータを記憶部73から取得する。変換部54は、変換ステップ(ステップS107)において、被写体の幾何的な構造に関する構造情報に基づいて、第1の3D座標系および第2の3D座標系を3次元の共通座標系に変換する。構造情報は、第1の3Dデータおよび第2の3Dデータのいずれも使用せずに生成される。表示制御部56は、表示ステップ(ステップS109)において、共通座標系における第1の3Dデータの画像と共通座標系における第2の3Dデータの画像とを表示部71(ディスプレイ)に表示する。
本発明の各態様の3次元画像表示装置は、データ取得部52、変換部54、および表示制御部56を有する。データ取得部52は、被写体の第1の3Dデータおよびその被写体の第2の3Dデータを記憶する記憶部73(記録媒体)に接続し、かつ第1の3Dデータおよび第2の3Dデータを記憶部73から取得する。変換部54は、被写体の幾何的な構造に関する構造情報に基づいて、第1の3D座標系および第2の3D座標系を3次元の共通座標系に変換する。表示制御部56は、共通座標系における第1の3Dデータの画像と共通座標系における第2の3Dデータの画像とを表示部71(ディスプレイ)に表示する。
本発明の各態様は、次の変形例を含んでもよい。2枚以上の第1の画像の各々と、2枚以上の第2の画像の各々とは時間情報(タイムスタンプ)を含む。変換部54は、変換ステップ(ステップS107)において、時間情報に基づいて第1の3D座標系および第2の3D座標系を共通座標系に変換する。
本発明の各態様は、次の変形例を含んでもよい。変換部54は、変換ステップ(ステップS107)において、被写体の第1の領域(第1の接続領域CR11)および被写体の第2の領域(第2の接続領域CR12)が互いに接続されるように第1の3D座標系および第2の3D座標系を共通座標系に変換する。第1の領域は、第1の3Dデータに含まれる3D座標と対応する。第2の領域は、第2の3Dデータに含まれる3D座標と対応する。表示制御部56は、表示ステップ(ステップS109)において、第1の領域および第2の領域の位置を示す情報を表示部71(ディスプレイ)に表示する。
本発明の各態様は、次の変形例を含んでもよい。表示制御部56は、表示ステップ(ステップS109)において、第1の領域(第1の接続領域CR11)および第2の領域(第2の接続領域CR12)の接続の精度を示す情報を表示部71(ディスプレイ)に表示する。
本発明の各態様は、次の変形例を含んでもよい。変換部54は、変換ステップ(ステップS107)において、構造情報に基づいて、第1の3D座標系および第2の3D座標系を共通座標系に変換するための位置の変換パラメーターおよび姿勢の変換パラメーターを生成する。変換部54は、変換ステップ(ステップS107)において、位置の変換パラメーターおよび姿勢の変換パラメーターを使用することにより第1の3D座標系および第2の3D座標系を共通座標系に変換する。
本発明の各態様は、次の変形例を含んでもよい。パラメーター生成部53は、生成ステップ(ステップS106)において、第1の3Dデータが示す3D形状の縮尺と、第2の3Dデータが示す3D形状の縮尺との少なくとも1つを補正するための縮尺の変換パラメーターを生成する。変換部54は、変換ステップ(ステップS107)において、縮尺の変換パラメーターを使用することにより第1の3D座標系および第2の3D座標系を共通座標系に変換する。
本発明の各態様は、次の変形例を含んでもよい。第1の3Dデータは、互いに異なる2つ以上の視点において取得された2枚以上の第1の画像を使用することにより生成される。第2の3Dデータは、互いに異なる2つ以上の視点において取得された2枚以上の第2の画像を使用することにより生成される。2枚以上の第1の画像の少なくとも1枚と、2枚以上の第2の画像の少なくとも1枚とは、互いに異なる。
本発明の各態様は、次の変形例を含んでもよい。2枚以上の第1の画像は、第1の動画に含まれる2枚以上の画像の少なくとも一部である。2枚以上の第2の画像は、第1の動画と同じまたは異なる第2の動画に含まれる2枚以上の画像の少なくとも一部である。
本発明の各態様は、次の変形例を含んでもよい。2枚以上の第1の画像および2枚以上の第2の画像は、内視鏡によって生成される。
本発明の各態様は、次の変形例を含んでもよい。2枚以上の第1の画像および2枚以上の第2の画像は、単眼光学系を通して取得された被写体の光学像に基づいて生成される。
第1の実施形態において、第1の3Dデータおよび第2の3Dデータが共通の領域の3Dデータを含まない場合がある。その場合であっても、画像表示装置50は、2つ以上の3Dデータが示す広い範囲の3D形状の画像を表示することができる。そのため、ユーザーは、検査対象の全体の構造を視野に捉えることができ、かつその構造を確認することができる。
第1の3Dデータが示す3D形状における第1の接続領域と、第2の3Dデータが示す3D形状における第2の接続領域との間の領域に対応する3Dデータが欠落している場合がある。その場合であっても、画像表示装置50は、2つ以上の3Dデータが示す広い範囲の3D形状の画像を表示することができる。
(第1の実施形態の第1の変形例)
本発明の第1の実施形態の第1の変形例を説明する。図1に示す画像表示装置50は、図9に示す画像表示装置50aに変更される。図9は、画像表示装置50aの構成を示す。図1に示す構成と同じ構成の説明を省略する。
図9に示す画像表示装置50aは、制御部51、データ取得部52、パラメーター生成部53、変換部54、データ生成部55、表示制御部56、情報受付部57、構造推定部58、および調整部59を有する。
画像表示装置50aの各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。画像表示装置50aの各部は、1つまたは複数のプロセッサを含むことができる。画像表示装置50aの各部は、1つまたは複数の論理回路を含むことができる。
調整部59は、共通座標系における第1の3Dデータおよび第2の3Dデータの少なくとも一方の位置および姿勢の少なくとも一方を調整する。例えば、調整部59は、第1の3Dデータおよび第2の3Dデータの調整処理を実行する。あるいは、調整部59は、第1の3Dデータのみの調整処理または第2の3Dデータのみの調整処理を実行する。調整部59は、調整処理において、3Dデータの位置および姿勢を調整する。あるいは、調整部59は、調整処理において、3Dデータの位置のみ、または3Dデータの姿勢のみを調整する。
調整部59が調整処理を実行した後、表示制御部56は、第1の3Dデータおよび第2の3Dデータの画像を表示部71に再度表示する。これにより、第1の3Dデータの画像および第2の3Dデータの画像の少なくとも一方の位置および姿勢の少なくとも一方が変更される。
図10を使用することにより、画像表示装置50aが実行する処理について説明する。図10は、画像表示装置50aが実行する処理の手順を示す。図2に示す処理と同じ処理の説明を省略する。
例えば、ステップS108において、図8に示す画像IMG12が表示部71に表示される。図8に示す例では、第1の3D形状3D11の終端と第2の3D形状3D12の始端とが一致している。第1の3D形状3D11の終端と第2の3D形状3D12の始端との間の3Dデータが欠落している場合がある。
第1の実施形態の第1の変形例において、ユーザーは、第1の3D形状3D11の終端と第2の3D形状3D12の始端との間の区間の長さを予想する。その区間における3Dデータは欠落している。ユーザーは、第1の3D形状3D11の終端と第2の3D形状3D12の始端とがその区間の長さだけ離れるように第1の3D形状3D11および第2の3D形状3D12の配置を変更することができる。
ユーザーは、操作部70を操作することにより、第1の3D形状3D11および第2の3D形状3D12の少なくとも一方を移動させる指示を画像表示装置50aに入力する。情報受付部57は、その指示を受け付ける。以下では、第2の3D形状3D12が移動する例を説明する。調整部59は、情報受付部57によって受け付けられた指示に基づいて第2の3D形状3D12の位置および姿勢の少なくとも一方を調整する(ステップS110)。
ステップS108において生成された3Dデータは、第1の3Dデータと対応する3Dデータと、第2の3Dデータと対応する3Dデータとを含む。調整部59は、第2の3Dデータと対応する3Dデータの3D座標を変更する。これにより、調整部59は、その3Dデータが示す3D形状の位置および姿勢の少なくとも一方を調整する。
ステップS110の後、表示制御部56は、ステップS110において処理された3Dデータが示す3D形状の画像を表示部71に表示する(ステップS111)。ステップS111が実行されたとき、図10に示す処理が終了する。
図11は、表示部71に表示された画像の例を示す。図8に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG13を表示部71に表示する。
ユーザーは、第2の3D形状3D12を第1の3D形状3D11に近づける指示、または第1の3D形状3D11から遠ざける指示を画像表示装置50aに入力する。あるいは、ユーザーは、第2の3D形状3D12を回転させる指示を画像表示装置50aに入力する。
ユーザーが第2の3D形状3D12の位置および姿勢を自由に変更するために実施する操作は複雑である。そのため、第2の3D形状3D12の移動が制限されてもよい。例えば、“直管”が選択された場合、円柱軸の方向が変化しない範囲でユーザーが第2の3D形状3D12を移動してもよい。この場合、ユーザーは、円柱軸に平行な方向に第2の3D形状3D12を移動することができ、かつ円柱軸を中心にして第2の3D形状3D12を回転させることができる。
被写体が直管の場合であっても、第2の3D形状3D12の移動を制限するための条件は上記の例に限らない。
図11に示す例では、ユーザーは、第2の3D形状3D12を右方向に移動させる指示を画像表示装置50aに入力する。調整部59は、第2の3D形状3D12が右方向に移動するように3Dデータの3D座標を変更する。
本発明の各態様は、次の変形例を含んでもよい。調整部59は、調整ステップ(ステップS110)において、共通座標系における第1の3Dデータおよび第2の3Dデータの少なくとも一方の位置および姿勢の少なくとも一方を調整する。
第1の実施形態の第1の変形例において、広い範囲の3D形状における第1の3D形状および第2の3D形状の位置および姿勢の少なくとも一方が調整される。この調整を通して、広い範囲の3Dデータが示す3D形状が実際の検査対象の構造に近づくため、その3Dデータの品質が向上する。
(第1の実施形態の第2の変形例)
本発明の第1の実施形態の第2の変形例を説明する。第1の実施形態の第2の変形例において、図1に示す画像表示装置50が使用される。
前述した第1の実施形態における被写体は直管である。一方、第1の実施形態の第2の変形例において、被写体が90度継手である例を説明する。
例えば、ユーザーは、図4に示す“パイプ”を選択し、その後、“90度継手”を選択する。選択が決定したことを示す情報をユーザーが画像表示装置50に入力したとき、情報受付部57は、ユーザーによって選択された情報を受け付ける。このとき、情報受付部57は、“90度継手”という文字列を受け付ける。
例えば、90度継手の構造情報は、第1の3Dデータおよび第2の3Dデータの各々の3D形状が略円柱形状であることを示す。構造情報は、第1の3Dデータの3D形状の内径および第2の3Dデータの3D形状の内径が等しいことを示す。構造情報は、第1の3Dデータの円柱の中心軸および第2の3Dデータの円柱の中心軸が直交することを示す。パラメーター生成部53は、ステップS106において、構造情報に基づいて変換パラメーターを生成する。
図12は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG21を表示部71に表示する。画像IMG21は、領域R21を含む。第1の3D形状3D21と第2の3D形状3D22との画像が領域R21に表示される。第1の3D形状3D21は、第1の3Dデータによって示される。第2の3D形状3D22は、第2の3Dデータによって示される。
図12に示す例では、パラメーター生成部53は、第2の3D座標系の位置および姿勢を第1の3D座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。また、パラメーター生成部53は、第2の3D座標系の縮尺を第1の3D座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。パラメーター生成部53は、第1の3D形状3D21の第1の円柱軸AX21および第2の3D形状3D22の第2の円柱軸AX22を算出する。パラメーター生成部53は、第2の3D形状3D22の円柱の直径DM22を第1の3D形状3D21の円柱の直径DM21と一致させるための縮尺変換パラメーターを生成する。
第1の3Dデータは、図12に示す時刻t1から時刻t2までのタイムスタンプを含み、かつ第2の3Dデータは、図12に示す時刻t3から時刻t4までのタイムスタンプを含む。パラメーター生成部53は、時刻t2と関連付けられた第1の3D形状3D21の第1の接続領域を特定し、かつ時刻t3と関連付けられた第2の3D形状3D22の第2の接続領域を特定する。
第1の接続領域は、第1の3D形状3D21の終端を含む。第2の接続領域は、第2の3D形状3D22の始端を含む。パラメーター生成部53は、第2の接続領域における第2の円柱軸AX22が第1の接続領域における第1の円柱軸AX21と直交するための位置姿勢変換パラメーターを生成する。
第2の接続領域は、第1の接続領域と近い位置に配置される。パラメーター生成部53は、第1の接続領域および第2の接続領域の間の領域が小さくなるように位置姿勢変換パラメーターを生成する。第1の接続領域および第2の接続領域の間の領域(90度継手の領域)の3Dデータは欠落している。パラメーター生成部53は、第1の接続領域および第2の接続領域が互いに重ならないように位置姿勢変換パラメーターを生成する。
曲がっている領域の3Dデータに加えて、直管部の3Dデータが欠落している可能性がある。そのため、第1の接続領域および第2の接続領域の間の区間の長さは実際には不明である。図12に示す画像IMG21が表示された後、第1の実施形態の第1の変形例と同様に、3D形状の位置または姿勢が調整されてもよい。
表示制御部56は、領域R22および領域R23を領域R21に表示する。領域R22は第1の接続領域と対応し、かつ領域R23は第2の接続領域と対応する。
本発明の各実施形態の目的は、第1の3Dデータおよび第2の3Dデータが共通の領域の3Dデータを含まない場合であっても広い範囲の3D形状の画像を表示することである。そのため、第1の3Dデータおよび第2の3Dデータの位置および姿勢が正確に調整される必要はない。ユーザーがその位置および姿勢の調整を実施してもよい。第1の3Dデータおよび第2の3Dデータが互いに粗く接続されてもよい。
図13は、表示部71に表示された画像の例を示す。図12に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG22を表示部71に表示する。
第1の3D形状3D21の終端における第1の円柱軸AX21上の点は、第2の3D形状3D22の始端における第2の円柱軸AX22上の点と一致する。第1の接続領域の一部および第2の接続領域の一部は互いに重なる。検査対象である被写体の構造は、実際には図13に示す構造と異なる。第1の3Dデータおよび第2の3Dデータが互いに正確に接続される必要がない場合、表示制御部56は、図13に示すように画像IMG22を表示部71に表示することができる。広い範囲の3D形状の見た目を改善するためにユーザーが第1の実施形態の第1の変形例と同様に3Dデータの位置および姿勢を調整してもよい。
第1の実施形態の第2の変形例において、被写体が90度継手である場合、画像表示装置50は、直管を被写体として選択する処理と同様の処理を実行する。これにより、画像表示装置50は、第1の3Dデータおよび第2の3Dデータを互いに接続することができ、かつ広い範囲の3D形状の画像を表示することができる。
(第1の実施形態の第3の変形例)
本発明の第1の実施形態の第3の変形例を説明する。第1の実施形態の第3の変形例において、図1に示す画像表示装置50が使用される。
前述した第1の実施形態の第2の変形例における被写体は、同径の90度継手である。一方、第1の実施形態の第3の変形例において、被写体が異径の90度継手である例を説明する。異径の継手がパイプに使用される場合がある。第1の実施形態の第3の変形例は、そのパイプの検査に適用される。
図4に示すダイアログボックスDL10が表示部71に表示された後、表示制御部56は、図14に示すダイアログボックスDL20を表示部71に表示する。ユーザーは、操作部70を操作することにより、第1の3Dデータの内径を入力ボックスIB21に入力し、かつ第2の3Dデータの内径を入力ボックスIB22に入力する。
情報受付部57は、入力ボックスIB21に入力された内径と、入力ボックスIB22に入力された内径とを受け付ける。パラメーター生成部53は、ステップS106において、第1の3Dデータの円柱の内径および第2の3Dデータの円柱の内径に基づいて縮尺変換パラメーターを生成する。
被写体が90度継手であり、かつ第2の3Dデータの円柱の内径が第1の3Dデータの円柱の内径の1.5倍である例を説明する。図15は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG31を表示部71に表示する。画像IMG31は、領域R31を含む。第1の3D形状3D31と第2の3D形状3D32との画像が領域R31に表示される。第1の3D形状3D31は、第1の3Dデータによって示される。第2の3D形状3D32は、第2の3Dデータによって示される。
図15に示す例では、パラメーター生成部53は、第2の3D座標系の位置および姿勢を第1の3D座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。また、パラメーター生成部53は、第2の3D座標系の縮尺を第1の3D座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。パラメーター生成部53は、第1の3D形状3D31の第1の円柱軸AX31および第2の3D形状3D32の第2の円柱軸AX32を算出する。パラメーター生成部53は、第2の3D形状3D32の円柱の直径DM32を第1の3D形状3D31の円柱の直径DM31の1.5倍にするための縮尺変換パラメーターを生成する。
第1の3Dデータは、図15に示す時刻t1から時刻t2までのタイムスタンプを含み、かつ第2の3Dデータは、図15に示す時刻t3から時刻t4までのタイムスタンプを含む。パラメーター生成部53は、時刻t2と関連付けられた第1の3D形状3D31の第1の接続領域を特定し、かつ時刻t3と関連付けられた第2の3D形状3D32の第2の接続領域を特定する。
第1の接続領域は、第1の3D形状3D31の終端を含む。第2の接続領域は、第2の3D形状3D32の始端を含む。パラメーター生成部53は、第2の接続領域における第2の円柱軸AX32が第1の接続領域における第1の円柱軸AX31と直交するための位置姿勢変換パラメーターを生成する。
第2の接続領域は、第1の接続領域と近い位置に配置される。パラメーター生成部53は、第1の接続領域および第2の接続領域の間の領域が小さくなるように位置姿勢変換パラメーターを生成する。第1の接続領域および第2の接続領域の間の領域の3Dデータは欠落している。パラメーター生成部53は、第1の接続領域および第2の接続領域が互いに重ならないように位置姿勢変換パラメーターを生成する。広い範囲の3Dデータの画像が表示された後、ユーザーが第1の実施形態の第1の変形例と同様に3Dデータの位置および姿勢を調整してもよい。
表示制御部56は、領域R32および領域R33を領域R31に表示する。領域R32は第1の接続領域と対応し、かつ領域R33は第2の接続領域と対応する。
第1の実施形態の第3の変形例において、被写体が異径の90度継手である場合、画像表示装置50は、直管を被写体として選択する処理と同様の処理を実行する。これにより、画像表示装置50は、第1の3Dデータおよび第2の3Dデータを互いに接続することができ、かつ広い範囲の3D形状の画像を表示することができる。
(第1の実施形態の第4の変形例)
本発明の第1の実施形態の第4の変形例を説明する。第1の実施形態の第4の変形例において、図1に示す画像表示装置50が使用される。
前述した第1の実施形態における被写体は直管である。前述した第1の実施形態の第2および第3の変形例における被写体は90度継手である。一方、第1の実施形態の第4の変形例において、被写体がU字菅である例を説明する。熱交換チューブ等はU字菅を有する。
図16は、U字菅の例を示す。U字菅は、直管部SP41および円弧部CP41を有する。以下では、円弧部CP41において3Dデータの一部が欠落している例を説明する。第1の3Dデータおよび第2の3Dデータは、円弧部CP41において互いに接続される。第1の3Dデータおよび第2の3Dデータが直管部SP41において互いに接続される場合、画像表示装置50は、被写体が直管である第1の実施形態における処理と同様の処理を実行し、第1の3Dデータおよび第2の3Dデータを互いに接続する。
例えば、U字管の構造情報は、第1の3Dデータおよび第2の3Dデータの各々の3D形状が略円柱形状であることを示す。構造情報は、円弧部が略ドーナツ形状であることを示す。3Dデータが存在する円弧部の範囲は、180度の範囲すなわち半円のみである。構造情報は、第1の3Dデータの3D形状の内径および第2の3Dデータの3D形状の内径が等しいことを示す。構造情報は、直管部における2つの円柱の2つの中心軸は互いに平行であり、かつ円弧部は任意の曲率半径を持つことを示す。パラメーター生成部53は、ステップS106において、構造情報に基づいて変換パラメーターを生成する。
図17は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG41を表示部71に表示する。画像IMG41は、領域R41を含む。第1の3D形状3D41と第2の3D形状3D42との画像が領域R41に表示される。第1の3D形状3D41は、第1の3Dデータによって示される。第2の3D形状3D42は、第2の3Dデータによって示される。
図17に示す例では、パラメーター生成部53は、第2の3D座標系の位置および姿勢を第1の3D座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。また、パラメーター生成部53は、第2の3D座標系の縮尺を第1の3D座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。パラメーター生成部53は、第1の3D形状3D41の第1の円柱軸AX41および第2の3D形状3D42の第2の円柱軸AX42を算出する。第1の円柱軸AX41および第2の円柱軸AX42は、直管部において直線状であり、かつ円弧部において円弧状である。
パラメーター生成部53は、第2の3D形状3D42の円柱の直径DM42を第1の3D形状3D41の円柱の直径DM41と一致させるための縮尺変換パラメーターを生成する。U字菅の直管部における2つの円柱の2つの内径は同じであることが多い。そのため、画像表示装置50は、第1の実施形態において縮尺変換パラメーターを生成する方法と同様の方法を使用することにより縮尺変換パラメーターを生成することができる。
第1の3Dデータは、図17に示す時刻t1から時刻t2までのタイムスタンプを含み、かつ第2の3Dデータは、図17に示す時刻t3から時刻t4までのタイムスタンプを含む。パラメーター生成部53は、時刻t2と関連付けられた第1の3D形状3D41の第1の接続領域を特定し、かつ時刻t3と関連付けられた第2の3D形状3D42の第2の接続領域を特定する。
第1の接続領域は、第1の3D形状3D41の終端を含む。第2の接続領域は、第2の3D形状3D42の始端を含む。パラメーター生成部53は、第1の接続領域および第2の接続領域を互いに接続するための位置姿勢変換パラメーターを生成する。第1の接続領域および第2の接続領域は、円弧部が所定の曲率半径を持つという条件に従って互いに接続される。
円弧部における3Dデータの一部が欠落している場合、接続領域の位置と対応する円弧部の角度を示す情報は得られていない。第2の3Dデータが直管部の3Dデータを含む場合、直管部における2つの円柱の2つの中心軸が互いに平行であるという条件を使用することにより、パラメーター生成部53は、3Dデータが欠落している区間を推定することができる。
表示制御部56は、領域R42および領域R43を領域R41に表示する。領域R42は第1の接続領域と対応し、かつ領域R43は第2の接続領域と対応する。
第2の3Dデータが円弧部における3Dデータのみを含む場合がある。その場合、パラメーター生成部53が、第1の3Dデータおよび第2の3Dデータを互いに正確に接続するための位置姿勢変換パラメーターを生成することは困難である。パラメーター生成部53は、第1の3Dデータおよび第2の3Dデータの間の領域がなくなるように仮の位置姿勢変換パラメーターを生成してもよい。広い範囲の3Dデータの画像が表示された後、ユーザーが第1の実施形態の第1の変形例と同様に3Dデータの位置および姿勢を調整してもよい。このとき、ユーザーは、円弧に沿って3Dデータの位置を調整してもよい。
(第1の実施形態の第5の変形例)
本発明の第1の実施形態の第5の変形例を説明する。第1の実施形態の第5の変形例において、図1に示す画像表示装置50が使用される。
前述した第1の実施形態および第1の実施形態の第2から第4の変形例における被写体はパイプの検査部位である。一方、第1の実施形態の第5の変形例において、被写体がガスタービンの検査部位である例を説明する。ガスタービンは、航空機エンジンおよび発電機等における主要な検査対象である。以下では、ブレード検査における例を説明する。ブレードは、航空機エンジンのガスタービンの代表的な検査部位である。
発電機のタービンブレードの大きさは、航空機エンジンのガスタービンブレードの大きさと異なる。しかしながら、タービンブレードの構造はガスタービンブレードの構造と似ている。そのため、以下の処理はタービンブレード検査に適用されてもよい。
ガスタービンは2枚以上のブレードを有する。2枚以上のブレードは、ディスクと呼ばれる円盤状の部品に環状かつ放射状に固定されている。
図18は、ブレードの構成を概略的に示す。図18において、12枚のブレードBL50がディスクDS50に配置されている。実際には、数十枚のブレードまたは100枚を超えるブレードが1つのディスクに配置されている。中心位置CP50は、エンジンの回転軸に垂直な平面におけるディスクDS50の中心を示す。多段のディスクがガスタービンのコンプレッサーセクションおよびタービンセクションの各々に配置されている。各段のディスクは、動翼および静翼の一方として機能する多数のブレードを有する。検査マニュアルにおいて、IDが各ブレードに割り当てられていることが多い。
動翼が検査されるとき、スコープが、エンジンに設けられたアクセスポートからエンジン内に挿入される。動翼が手動または自動で回転し、かつスコープの先端が固定される。検査者はこの状態で検査を実施し、各ブレードに異常があるか否かを確認する。
一方、燃焼室のすぐ後方に配置されている静翼(ノズルガイドベーン)が検査されるとき、スコープが燃焼室のアクセスポートから燃焼室の後方に向かって挿入される。以下では、ノズルガイドベーンを静翼と呼ぶ。静翼の検査では、ブレードを回転させることはできない。検査者はスコープの先端を静翼のディスクの円周上で移動させ、各ブレードに異常があるか否かを確認する。
図4に示すダイアログボックスDL10の情報INF10は、検査対象であるガスタービンの情報と、ガスタービンにおけるブレードの情報とを含む。例えば、ユーザーは、“ガスタービン”を選択し、その後、“ブレード”を選択する。選択が決定したことを示す情報をユーザーが画像表示装置50に入力したとき、情報受付部57は、ユーザーによって選択された情報を受け付ける。このとき、情報受付部57は、“ブレード”という文字列を受け付ける。
例えば、ブレードの構造情報は、第1の3Dデータおよび第2の3Dデータの各々におけるブレードが任意の曲率半径を持つ円周上に等間隔で配置されていることを示す。構造情報は、ブレードの長さが同じであることを示す。パラメーター生成部53は、ステップS106において、構造情報に基づいて変換パラメーターを生成する。
エンジン機種、セクション、およびステージ段数が特定されている場合、ブレードの合計枚数、各ブレードの長さ、および各ブレードのIDは既知である。エンジン機種は、ブレードが配置されたエンジンの機種を示す。セクションは、コンプレッサーセクションまたはタービンセクションを示す。ステージ段数は、多段のディスクを含むステージにおけるディスクの位置(段数)を示す。構造情報は、ブレードの合計枚数、各ブレードの長さ、および各ブレードのIDを含んでもよい。この場合、パラメーター生成部53は、第1の3Dデータおよび第2の3Dデータを互いに正確に接続するための位置姿勢変換パラメーターを生成することができる。
画像表示装置50は、図2に示す処理を実行する。ステップS106における具体的な処理は、検査対象がパイプである場合における処理と異なる。
パラメーター生成部53は、ステップS106において、図19に示す処理を実行する。図19は、パラメーター生成部53が実行する処理の手順を示す。以下の例では、パラメーター生成部53は、第2の3D座標系の位置および姿勢を第1の3D座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。また、パラメーター生成部53は、第2の3D座標系の縮尺を第1の3D座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。
構造情報は、ブレードの長さが同じであることを示す。そのため、パラメーター生成部53は、第1の3Dデータのブレードの長さおよび第2の3Dデータのブレードの長さが互いに一致するように第2の3Dデータの縮尺を補正するための縮尺変換パラメーターを生成する(ステップS106e)。構造情報は、ブレードの全長を示す情報を含んでもよい。パラメーター生成部53は、その情報に基づいて、第1の3Dデータのブレードの長さおよび第2の3Dデータのブレードの長さが同じであると判断してもよい。
ステップS106eの後、パラメーター生成部53は、第1の3Dデータにおけるディスクの中心位置(第1の中心位置)を算出する(ステップS106f)。図18に示す例では、パラメーター生成部53は中心位置CP50を算出する。
パラメーター生成部53は、ディスクの中心位置を算出するためにどのような方法を使用してもよい。例えば、パラメーター生成部53は、各ブレードの長さ方向に伸びる直線が交わる位置を中心位置として算出してもよい。パラメーター生成部53は、パターンマッチングを実行することにより3Dデータにおけるブレードを検出してもよい。パラメーター生成部53は、ブレードの位置関係に基づいて外接円または内接円を算出し、その円の中心位置を算出してもよい。
ステップS106fの後、パラメーター生成部53は、ステップS106fと同様の処理を実行することにより、第2の3Dデータにおけるディスクの中心位置(第2の中心位置)を算出する(ステップS106g)。ステップS106gにおいてディスクの中心位置を算出する方法は、ステップS106fにおいてディスクの中心位置を算出する方法と同じであってもよいし、あるいは異なってもよい。
ステップS106gの後、パラメーター生成部53は、第1の中心位置および第2の中心位置が互いに一致するように第1の3Dデータおよび第2の3Dデータの各々の位置を補正するための位置姿勢変換パラメーターを生成する(ステップS106h)。
ステップS106hの後、パラメーター生成部53は、第2の3Dデータにおける始端ブレードを第1の3Dデータにおける終端ブレードの次のブレードとして配置するための位置姿勢変換パラメーターを算出する(ステップS106i)。ステップS106iが実行されたとき、図19に示す処理が終了する。
図20は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG51を表示部71に表示する。画像IMG51は、領域R51を含む。第1の3D形状3D51と第2の3D形状3D52との画像が領域R51に表示される。第1の3D形状3D51は、第1の3Dデータによって示される。第2の3D形状3D52は、第2の3Dデータによって示される。
第1の3D形状3D51は、4枚のブレードを含む。第1の3Dデータは、図20に示す時刻t1から時刻t2までのタイムスタンプを含む。ブレードBL51のタイムスタンプ(t1)が最も早く、かつブレードBL52のタイムスタンプ(t2)が最も遅い。第2の3D形状3D52は、8枚のブレードを含む。第2の3Dデータは、図20に示す時刻t3から時刻t4までのタイムスタンプを含む。ブレードBL53のタイムスタンプ(t3)が最も早く、かつブレードBL54のタイムスタンプ(t4)が最も遅い。
パラメーター生成部53は、時刻t2と関連付けられた第1の3D形状3D51の第1の接続領域を特定し、かつ時刻t3と関連付けられた第2の3D形状3D52の第2の接続領域を特定する。第1の接続領域は、第1の3D形状3D51における終端のブレードBL52を含む。第2の接続領域は、第2の3D形状3D52における始端のブレードBL53を含む。パラメーター生成部53は、第2の接続領域を第1の接続領域と接続するための位置姿勢変換パラメーターを生成する。
パラメーター生成部53は、時刻t1と関連付けられた第1の3D形状3D51の第1の接続領域を特定し、かつ時刻t4と関連付けられた第2の3D形状3D52の第2の接続領域を特定する。第1の接続領域は、第1の3D形状3D51における始端のブレードBL51を含む。第2の接続領域は、第2の3D形状3D52における終端のブレードBL54を含む。パラメーター生成部53は、第2の接続領域を第1の接続領域と接続するための位置姿勢変換パラメーターを生成する。
表示制御部56は、領域R52および領域R53を領域R51に表示する。領域R52および領域R53の各々は、第1の接続領域および第2の接続領域を含む。
ブレードBL51を含む第1の接続領域と、ブレードBL54を含む第2の接続領域とを互いに接続するために、ブレードBL51およびブレードBL54の位置関係が2枚以上の画像の特徴に基づいて判断されてもよい。その2枚以上の画像は、第1の3Dデータおよび第2の3Dデータを生成するために使用される。その第1の接続領域およびその第2の接続領域は、その特徴に基づいて互いに接続されてもよい。この方法はループクロージングと呼ばれる。公知技術をループクロージングに適用することができる。
実際に存在するブレードの合計枚数と、3Dデータにおけるブレードの合計枚数とが同じである場合、パラメーター生成部53は、第1の3Dデータおよび第2の3Dデータを互いに正確に接続するための位置姿勢変換パラメーターを生成することができる。3Dデータにおけるブレードの合計枚数は、第1の3Dデータにおけるブレードおよび第2の3Dデータにおけるブレードの合計枚数である。
図21は、3Dデータにおけるブレードの合計枚数が実際に存在するブレードの合計枚数よりも1枚だけ少ない場合に表示部71に表示された画像の例を示す。図20に示す部分と同じ部分の説明を省略する。
図21に示す第2の3D形状3D52は、図20に示すブレードBL54を含まない。図21に示す第2の3D形状3D52は、図20に示すブレードBL53を含まない可能性がある。そのため、実際には、第2の3D形状3D52がブレードBL53およびブレードBL54の一方を含まない可能性がある。
広い範囲の3Dデータの画像が表示された後、ユーザーが第1の実施形態の第1の変形例と同様に3Dデータの位置および姿勢を調整してもよい。このとき、ユーザーは、第2の3Dデータを回転させることにより第2の3Dデータの位置を調整してもよい。ユーザーは、第1の3Dデータおよび第2の3Dデータを回転させてもよい。3Dデータの位置は、任意の直径を持つ円の周上のみにおいて調整されてもよい。
(第2の実施形態)
本発明の第2の実施形態を説明する。第2の実施形態において、第1の3Dデータおよび第2の3Dデータを生成する方法を説明する。以下では、画像表示装置が内視鏡装置である例を説明する。
図22および図23を参照し、第2の実施形態における内視鏡装置1の構成を説明する。図22は、内視鏡装置1の外観を示す。図23は、内視鏡装置1の内部構成を示す。
図22に示す内視鏡装置1は、挿入部2、本体部3、操作部4、および表示部5を有する。内視鏡装置1は、被写体を撮像し、画像を生成する。被写体は、工業製品である。ユーザーは、様々な被写体の観察を実施するために、挿入部2の先端20に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。
挿入部2は、被写体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被写体を撮像し、かつ撮像信号を本体部3に出力する。挿入部2の先端20には、光学アダプターが装着される。例えば、単眼の光学アダプターが先端20に装着される。本体部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2によって取得された被写体の画像および操作メニュー等を表示画面に表示する。
操作部4は、ユーザーインタフェースである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。
図23に示す本体部3は、内視鏡ユニット8、CCU(Camera Control Unit)9、および制御装置10を有する。
内視鏡ユニット8は、図示していない光源装置および湾曲装置を有する。光源装置は、観察に必要な照明光を先端20に供給する。湾曲装置は、挿入部2に内蔵された湾曲機構を湾曲させる。
撮像素子28が挿入部2の先端20に内蔵されている。撮像素子28は、イメージセンサである。撮像素子28は、光学アダプターによって形成された被写体の光学像を光電変換し、かつ撮像信号を生成する。
CCU9は、撮像素子28を駆動する。撮像素子28から出力された撮像信号がCCU9に入力される。CCU9は、撮像素子28により取得された撮像信号に対して、増幅およびノイズ除去等を含む前処理を実施する。CCU9は、前処理が施された撮像信号をNTSC信号等の映像信号に変換する。
制御装置10は、映像信号処理回路12、ROM(Read Only Memory)13、RAM(Random Access Memory)14、カードインタフェース15、外部機器インタフェース16、制御インタフェース17、およびCPU(Central Processing Unit)18を有する。
映像信号処理回路12は、CCU9から出力された映像信号に対して、所定の映像処理を施す。例えば、映像信号処理回路12は、視認性向上に関わる映像処理を行う。例えば、その映像処理は、色再現、階調補正、ノイズ抑制、および輪郭強調などである。例えば、映像信号処理回路12は、CCU9から出力された映像信号と、CPU18によって生成されたグラフィック画像信号とを合成する。グラフィック画像信号は、操作画面の画像等を含む。映像信号処理回路12は、合成された映像信号を表示部5に出力する。
ROM13は、CPU18が内視鏡装置1の動作を制御するためのプログラムが記録された不揮発性の記録媒体である。RAM14は、CPU18が内視鏡装置1の制御のために使用する情報を一時的に記憶する揮発性の記録媒体である。CPU18は、ROM13に記録されたプログラムに基づいて内視鏡装置1の動作を制御する。
メモリカード42がカードインタフェース15に接続される。メモリカード42は、内視鏡装置1に着脱可能な記録媒体である。カードインタフェース15は、メモリカード42に記憶されている制御処理情報および画像情報等を制御装置10に取り込む。また、カードインタフェース15は、内視鏡装置1によって生成された制御処理情報および画像情報等をメモリカード42に記録する。
USB機器等の外部機器が外部機器インタフェース16に接続される。例えば、パーソナルコンピュータ(PC)41が外部機器インタフェース16に接続される。外部機器インタフェース16は、PC41へ情報を送信し、かつPC41から情報を受信する。これによって、PC41が情報を表示することができる。また、ユーザーは、PC41に指示を入力することにより、内視鏡装置1の制御に関する操作を実施することができる。
制御インタフェース17は、操作部4、内視鏡ユニット8、およびCCU9と動作制御のための通信を行う。制御インタフェース17は、ユーザーによって操作部4に入力された情報をCPU18に通知する。制御インタフェース17は、光源装置および湾曲装置を制御するための制御信号を内視鏡ユニット8に出力する。制御インタフェース17は、撮像素子28を制御するための制御信号をCCU9に出力する。
CPU18が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。この記録媒体に記録されたプログラムを内視鏡装置1以外のコンピュータが読み込み、かつ実行してもよい。例えば、PC41がプログラムを読み込んで実行してもよい。PC41は、プログラムに従って、内視鏡装置1を制御するための制御情報を内視鏡装置1に送信することにより内視鏡装置1を制御してもよい。あるいは、PC41は、内視鏡装置1から映像信号を取得し、かつ取得された映像信号を処理してもよい。
撮像素子28は、静止画群を取得するカメラである。静止画群は、2枚以上の画像を含む。2枚以上の画像の各々は、2枚以上の画像に含まれる他の画像と時間的に関連付けられている。例えば、2枚以上の画像の各々は静止画である。動画が静止画群の代わりに使用されてもよい。動画に含まれる2つ以上のフレームの各々は、タイムスタンプ(タイムコード)によって互いに関連付けられている。
例えば、撮像素子28は、1つの視点を持つ単眼のカメラである。この場合、2枚以上の静止画の各々は、単眼のカメラによって取得された画像である。第2の実施形態におけるカメラは、撮像素子28および観察光学系を含む。
上記のように、内視鏡装置1は、撮像素子28およびCPU18を有する。撮像素子28は、被写体を撮像し、かつ撮像信号を生成する。撮像信号は、被写体の画像を含む。したがって、撮像素子28は、被写体を撮像することにより生成された、その被写体の画像を取得する。その画像は2次元画像(2D画像)である。撮像素子28によって取得された画像は、映像信号処理回路12を経由してCPU18に入力される。
図24は、CPU18の機能構成を示す。CPU18の機能は、制御部180、データ取得部181、パラメーター生成部182、変換部183、データ生成部184、表示制御部185、情報受付部186、構造推定部187、およびデータ生成部188を含む。図24に示すブロックの少なくとも1つがCPU18と異なる回路で構成されてもよい。
図24に示す各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。図24に示す各部は、1つまたは複数のプロセッサを含むことができる。図24に示す各部は、1つまたは複数の論理回路を含むことができる。
制御部180は、図24に示す各部が実行する処理を制御する。
データ取得部181は、図1に示すデータ取得部52と同様の機能を持つ。データ取得部181は、RAM14に接続し、かつ第1の3Dデータおよび第2の3DデータをRAM14から取得する。データ取得部181は、第1の3Dデータおよび第2の3DデータをPC41内の記録媒体またはメモリカード42から取得してもよい。
パラメーター生成部182は、図1に示すパラメーター生成部53と同様の機能を持つ。パラメーター生成部182は、第1の3D座標系および第2の3D座標系を共通座標系に変換するための変換パラメーターを生成する。
変換部183は、図1に示す変換部54と同様の機能を持つ。変換部183は、パラメーター生成部182によって生成された変換パラメーターを使用することにより、第1の3D座標系および第2の3D座標系を共通座標系に変換する。これにより、変換部183は、第1の3Dデータおよび第2の3Dデータの各々を共通座標系における3Dデータに変換する。
データ生成部184は、図1に示すデータ生成部55と同様の機能を持つ。データ生成部184は、変換部183によって共通座標系における3Dデータに変換された第1の3Dデータおよび第2の3Dデータを互いに接続する。これにより、データ生成部184は、被写体の広い範囲の3Dデータを生成する。
表示制御部185は、映像信号処理回路12によって実行される処理を制御する。CCU9は、映像信号を出力する。映像信号は、撮像素子28によって取得された画像の各画素のカラーデータを含む。表示制御部185は、映像信号処理回路12に、CCU9から出力された映像信号を表示部5に出力させる。映像信号処理回路12は、映像信号を表示部5に出力する。表示部5は、映像信号処理回路12から出力された映像信号に基づいて画像を表示する。これにより、表示制御部185は、撮像素子28によって取得された画像を表示部5に表示する。
表示制御部185は、各種情報を表示部5に表示する。つまり、表示制御部185は、画像上に各種情報を表示する。各種情報は、カーソルを含んでもよい。カーソルは、ユーザーが画像上の特定の点を指定するためのマークである。
例えば、表示制御部185は、各種情報のグラフィック画像信号を生成する。表示制御部185は、生成されたグラフィック画像信号を映像信号処理回路12に出力する。映像信号処理回路12は、CCU9から出力された映像信号と、CPU18から出力されたグラフィック画像信号とを合成する。これにより、各種情報が画像に重畳される。映像信号処理回路12は、合成された映像信号を表示部5に出力する。表示部5は、各種情報が重畳された画像を表示する。
また、表示制御部185は、図1に示す表示制御部56と同様の機能を持つ。表示制御部185は、3Dデータのグラフィック画像信号を生成する。表示制御部185は、そのグラフィック画像信号を映像信号処理回路12に出力する。前述した処理と同様の処理が実行され、表示部5は、3Dデータの画像を表示する。これにより、表示制御部185は、3Dデータの画像を表示部5に表示する。
ユーザーは、操作部4を操作することにより、各種情報を内視鏡装置1に入力する。操作部4は、ユーザーによって入力された情報を出力する。その情報は、入力部である制御インタフェース17に入力される。その情報は、制御インタフェース17からCPU18に出力される。情報受付部186は、操作部4を経由して内視鏡装置1に入力された情報を受け付ける。
例えば、ユーザーは、操作部4を操作することにより、カーソルの位置情報を内視鏡装置1に入力する。表示部5がタッチパネルとして構成されている場合、ユーザーは表示部5の画面をタッチすることにより画像上の位置を示す位置情報を内視鏡装置1に入力する。情報受付部186は、内視鏡装置1に入力された位置情報を受け付ける。情報受付部186は、位置情報に基づいて画像上の位置を算出する。表示制御部185は、情報受付部186によって算出された位置にカーソルを表示する。
また、情報受付部186は、図1に示す情報受付部57と同様の機能を持つ。情報受付部186は、構造情報を受け付ける。
構造推定部187は、図1に示す構造推定部58と同様の機能を持つ。情報受付部186が、構造情報を含まない情報を受け付けた場合、構造推定部187は、その情報に基づいて、接続領域における被写体の構造を推定し、かつ構造情報を生成する。
データ生成部188は、図25に示す機能を持つ。図25は、データ生成部188の機能構成を示す。データ生成部188の機能は、画像取得部1880、条件受付部1881、およびデータ算出部1882を含む。
画像取得部1880は、静止画群をRAM14から取得する。画像取得部1880は、静止画群をPC41内の記録媒体またはメモリカード42から取得してもよい。
ユーザーは、操作部4を操作することにより、3Dデータを生成するための条件を示す情報を内視鏡装置1に入力する。条件受付部1881は、ユーザーが入力した情報に基づいて、3Dデータを生成するための条件を受け付ける。具体的には、その条件は、カメラの内部パラメーター、カメラの歪み補正パラメーター、設定値、および基準長等を含む。設定値は、3Dデータを生成するための各種処理に使用される。基準長は、3Dデータを実際の被写体のスケールと合わせるために使用される。
データ算出部1882は、静止画群に含まれる2枚以上の画像に基づいて被写体の3Dデータを生成(再構成)する。データ算出部1882が静止画群に含まれる全ての画像を使用する必要はない。静止画群が3枚以上の画像を含む場合、データ算出部1882は、静止画群の全てまたは一部に基づいて3Dデータを生成する。3Dデータは、被写体の2つ以上の点(3次元点群)の3D座標、カメラ座標、および姿勢情報を含む。
カメラ座標は、2枚以上の画像の各々を取得したカメラの3D座標を示し、かつ2枚以上の画像の各々と関連付けられている。カメラ座標は、画像が取得されたときの視点の3D座標を示す。例えば、カメラ座標は、カメラが有する観察光学系の3D座標を示す。姿勢情報は、2枚以上の画像の各々を取得したカメラの姿勢を示し、かつ2枚以上の画像の各々と関連付けられている。例えば、姿勢情報は、カメラが有する観察光学系の姿勢を示す。
データ算出部1882が実行する具体的な処理の手順について説明する。データ算出部1882は、画像取得部1880によって取得された静止画群と、条件受付部1881によって受け付けられた条件とを使用する。以下では、データ算出部1882が、静止画群に含まれる2枚の画像(静止画)を使用する例について説明する。2枚の画像が生成されたとき、カメラの2つの視点は互いに異なる。3枚以上の画像が使用される場合でも、基本原理は、2枚の画像が使用される場合と変わらない。以下で説明される方法は、3枚以上の画像が使用される場合にも適用できる。
以下で説明される方法では、互いに異なる2つの視点において取得された2枚の画像の各々における特徴点が検出され、複数の特徴点が互いに関連付けられる。また、以下で説明される方法では、複数の特徴点に基づいてカメラの位置、カメラの姿勢、および特徴点の3D座標が推定される。特徴点の情報を使用する方法は、Indirect Methodと呼ばれる。本発明の各実施形態に適用される方法はこの方法に限らない。
例えば、互いに異なる2つの視点において取得された2枚の画像の画素値を直接使用する方法がある。この方法を使用することにより、カメラの位置、カメラの姿勢、および各画素と対応する3D座標が推定される。この方法は、Direct Methodと呼ばれる。本発明の各実施形態において、この方法が使用されてもよい。互いに異なる2つ以上の視点において取得された2枚以上の画像を使用することによりカメラの位置、カメラの姿勢、および被写体の3D座標を推定することができる限り、どのような方法が使用されてもよい。
図26は、被写体の2枚の画像が取得される場合の画像取得の状況を模式的に示す。以下の説明では、広義のカメラという表現を使用する。内視鏡が画像を取得する場合、以下の説明におけるカメラは、具体的には内視鏡先端の観察光学系を指す。
図26に示すように、最初にカメラの撮像状態cにおいて画像Iが取得される。次に、カメラの撮像状態cにおいて画像Iが取得される。撮像状態cと撮像状態cとでは、撮像位置および撮像姿勢の少なくとも1つが異なる。図26において、撮像状態cと撮像状態cとでは、撮像位置および撮像姿勢の両方が異なる。
本発明の各実施形態では、画像Iおよび画像Iは同じ内視鏡によって取得されることを想定している。また、本発明の各実施形態では、内視鏡の対物光学系のパラメーターが変化しないことを想定している。対物光学系のパラメーターは、焦点距離、歪曲収差、およびイメージセンサのピクセルサイズ等である。以下では、対物光学系のパラメーターを便宜上、内部パラメーターと略す。このような条件を仮定したとき、内視鏡の光学系の特性が記述された内部パラメーターは、カメラ(観察光学系)の位置および姿勢に関わらず共通に使用できる。本発明の各実施形態では、内部パラメーターは工場出荷時に取得されていることを想定している。また、本発明の各実施形態では、画像の取得時には内部パラメーターは既知であることを想定している。
本発明の各実施形態では、静止画群から2枚以上の画像が抽出されることを想定し、かつ静止画群は1つの内視鏡によって取得されることを想定している。しかし、本発明はこれに限らない。例えば、複数の内視鏡によって取得された複数の静止画群を使用して3Dモデルを復元する場合においても、本発明を適用できる。この場合、画像Iおよび画像Iは、互いに異なる内視鏡装置を使用して取得され、内視鏡毎に別々の内部パラメーターが保持されてさえいればよい。仮に内部パラメーターが未知であっても、内部パラメーターを変数として計算を実施することはできる。そのため、内部パラメーターが既知であるか否かにより以後の手順が大きく変わることはない。
図27を使用することにより、2枚の画像に基づいて被写体の3D座標を計算し、かつ3Dデータを生成する処理について説明する。図27は、3Dデータを生成する処理の手順を示す。
まず、データ算出部1882は、特徴点検出処理を実行する(ステップS200)。データ算出部1882は、特徴点検出処理において、2枚の画像の各々の特徴点を検出する。特徴点とは、画像に写っている被写体情報のうち、画像輝度勾配の大きいコーナーおよびエッジ等を指す。この特徴点を検出する方法として、SIFT(Scale-invariant Feature Transform)およびFAST(Features from Accelerated Segment Test)等が使用される。データ算出部1882は、このような方法を使用することにより画像内の特徴点を検出することができる。
図26は、画像Iから特徴点P11が検出され、かつ画像Iから特徴点P12が検出された例を示す。図26では各画像の1つの特徴点のみが表示されているが、実際には各画像において複数の特徴点が検出される。検出される特徴点の数は画像間で異なる可能性がある。各画像から検出された各特徴点は特徴量というデータに変換される。特徴量は、特徴点の特徴を表すデータである。
ステップS200の後、データ算出部1882は、特徴点関連付け処理を実行する(ステップS201)。データ算出部1882は、特徴点関連付け処理において、特徴点検出処理(ステップS200)により検出された各特徴点に対して、画像間で特徴量の相関を比較する。特徴量の相関が比較され、各画像において特徴量が近い特徴点が見つかった場合、データ算出部1882は、その情報をRAM14に保持する。これにより、データ算出部1882は、各画像の特徴点を互いに関連付ける。一方、特徴量が近い特徴点が見つからなかった場合には、データ算出部1882は、その特徴点の情報を破棄する。
ステップS201の後、データ算出部1882は、互いに関連付けられた2枚の画像の特徴点(特徴点ペア)の座標をRAM14から読み出す。データ算出部1882は、読み出された座標に基づいて、位置および姿勢の算出処理を実行する(ステップS202)。データ算出部1882は、位置および姿勢の算出処理において、画像Iを取得したカメラの撮像状態cと画像Iを取得したカメラの撮像状態cとの間の相対的な位置および姿勢を算出する。より具体的には、データ算出部1882は、エピポーラ制約を利用した以下の方程式(1)を解くことにより、行列Eを算出する。
Figure 2022184415000002
行列Eは基本行列と呼ばれる。基本行列Eは、画像Iを取得したカメラの撮像状態cと画像Iを取得したカメラの撮像状態cとの間の相対的な位置および姿勢を保持する行列である。方程式(1)において、行列pは、画像Iから検出された特徴点の座標を含む行列である。行列pは、画像Iから検出された特徴点の座標を含む行列である。基本行列Eは、カメラの相対的な位置および姿勢に関する情報を含んでいるため、カメラの外部パラメーターに相当する。データ算出部1882は、公知のアルゴリズムを使用することにより基本行列Eを解くことができる。
図26に示すように、カメラの位置変化量(相対的な位置)がtであり、かつカメラの姿勢変化量(相対的な姿勢)がRである場合、式(2)および式(3)が成り立つ。
Figure 2022184415000003
式(2)において、x軸方向の移動量はtと表され、y軸方向の移動量はtと表され、かつz軸方向の移動量はtと表される。式(3)において、x軸周りの回転量αはR(α)と表され、y軸周りの回転量βはR(β)と表され、かつz軸周りの回転量γはR(γ)と表される。基本行列Eが算出された後、3D座標の復元精度を高めるためにバンドル調整と呼ばれる最適化処理が実行されてもよい。
データ算出部1882は、算出されたカメラの位置変化量を使用することにより3Dモデルの座標系における3D座標(カメラ座標)を算出する。例えば、データ算出部1882は、画像Iを取得したカメラの3D座標を定義する。データ算出部1882は、画像Iを取得したカメラの3D座標と、画像Iを取得したカメラの位置変化量とに基づいて、画像Iを取得したカメラの3D座標を算出する。
データ算出部1882は、算出されたカメラの姿勢変化量を使用することにより3Dモデルの座標系における姿勢情報を算出する。例えば、データ算出部1882は、画像Iを取得したカメラの姿勢情報を定義する。データ算出部1882は、画像Iを取得したカメラの姿勢情報と、画像Iを取得したカメラの姿勢変化量とに基づいて、画像Iを取得したカメラの姿勢情報を生成する。
データ算出部1882は、位置および姿勢の算出処理(ステップS202)を実行することにより、カメラの位置における3D座標(カメラ座標)と、カメラの姿勢を示す姿勢情報とを含む3次元形状(3D形状)のデータ(3D形状データ)を生成する。また、Structure from Motionまたはvisual-SLAM等の方法が位置および姿勢の算出処理(ステップS202)に適用される場合、データ算出部1882はさらに、ステップS202において各特徴点の3D座標を算出する。ステップS202において生成された3D形状データは、特徴点以外の被写体上の点の3D座標を含まない。そのため、3D形状データは、被写体の疎な3D形状を示す。
3D形状データは、各特徴点の3D座標、上記のカメラ座標、および上記の姿勢情報を含む。各特徴点の3D座標は、3Dデータの座標系において定義される。各特徴点の3D座標は、各特徴点の2次元座標(2D座標)と関連付けられている。各特徴点の2D座標は、各特徴点が含まれる画像の座標系において定義される。各特徴点の2D座標および3D座標は、各特徴点が含まれる画像と関連付けられている。
ステップS202の後、データ算出部1882は、ステップS202において算出されたカメラの相対的な位置および姿勢(位置変化量tおよび姿勢変化量R)に基づいて、3次元形状復元処理を実行する(ステップS203)。データ算出部1882は、3次元形状復元処理において、被写体の3Dデータを生成する。被写体の3次元形状を復元する手法としては、PMVS(Patch-based Multi-view Stereo)、および平行化ステレオによるマッチング処理等が挙げられる。しかし、特に手段を限定する訳ではない。
データ算出部1882は、ステップS203において、特徴点以外の被写体上の点の3D座標を算出する。特徴点以外の各点の3D座標は、3Dデータの座標系において定義される。各点の3D座標は、各点の2D座標と関連付けられている。各点の2D座標は、各点が含まれる2D画像の座標系において定義される。各点の2D座標および3D座標は、各点が含まれる2D画像と関連付けられている。データ算出部1882は、3D形状データを更新する。更新された3D形状データは、各特徴点の3D座標、特徴点以外の各点の3D座標、カメラ座標、および姿勢情報を含む。ステップS203において更新された3D形状データは、特徴点の3D座標に加えて特徴点以外の被写体上の点の3D座標を含む。そのため、3D形状データは、被写体の密な3D形状を示す。
ステップS203の後、データ算出部1882は、3次元形状復元処理(ステップS203)において処理された3D形状データと、条件受付部1881によって受け付けられた基準長とに基づいて3次元座標変換処理を実行する(ステップS204)。データ算出部1882は、3次元座標変換処理において、被写体の3D形状データを、長さの次元を持つ3次元座標データ(3Dデータ)へと変換する。ステップS204が実行されたとき、図27に示す処理が終了する。
処理時間を短縮するために、ステップS203が省略されてもよい。この場合、ステップS202が実行された後、ステップS203が実行されずにステップS204が実行される。
ステップS204が省略されてもよい。この場合、ステップS203が実行された後、ステップS204が実行されずに、図27に示す処理が終了する。この場合、3Dデータは、長さの次元を持たない被写体の相対的な形状を示す。3Dデータが被写体の相対的な形状を示す場合であっても、内視鏡装置1は、カメラ座標と対応する3Dデータの領域を特定することができる。
図26に示す原理に従って3Dデータが生成されるためには、各画像の領域の少なくとも一部と、それ以外の少なくとも1枚の画像の各々の領域の少なくとも一部とが共通である必要がある。つまり、第1の画像の領域と、第1の画像と異なる第2の画像の領域とは、共通領域を含む。第1の画像において共通領域以外の領域と、第2の画像において共通領域以外の領域とは、互いに異なる。
3Dデータが生成された後、内視鏡装置1は、図2に示す処理と同様の処理を実行する。内視鏡装置1は、第1の3Dデータおよび第2の3Dデータを互いに接続することができ、かつ広い範囲の3D形状の画像を表示することができる。図1に示す画像表示装置50は、データ生成部188を有してもよい。
(第3の実施形態)
本発明の第3の実施形態を説明する。第3の実施形態において、センサーによって生成されたデータを使用することにより、被写体の接続領域における構造が推定される。
図1に示す画像表示装置50は、図28に示す画像表示装置50bに変更される。図28は、画像表示装置50bの構成を示す。図1に示す構成と同じ構成の説明を省略する。
図28に示す画像表示装置50bは、制御部51、データ取得部52、パラメーター生成部53、変換部54、データ生成部55、表示制御部56、および構造推定部58を有する。画像表示装置50bは、図1に示す情報受付部57を有していない。図28に示す操作部70、表示部71、通信部72、記憶部73、およびセンサー74が画像表示装置50bに接続されている。画像表示装置50bは、操作部70、表示部71、通信部72、記憶部73、およびセンサー74の少なくとも1つを有してもよい。
画像表示装置50bの各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。画像表示装置50bの各部は、1つまたは複数のプロセッサを含むことができる。画像表示装置50bの各部は、1つまたは複数の論理回路を含むことができる。
センサー74は、センサーデータを出力する。センサーデータは、被写体の幾何的な構造に影響される。センサー74は、画像センサー(撮像素子)である。
センサーデータは、センサー値として、画素値、加速度の測定値、または角速度の測定値を含む。画像センサーは、被写体の画像を生成する。被写体の構造がその画像に写っている。
センサーデータは、記憶部73に保存される。構造推定部58は、センサーデータを使用することにより、接続領域における被写体の構造を推定し、かつ構造情報を生成する。
図29を使用することにより、画像表示装置50bが実行する処理について説明する。図29は、画像表示装置50bが実行する処理の手順を示す。図2に示す処理と同じ処理の説明を省略する。
ステップS103の後、データ取得部52は、記憶部73に接続し、かつ接続領域におけるセンサーデータを記憶部73から取得する(ステップS120)。
3Dデータは、タイムスタンプを含む。センサーデータにおいて、センサー値およびタイムスタンプが互いに関連付けられている。そのため、データ取得部52は、3Dデータのタイムスタンプが示す時刻に生成されたセンサーデータを取得することができる。例えば、データ取得部52は、第1の3Dデータの終端部の時刻から第2の3Dデータの始端部の時刻までの区間におけるセンサーデータを記憶部73から取得する。
以下では、センサー74が画像センサーであり、かつデータ取得部52が2枚以上の画像を記憶部73から取得する例を説明する。以下の処理は、データ取得部52が1枚の画像を記憶部73から取得する場合にも適用できる。
ステップS120の後、構造推定部58は、ステップS120において取得された2枚以上の画像を使用することにより、接続領域における被写体の構造を推定し、かつ構造情報を生成する(ステップS121)。ステップS121の後、ステップS106が実行される。
構造推定部58は、被写体の構造を推定するためにどのような方法を使用してもよい。例えば、構造推定部58は、AIを使用することにより被写体の構造を推定してもよい。構造推定部58は、画像の特徴検出、特徴量算出、およびサポートベクターマシン(SVM)を使用することにより被写体の構造を推定してもよい。
被写体が直管であると構造推定部58が判断した場合、構造推定部58は、直管の構造情報を図5に示す参照テーブルTB11から取得してもよい。
本発明の各態様は、次の変形例を含んでもよい。構造情報は、センサー74から出力されたデータに基づいて生成される。
第3の実施形態において、構造推定部58は、センサーデータを使用することにより、接続領域における被写体の構造を推定する。画像表示装置50bは、ユーザーから情報を受け付ける必要がない。
(第3の実施形態の第1の変形例)
本発明の第3の実施形態の第1の変形例を説明する。第3の実施形態の第1の変形例において、図28に示す画像表示装置50bが使用される。第3の実施形態の第1の変形例において、3Dデータを生成するために図22に示す内視鏡装置1が使用される。
前述した第3の実施形態において、構造推定部58は、画像センサーによって生成された画像を使用することにより、接続領域における被写体の構造を推定する。一方、第3の実施形態の第1の変形例において、構造推定部58は、画像の代わりに、Inertial Measurement Unit(IMU)から出力されたセンサーデータを使用する。
IMUがセンサー74として使用される。センサー74は、加速度センサーおよび角速度センサーを有し、加速度および角速度を検出する。例えば、センサー74は、挿入部2の先端20に配置される。挿入部2がパイプに挿入される場合、挿入部2はパイプの構造に従って動く。そのため、センサー74は、パイプの構造に応じたセンサーデータを出力する。構造推定部58は、センサーデータを使用することにより、先端20の軌跡を算出する。その軌跡は、先端20が配置された2つ以上の位置を示す。
画像表示装置50bは、図29に示す処理を実行する。構造推定部58は、ステップS121において、センサーデータを使用することにより、先端20の軌跡を算出する。構造推定部58は、ステップS121において、その軌跡に基づいて接続領域における被写体の構造を推定し、かつ構造情報を生成する。
例えば、構造推定部58は、以下の処理を実行することにより、被写体の構造を推定する。第1の3Dデータおよび第2の3Dデータの各々は、第1の区間、第2の区間、および第3の区間の各々における3D座標を含む。第1の区間は、3D形状の始端を含む。第2の区間は、3D形状の終端を含む。第3の区間は、第1の区間および第2の区間の間に配置されている。例えば、第1の3Dデータにおける第2の区間および第2の3Dデータにおける第1の区間は、接続領域と対応する。
構造推定部58は、第1の3Dデータにおける第2の区間、その第2の区間に近い第1の3Dデータにおける第3の区間、第2の3Dデータにおける第1の区間、およびその第1の区間に近い第2の3Dデータにおける第3の区間の各々における先端20の軌跡を解析する。全ての区間において先端20が略直線的に移動していると構造推定部58が判断した場合、構造推定部58は、被写体が直管であると判断する。先端20が上記の各区間を通る間に先端20の移動方向が略90度曲がると構造推定部58が判断した場合、構造推定部58は、被写体が90度継手であると判断する。構造推定部58は、被写体の構造に応じて構造情報を生成する。
(第3の実施形態の第2の変形例)
本発明の第3の実施形態の第2の変形例を説明する。第3の実施形態の第2の変形例において、図28に示す画像表示装置50bが使用される。画像表示装置50bは、センサー74を有する必要はない。第3の実施形態の第2の変形例において、3Dデータを生成するために図22に示す内視鏡装置1が使用される。
前述した第3の実施形態において、構造推定部58は、画像センサーによって生成された画像を使用することにより、接続領域における被写体の構造を推定する。一方、第3の実施形態の第2の変形例において、構造推定部58は、画像の代わりに、挿入部2の湾曲に関する操作の履歴情報を使用する。
ユーザーは、操作部4を操作することにより、湾曲方向および湾曲量を示す情報を内視鏡装置1に入力する。CPU18の制御部180は、ユーザーによって入力された情報に基づいて制御信号を生成する。その制御信号は、制御インタフェース17を経由して内視鏡ユニット8に出力される。内視鏡ユニット8の湾曲装置は、制御信号に基づいて湾曲機構を湾曲させる。
制御部180は、挿入部2の湾曲に関する操作の履歴情報を生成する。履歴情報は、湾曲方向および湾曲量を示す情報を含む。通信部72は、履歴情報を内視鏡装置1から受信する。履歴情報は、記憶部73に保存される。
画像表示装置50bは、図29に示す処理を実行する。データ取得部52は、ステップS20において、センサーデータの代わりに履歴情報を記憶部73から取得する。構造推定部58は、ステップS121において、センサーデータの代わりに履歴情報を使用することにより、接続領域における被写体の構造を推定し、かつ構造情報を生成する。
例えば、構造推定部58は、以下の処理を実行することにより、被写体の構造を推定する。第1の3Dデータおよび第2の3Dデータの各々は、第1の区間、第2の区間、および第3の区間の各々における3D座標を含む。第1の区間は、3D形状の始端を含む。第2の区間は、3D形状の終端を含む。第3の区間は、第1の区間および第2の区間の間に配置されている。例えば、第1の3Dデータにおける第2の区間および第2の3Dデータにおける第1の区間は、接続領域と対応する。
構造推定部58は、第1の3Dデータにおける第2の区間、その第2の区間に近い第1の3Dデータにおける第3の区間、第2の3Dデータにおける第1の区間、およびその第1の区間に近い第2の3Dデータにおける第3の区間の各々における履歴情報を解析する。全ての区間において挿入部2が湾曲していないと構造推定部58が判断した場合、構造推定部58は、被写体が直管であると判断する。挿入部2の先端20が上記の各区間を通る間に挿入部2が略90度湾曲していると構造推定部58が判断した場合、構造推定部58は、被写体が90度継手であると判断する。
本発明の各態様は、次の変形例を含んでもよい。第1の3Dデータは、2枚以上の第1の画像を使用することにより生成される。第2の3Dデータは、2枚以上の第2の画像を使用することにより生成される。2枚以上の第1の画像および2枚以上の第2の画像は、挿入部2によって取得された被写体の光学像に基づいて生成される。挿入部2は、被写体を持つ物体の内部に挿入され、かつ湾曲可能である。構造情報は、挿入部2の湾曲方向および湾曲量を示す情報に基づいて生成される。
(第4の実施形態)
本発明の第4の実施形態を説明する。第4の実施形態において、図1に示す画像表示装置50が使用される。参照データが構造情報として使用される。例えば、参照データは、幾何的な構造の設計値を含む設計データである。例えば、設計データは、3D-CAD(computer-aided design)を使用することにより生成される。
図30を使用することにより、画像表示装置50が実行する処理について説明する。図30は、画像表示装置50が実行する処理の手順を示す。図2に示す処理と同じ処理の説明を省略する。
ステップS103の後、情報受付部57は参照データを受け付ける(ステップS130)。例えば、通信部72は、参照データを外部装置から受信する。情報受付部57は、通信部72によって受信された参照データを受け付ける。
ステップS130の後、表示制御部56は、参照データの画像を表示部71に表示する(ステップS131)。
図31は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG61を表示部71に表示する。画像IMG61は、領域R61、領域R62、および領域R63を含む。第1の3D形状3D61の画像が領域R61に表示される。第1の3D形状3D61は、第1の3Dデータによって示される。第2の3D形状3D62の画像が領域R62に表示される。第2の3D形状3D62は、第2の3Dデータによって示される。第3の3D形状3D63の画像が領域R63に表示される。第3の3D形状3D63は、参照データによって示される。
情報受付部57が参照データを受け付けたとき、図31に示す3種類の画像が表示される。情報受付部57が参照データを受け付けたとき、参照データの画像が表示部71に表示される必要はない。したがって、ステップS131が実行される必要はない。
ステップS131の後、パラメーター生成部53は、参照データを使用することにより変換パラメーターを生成する(ステップS132)。ステップS132の後、ステップS107が実行される。
パラメーター生成部53は、ステップS132において以下の処理を実行する。パラメーター生成部53は、第1の3Dデータおよび参照データを使用する形状マッチングを実行する。これにより、パラメーター生成部53は、第1の3Dデータの3D形状と対応する参照データの3D形状を検出する。パラメーター生成部53は、第2の3Dデータおよび参照データを使用する形状マッチングを実行する。これにより、パラメーター生成部53は、第2の3Dデータの3D形状と対応する参照データの3D形状を検出する。
既知の方法が3Dの形状マッチングに適用されてもよい。パラメーター生成部53は、形状情報に加えて色情報を使用するマッチング処理を実行してもよい。
パラメーター生成部53は、第1の3D座標系の位置および姿勢を共通座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。パラメーター生成部53は、第1の3D座標系の縮尺を共通座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。共通座標系は、参照データの3D座標系である。
パラメーター生成部53は、第2の3D座標系の位置および姿勢を共通座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。パラメーター生成部53は、第2の3D座標系の縮尺を共通座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。
図32は、表示部71に表示された画像の例を示す。図31に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG62を表示部71に表示する。画像IMG62は、領域R64を含む。第1の3D形状3D61と第2の3D形状3D62と第3の3D形状3D63との画像が領域R64に表示される。ユーザーは、第1の3Dデータおよび第2の3Dデータの各々が参照データにおける正しい位置に配置されていることを確認することができる。これにより、ユーザーは、第1の3Dデータおよび第2の3Dデータが互いに正確に接続されていることを確認することができる。
構造情報として使用される参照データは設計データに限らない。参照データは、設計データ以外のデータであってもよい。
例えば、過去の検査において生成された検査対象の2枚以上の画像を使用することにより生成された3Dデータが参照データとして使用されてもよい。その3Dデータは、図27に示す処理において生成される。その3Dデータは、第1の3Dデータおよび第2の3Dデータのいずれとも異なる。参照データとして使用される3Dデータは、検査対象の内部の被写体の3Dデータを生成する内視鏡機器とは異なる機器によって生成されてもよい。
パラメーター生成部53が第1の3Dデータおよび第2の3Dデータの各々の位置と参照データの位置とを一致させることができる限り、参照データが3Dデータである必要はない。参照データは、2次元データ(2Dデータ)であってもよい。パラメーター生成部53は、3Dデータの位置と2Dデータの位置とを一致させるために、3Dデータを2D情報に変換する。2D情報は、任意の平面における2次元形状を示す。パラメーター生成部53は、2D情報の位置と2Dデータの位置とを一致させる。
本発明の各態様は、次の変形例を含んでもよい。構造情報は、被写体の幾何的な構造の設計値を含む設計データである、または第1の3Dデータおよび第2の3Dデータのいずれとも異なる3Dデータである。
第4の実施形態において、画像表示装置50は、第1の3Dデータおよび第2の3Dデータを互いに接続することができ、かつ広い範囲の3D形状の画像を参照データの画像上に表示することができる。
(第4の実施形態の第1の変形例)
本発明の第4の実施形態の第1の変形例を説明する。前述した第4の実施形態において、第1の3Dデータおよび第2の3Dデータを互いに接続するために各ブレードのIDは使用されない。一方、第4の実施形態の第1の変形例において、第1の3Dデータおよび第2の3Dデータの各ブレードのIDが参照データの各ブレードのIDと一致するように第1の3Dデータおよび第2の3Dデータが互いに接続される。
第4の実施形態の第1の変形例において、図1に示す画像表示装置50が使用される。記憶部73は、ガスタービンの参照データを記憶する。図33は、ガスタービンGT70の参照データを示す。図33に示す例では、ガスタービンGT70は12個のブレードを有する。IDが各ブレードに割り当てられている。図33に示す参照データは、ガスタービンGT70の断面図であってもよいし、または3D-CADデータであってもよい。
各IDは、ブレードの位置と対応する。例えば、連番のIDがブレードに割り当てられる場合、連続する2つのIDが、互いに隣接する2枚のブレードに割り当てられる。第4の実施形態の第1の変形例における構造情報は、参照データおよび各ブレードに割り当てられたIDである。
パラメーター生成部53は、ステップS106において、図34に示す処理を実行する。図34は、パラメーター生成部53が実行する処理の手順を示す。
パラメーター生成部53は、第1の3Dデータにおけるブレード領域を特定する(ステップS106j)。各ブレード領域は、1つのブレードを含む。
パラメーター生成部53は、ブレード領域を特定するためにどのような方法を使用してもよい。例えば、パラメーター生成部53は、第1の3Dデータにおいて互いに似ている2つ以上の形状をブレード領域として抽出する。あるいは、パラメーター生成部53は、予め登録されたブレードの形状と第1の3Dデータとを使用する形状マッチングを実行し、ブレードの形状と一致する形状を含むブレード領域を抽出する。
ステップS106jの後、パラメーター生成部53は、ステップS106jにおいて特定されたブレード領域にIDを割り当てる(ステップS106k)。
パラメーター生成部53は、ブレード領域にIDを割り当てるためにどのような方法を使用してもよい。例えば、第1の3Dデータの画像が表示部71に表示される。ユーザーは、操作部70を操作することにより、各ブレードのIDを画像表示装置50に入力する。パラメーター生成部53は、そのIDをブレード領域に割り当てる。パラメーター生成部53は、特徴的な構造を持つ基準ブレードを第1の3Dデータから検出し、その基準ブレードから順番に各ブレードにIDを割り当ててもよい。
内視鏡機器が、3Dデータを生成するために使用される画像を生成するとき、ターニングツールが使用されてもよい。ターニングツールは、ディスクを自動で回転させる。ターニングツールは、ディスクの回転角度の情報を内視鏡機器に出力する。内視鏡機器は、その情報に基づいて、画像に写っているブレードの位置を判断する。
例えば、ターニングツールがディスクを回転させる前、内視鏡機器は、画像に写っているブレードを基準ブレードに設定する。ブレードの合計枚数は既知であり、隣接する2枚のブレードの間の角度は既知である。ディスクが回転している間、内視鏡機器は、ディスクの回転角度に基づいて、画像に写っているブレードを判断する。ディスクが1回転したとき、内視鏡機器は、基準ブレードが画像に再度写っていると判断することができる。
内視鏡機器は、IDを各ブレードに割り当て、かつそのIDを画像に埋め込む。内視鏡機器は、ターニングツールを使用せずにIDを画像に各ブレードに割り当て、かつそのIDを画像に埋め込んでもよい。
3Dデータに含まれる各点の3D座標は、3Dデータを生成するために使用された画像と関連付けられている。パラメーター生成部53は、ステップS106jにおいて特定されたブレード領域と関連付けられている画像のIDを取得し、そのIDをブレード領域に割り当てる。
ステップS106kの後、パラメーター生成部53は、第2の3Dデータにおけるブレード領域を特定する(ステップS106l)。ステップS106lは、ステップS106jと同様である。
ステップS106lの後、パラメーター生成部53は、ステップS106lにおいて特定されたブレード領域にIDを割り当てる(ステップS106m)。ステップS106mは、ステップS106kと同様である。
ステップS106mの後、パラメーター生成部53は、参照データにおけるブレードのIDと第1の3Dデータにおけるブレード領域のIDとが互いに一致するように第1の3Dデータの位置、姿勢、および縮尺を補正するための変換パラメーターを算出する(ステップS106n)。
ステップS106nの後、パラメーター生成部53は、参照データにおけるブレードのIDと第2の3Dデータにおけるブレード領域のIDとが互いに一致するように第2の3Dデータの位置、姿勢、および縮尺を補正するための変換パラメーターを算出する(ステップS106o)。ステップS106oが実行されたとき、図34に示す処理が終了する。
図35は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG71を表示部71に表示する。画像IMG71は、領域R71を含む。第1の3D形状3D71と第2の3D形状3D72と第3の3D形状3D73との画像が領域R71に表示される。第1の3D形状3D71は、第1の3Dデータによって示される。第2の3D形状3D72は、第2の3Dデータによって示される。第3の3D形状3D73は、参照データによって示される。
第1の3D形状3D71は、2枚のブレードを含む。その2枚のブレードのIDは、2および3である。第1の3Dデータの位置は、IDとして2および3が割り当てられた参照データの2枚のブレードと重なる位置に設定される。
第2の3D形状3D72は、5枚のブレードを含む。その5枚のブレードのIDは、7から11である。第2の3Dデータの位置は、IDとして7から11が割り当てられた参照データの5枚のブレードと重なる位置に設定される。
IDとして1、4、5、6、または12が割り当てられたブレードは第1の3Dデータおよび第2の3Dデータに存在しない。これらのIDが割り当てられた参照データのブレードが表示される。
表示制御部56は、第1の3Dデータまたは第2の3Dデータに含まれるブレードと、参照データに含まれるブレードとをユーザーが区別できるように各ブレードを表示部71に表示してもよい。例えば、第1の3Dデータまたは第2の3Dデータに含まれるブレードの色は、参照データに含まれるブレードの色と異なってもよい。ユーザーは、3Dデータに含まれるブレードと、3Dデータに含まれないブレードとを確認することができる。
パラメーター生成部53は、図34に示す処理に加えて図19に示す処理を実行してもよい。これにより、パラメーター生成部53は、第1の3Dデータおよび第2の3Dデータを互いにさらに正確に接続することができる。
本発明の各態様は、次の変形例を含んでもよい。被写体は2つ以上の物体を含む。構造情報は、2つ以上の物体が配置された位置を示す。
第4の実施形態の第1の変形例において、パラメーター生成部53は、構造情報としてIDを使用することにより、変換パラメーターを生成する。そのため、画像表示装置50は、第1の3Dデータおよび第2の3Dデータを正確に接続することができる。
(第4の実施形態の第2の変形例)
本発明の第4の実施形態の第2の変形例を説明する。第4の実施形態の第2の変形例において、図1に示す画像表示装置50が使用される。
前述した第4の実施形態の第1の変形例における被写体はガスタービンのブレードである。一方、第4の実施形態の第2の変形例における被写体はガスタービンの燃焼室である。燃焼室は、代表的な検査部位として燃料噴射ノズルおよびプレートを含む。プレートは、燃料噴射ノズルの周辺に配置されている。
燃料噴射ノズルは、ブレードと同様に、環状に配置されていることが多い。IDが各燃料噴射ノズルに割り当てられていることが多い。各IDは、各燃料噴射ノズルが配置された位置に応じた値を持つ。各燃料噴射ノズルは任意の円周上に配置されており、その円の中心位置が定義される。
図36は、燃焼室CC80の構造を示す。燃焼室CC80は、12個の燃料噴射ノズルNZ80を有する。燃料噴射ノズルの実際の数はエンジン機種に応じて異なる。12個の燃料噴射ノズルNZ80は、燃焼室CC80の前段に配置されている。中心位置CP80は、12個の燃料噴射ノズルNZ80が配置された円の中心を示す。第4の実施形態の第2の変形例において、燃料噴射ノズルに割り当てられたIDを使用することにより、第1の3Dデータおよび第2の3Dデータが互いに接続される。
図4に示すダイアログボックスDL10の情報INF10は、検査対象であるガスタービンの情報と、ガスタービンにおける燃焼室の情報とを含む。例えば、ユーザーは、“ガスタービン”を選択し、その後、“燃焼室”を選択する。選択が決定したことを示す情報をユーザーが画像表示装置50に入力したとき、情報受付部57は、ユーザーによって選択された情報を受け付ける。このとき、情報受付部57は、“燃焼室”という文字列を受け付ける。
例えば、燃焼室の構造情報は、第1の3Dデータおよび第2の3Dデータの各々における燃料噴射ノズルが任意の曲率半径を持つ円周上に等間隔で配置されていることを示す。構造情報は、燃料噴射ノズルの大きさが同じであることを示す。パラメーター生成部53は、ステップS106において、構造情報に基づいて変換パラメーターを生成する。
エンジン機種が特定されている場合、燃料噴射ノズルの合計枚数、各燃料噴射ノズルの大きさ、および各燃料噴射ノズルのIDは既知である。構造情報は、燃料噴射ノズルの合計枚数、各燃料噴射ノズルの大きさ、および各燃料噴射ノズルのIDを含んでもよい。この場合、パラメーター生成部53は、第1の3Dデータおよび第2の3Dデータを互いに正確に接続するための位置姿勢変換パラメーターを生成することができる。
パラメーター生成部53は、ステップS106において、図34に示す処理を実行する。図34に示す処理は、被写体が燃焼室である場合にも適用される。
図37は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG81を表示部71に表示する。画像IMG81は、領域R81を含む。第1の3D形状3D81と第2の3D形状3D82と第3の3D形状3D83との画像が領域R81に表示される。第1の3D形状3D81は、第1の3Dデータによって示される。第2の3D形状3D82は、第2の3Dデータによって示される。第3の3D形状3D83は、参照データによって示される。
第1の3D形状3D81は、4つの燃料噴射ノズルを含む。その4つの燃料噴射ノズルのIDは、2から5である。第1の3Dデータの位置は、IDとして2から5が割り当てられた参照データの4つの燃料噴射ノズルと重なる位置に設定される。
第2の3D形状3D82は、4つの燃料噴射ノズルを含む。その4つの燃料噴射ノズルのIDは、9から12である。第2の3Dデータの位置は、IDとして9から12が割り当てられた参照データの4つの燃料噴射ノズルと重なる位置に設定される。
IDとして1、6、7、または8が割り当てられた燃料噴射ノズルは第1の3Dデータおよび第2の3Dデータに存在しない。これらのIDが割り当てられた参照データの燃料噴射ノズルが表示される。
表示制御部56は、第1の3Dデータまたは第2の3Dデータに含まれる燃料噴射ノズルと、参照データに含まれる燃料噴射ノズルとをユーザーが区別できるように各ブレードを表示部71に表示してもよい。例えば、第1の3Dデータまたは第2の3Dデータに含まれる燃料噴射ノズルの色は、参照データに含まれる燃料噴射ノズルの色と異なってもよい。ユーザーは、3Dデータに含まれる燃料噴射ノズルと、3Dデータに含まれない燃料噴射ノズルとを確認することができる。
第4の実施形態の第2の変形例において、パラメーター生成部53は、構造情報としてIDを使用することにより、変換パラメーターを生成する。そのため、画像表示装置50は、第1の3Dデータおよび第2の3Dデータを正確に接続することができる。
第4の実施形態の第1および第2の変形例は、航空機エンジンのガスタービンの検査に適用される。これらの変形例は、管状の構造物の検査に適用されてもよい。例えば、これらの変形例は、熱交換チューブの検査に適用されてもよい。熱交換チューブは、何十個もの細いチューブを有する。IDが各チューブに割り当てられてもよい。パラメーター生成部53は、IDを使用することにより、第1の3Dデータおよび第2の3Dデータを互いに接続することができる。
(第5の実施形態)
本発明の第5の実施形態を説明する。第5の実施形態において、構造情報はカメラ軌跡データである。カメラ軌跡データは、3Dデータを生成するために使用された2枚以上の画像を生成するカメラが配置された2つ以上の位置を示す。その位置は、前述したカメラ座標と対応する。つまり、カメラ軌跡データはカメラの軌跡を示す。カメラ軌跡データは、第1の3Dデータおよび第2の3Dデータの各々と関連付けられている。図22に示す内視鏡装置1が使用される場合、カメラ軌跡データは、挿入部2の先端20が配置された2つ以上の位置を示す。カメラ軌跡データを使用することにより、第1の3Dデータおよび第2の3Dデータが互いに接続される。
図1に示す画像表示装置50は、図38に示す画像表示装置50cに変更される。図38は、画像表示装置50cの構成を示す。図1に示す構成と同じ構成の説明を省略する。
図38に示す画像表示装置50cは、制御部51、データ取得部52、パラメーター生成部53、変換部54、データ生成部55、表示制御部56、および欠落区間算出部60を有する。画像表示装置50cは、図1に示す情報受付部57および構造推定部58を有していない。
画像表示装置50cの各部は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。画像表示装置50cの各部は、1つまたは複数のプロセッサを含むことができる。画像表示装置50cの各部は、1つまたは複数の論理回路を含むことができる。
記憶部73は、第1のカメラ軌跡データおよび第2のカメラ軌跡データを記憶する。第1のカメラ軌跡データは第1の3Dデータと関連付けられており、第2のカメラ軌跡データは第2の3Dデータと関連付けられている。データ取得部52は、記憶部73に接続し、かつ第1のカメラ軌跡データおよび第2のカメラ軌跡データを記憶部73から取得する。
欠落区間算出部60は、第1のカメラ軌跡データおよび第2のカメラ軌跡データを使用することにより、欠落区間の位置を算出する。欠落区間は、被写体の欠落領域と対応する3Dデータを含む。欠落領域は、被写体の第1の領域および第2の領域に含まれない。第1の領域は、第1の3Dデータに含まれる3D座標と対応する。第2の領域は、第2の3Dデータに含まれる3D座標と対応する。欠落区間算出部60は、欠落区間の位置に基づいて欠落区間の長さを算出することができる。
図39を使用することにより、画像表示装置50cが実行する処理について説明する。図39は、画像表示装置50cが実行する処理の手順を示す。図2に示す処理と同じ処理の説明を省略する。
データ取得部52は、記憶部73に接続し、かつ第1の3Dデータおよび第1のカメラ軌跡データを記憶部73から取得する(ステップS140)。ステップS140の後、表示制御部56は、第1の3Dデータと第1のカメラ軌跡データとの画像を表示部71に表示する(ステップS141)。
ステップS141の後、データ取得部52は、記憶部73に接続し、かつ第2の3Dデータおよび第2のカメラ軌跡データを記憶部73から取得する(ステップS142)。ステップS142の後、表示制御部56は、第2の3Dデータと第2のカメラ軌跡データとの画像を表示部71に表示する(ステップS143)。
ステップS140からS143の順番は、図39に示す順番に限らない。例えば、ステップS142およびステップS143が実行された後、ステップS140およびステップS141が実行されてもよい。あるいは、ステップS140およびステップS142が実行された後、ステップS141およびステップS143が実行されてもよい。ステップS141およびステップS143は省略されてもよい。
ステップS143の後、パラメーター生成部53は、第1のカメラ軌跡データおよび第2のカメラ軌跡データの関係に基づいて変換パラメーターを生成する(ステップS144)。パラメーター生成部53は、以下の方法を使用することにより、第1の3Dデータおよび第2の3Dデータを互いに接続するための位置姿勢変換パラメーターを生成する。以下の方法は、パイプの検査およびブレード(動翼)の検査に適用できる。
被写体がパイプである場合、パラメーター生成部53は、以下の処理を実行する。パラメーター生成部53は、第1のカメラ軌跡データが示すカメラの軌跡を近似する第1の直線を算出する。また、パラメーター生成部53は、第2のカメラ軌跡データが示すカメラの軌跡を近似する第2の直線を算出する。パラメーター生成部53は、第1の直線および第2の直線が互いに一致するように第1の3Dデータおよび第2の3Dデータの各々の位置および姿勢を補正するための位置姿勢変換パラメーターを生成する。
パラメーター生成部53は、第1の3Dデータの全体と関連付けられている第1のカメラ軌跡データを使用することにより第1の直線を算出してもよい。パラメーター生成部53は、第1の3Dデータのタイムスタンプに基づいて特定される接続領域と関連付けられている第1のカメラ軌跡データを使用することにより第1の直線を算出してもよい。
パラメーター生成部53は、第2の3Dデータの全体と関連付けられている第2のカメラ軌跡データを使用することにより第2の直線を算出してもよい。パラメーター生成部53は、第2の3Dデータのタイムスタンプに基づいて特定される接続領域と関連付けられている第2のカメラ軌跡データを使用することにより第2の直線を算出してもよい。
図40は、第1の3Dデータおよび第2の3Dデータが互いに接続される前に表示部71に表示された画像の例を示す。表示制御部56は、画像IMG91を表示部71に表示する。画像IMG91は、領域R91および領域R92を含む。第1の3D形状3D91の画像が領域R91に表示される。第1の3D形状3D91は、第1の3Dデータによって示される。第2の3D形状3D92の画像が領域R92に表示される。第2の3D形状3D92は、第2の3Dデータによって示される。
第1のカメラ軌跡TR91および第2のカメラ軌跡TR92が図40に示されている。第1のカメラ軌跡TR91は、第1のカメラ軌跡データに含まれる2つ以上の位置を示す。第2のカメラ軌跡TR92は、第2のカメラ軌跡データに含まれる2つ以上の位置を示す。表示制御部56が第1のカメラ軌跡TR91および第2のカメラ軌跡TR92を表示部71に表示する必要はない。
図41は、第1の3Dデータおよび第2の3Dデータが互いに接続された後に表示部71に表示された画像の例を示す。図41において、後述するステップS145は考慮されていない。図40に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG92を表示部71に表示する。画像IMG92は、領域R93を含む。第1の3D形状3D91と第2の3D形状3D92との画像が領域R93に表示される。
第1のカメラ軌跡TR91を近似する第1の直線と、第2のカメラ軌跡TR92を近似する第2の直線とが互いに一致するように第1の3D形状3D91および第2の3D形状3D92が配置される。直線L91は、第1の直線および第2の直線によって構成される。
被写体がブレード(動翼)である場合、パラメーター生成部53は、以下の処理を実行する。パラメーター生成部53は、第1のカメラ軌跡データが示すカメラの軌跡を近似する第1の曲線を算出する。また、パラメーター生成部53は、第2のカメラ軌跡データが示すカメラの軌跡を近似する第2の曲線を算出する。第1の曲線および第2の曲線の各々は、円弧状である。パラメーター生成部53は、第1の曲線および第2の曲線が、任意の直径を持つ円の周上で互いに接続されるように第1の3Dデータおよび第2の3Dデータの各々の位置および姿勢を補正するための位置姿勢変換パラメーターを生成する。
図42は、第1の3Dデータおよび第2の3Dデータが互いに接続される前に表示部71に表示された画像の例を示す。表示制御部56は、画像IMG101を表示部71に表示する。画像IMG101は、領域R101および領域R102を含む。第1の3D形状3D101の画像が領域R101に表示される。第1の3D形状3D101は、第1の3Dデータによって示される。第2の3D形状3D102の画像が領域R102に表示される。第2の3D形状3D102は、第2の3Dデータによって示される。
第1のカメラ軌跡TR101および第2のカメラ軌跡TR102が図42に示されている。第1のカメラ軌跡TR101は、第1のカメラ軌跡データに含まれる2つ以上の位置を示す。第2のカメラ軌跡TR102は、第2のカメラ軌跡データに含まれる2つ以上の位置を示す。表示制御部56が第1のカメラ軌跡TR101および第2のカメラ軌跡TR102を表示部71に表示する必要はない。
図43は、第1の3Dデータおよび第2の3Dデータが互いに接続された後に表示部71に表示された画像の例を示す。図43において、後述するステップS145は考慮されていない。図42に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG102を表示部71に表示する。画像IMG102は、領域R103を含む。第1の3D形状3D101と第2の3D形状3D102との画像が領域R103に表示される。
第1のカメラ軌跡TR101を近似する第1の曲線と、第2のカメラ軌跡TR102を近似する第2の曲線とが1つの円周上に配置されるように第1の3D形状3D101および第2の3D形状3D102が配置される。円CR101は、第1の曲線および第2の曲線によって構成される。
パラメーター生成部53は、上記の方法を使用することにより、被写体に応じた位置姿勢変換パラメーターを生成することができる。被写体がパイプである場合、第1の3Dデータおよび第2の3Dデータの各々の縮尺は補正されない。被写体がブレード(動翼)である場合、第1の3Dデータおよび第2の3Dデータの各々の縮尺が補正されてもよい。
ステップS144の後、欠落区間算出部60は、第1のカメラ軌跡データおよび第2のカメラ軌跡データを使用することにより、接続領域における欠落区間を算出する(ステップS145)。欠落区間算出部60は、以下の方法を使用することにより、欠落区間の位置を算出する。以下の方法は、パイプの検査およびブレード(動翼)の検査に適用できる。
被写体がパイプである場合、欠落区間算出部60は、以下の処理を実行する。図44は、欠落区間を算出する方法を示す。
2つ以上の点P111、2つ以上の点P112、および2つ以上の点P113の各点は、カメラが画像を生成したときのカメラの位置(3D座標)を示す。2つ以上の点P111は、第1のカメラ軌跡データを構成し、かつ第1の3Dデータ3D111と関連付けられている。2つ以上の点P112は、第2のカメラ軌跡データを構成し、かつ第2の3Dデータ3D112と関連付けられている。2つ以上の点P113は、3Dデータが存在しない領域におけるカメラの位置を示す。
2つ以上の点P113と対応する3Dデータが存在しないため、2つ以上の点P113と対応するカメラ軌跡データは存在しない。2つ以上の点P113は、欠落区間を構成する。
第1の3Dデータ3D111は、2枚以上の画像FR111を使用することにより生成される。第2の3Dデータ3D112は、2枚以上の画像FR112を使用することにより生成される。2枚以上の画像FR113は、第1の3Dデータ3D111および第2の3Dデータ3D112を生成するために使用されていない。2枚以上の画像FR111、2枚以上の画像FR112、および2枚以上の画像FR113は、1つの動画ファイルに含まれる。2枚以上の画像FR111、2枚以上の画像FR112、および2枚以上の画像FR113の各々は、フレーム番号を持つ。
2つ以上の点P111の各々は、画像FR111と関連付けられている。2つ以上の点P112の各々は、画像FR112と関連付けられている。2つ以上の点P113の各々は、画像FR113と関連付けられていない。
2枚以上の画像FR111の全てが第1の3Dデータ3D111を生成するために使用されるとは限らない。2枚以上の画像FR111に含まれる2枚以上のキーフレームが、第1の3Dデータ3D111を生成するために使用される。キーフレームの枚数は、2枚以上の画像FR111の全体の枚数以下である。同様に、2枚以上の画像FR112に含まれる2枚以上のキーフレームが、第2の3Dデータ3D112を生成するために使用される。
点P111の数と、画像FR111(キーフレーム)の枚数とは相関を持つ。点P112の数と、画像FR112(キーフレーム)の枚数とは相関を持つ。欠落区間算出部60は、1枚の画像当たりの点P111および点P112の数を算出する。欠落区間算出部60は、1枚の画像当たりの点P111および点P112の数および画像FR113の枚数を使用することにより、点P113の数を算出する。
欠落区間算出部60は、点P111または点P112の間隔(3次元距離)を算出する。欠落区間算出部60は、その間隔および点P113の数を使用することにより、欠落区間の長さLT111を算出する。第1の3Dデータを生成するために使用された動画データが、第2の3Dデータを生成するために使用された動画データと異なる場合、上記の方法は使用されない。
被写体がブレード(動翼)である場合、欠落区間算出部60は、以下の処理を実行する。図45および図46は、欠落区間を算出する方法を示す。
図45は、カメラ軌跡データと3Dデータとの関係を示す。2つ以上の点P121、2つ以上の点P122、2つ以上の点P123、および2つ以上の点P124の各点は、カメラが画像を生成したときのカメラの位置(3D座標)を示す。2つ以上の点P121は、第1のカメラ軌跡データを構成し、かつ第1の3Dデータ3D121と関連付けられている。2つ以上の点P122は、第2のカメラ軌跡データを構成し、かつ第2の3Dデータ3D122と関連付けられている。2つ以上の点P123および2つ以上の点P124は、3Dデータが存在しない領域におけるカメラの位置を示す。
2つ以上の点P123と対応する3Dデータおよび2つ以上の点P124と対応する3Dデータが存在しないため、2つ以上の点P123と対応するカメラ軌跡データおよび2つ以上の点P124と対応するカメラ軌跡データは存在しない。2つ以上の点P123は、第1の欠落区間を構成する。2つ以上の点P124は、第2の欠落区間を構成する。
図46は、動画ファイルを示す。第1の3Dデータ3D121は、2枚以上の画像FR121を使用することにより生成される。第2の3Dデータ3D122は、2枚以上の画像FR122を使用することにより生成される。2枚以上の画像FR123および2枚以上の画像FR124は、第1の3Dデータ3D121および第2の3Dデータ3D122を生成するために使用されていない。2枚以上の画像FR121、2枚以上の画像FR122、2枚以上の画像FR123、および2枚以上の画像FR124は、1つの動画ファイルに含まれる。2枚以上の画像FR121、2枚以上の画像FR122、2枚以上の画像FR123、および2枚以上の画像FR124の各々は、フレーム番号を持つ。
2つ以上の点P121の各々は、画像FR121と関連付けられている。2つ以上の点P122の各々は、画像FR122と関連付けられている。2つ以上の点P123の各々は、画像FR123と関連付けられていない。2つ以上の点P124の各々は、画像FR124と関連付けられていない。
2枚以上の画像FR121の全てが第1の3Dデータ3D121を生成するために使用されるとは限らない。2枚以上の画像FR121に含まれる2枚以上のキーフレームが、第1の3Dデータ3D121を生成するために使用される。キーフレームの枚数は、2枚以上の画像FR121の全体の枚数以下である。同様に、2枚以上の画像FR122に含まれる2枚以上のキーフレームが、第2の3Dデータ3D122を生成するために使用される。
点P121の数と、画像FR121(キーフレーム)の枚数とは相関を持つ。点P122の数と、画像FR122(キーフレーム)の枚数とは相関を持つ。欠落区間算出部60は、1枚の画像当たりの点P121および点P122の数を算出する。欠落区間算出部60は、1枚の画像当たりの点P121および点P122の数および画像FR123の枚数を使用することにより、点P123の数を算出する。
欠落区間算出部60は、点P121または点P122の間隔(角度)を算出する。欠落区間算出部60は、その間隔および点P113の数を使用することにより、第1の欠落区間の角度AG121を算出する。欠落区間算出部60は、点P121の間隔および3Dデータ3D121のブレードの枚数を使用することにより、ブレードの間隔(角度)を算出してもよい。欠落区間算出部60は、その間隔および第1の欠落区間の角度AG121を使用することにより、第1の欠落区間におけるブレードの枚数を算出してもよい。
欠落区間算出部60は、ブレードの1周の角度(360度)から第1の角度、第2の角度、および角度AG121を減算することにより第2の欠落区間の角度AG122を算出する。第1の角度は、3Dデータ3D121のブレードが配置された範囲と対応する。第2の角度は、3Dデータ3D122のブレードが配置された範囲と対応する。欠落区間算出部60は、ブレードの全体の枚数から3Dデータ3D121のブレードの枚数、3Dデータ3D122のブレードの枚数、および第1の欠落区間におけるブレードの枚数を減算することにより、第2の欠落区間におけるブレードの枚数を算出してもよい。第1の3Dデータを生成するために使用された動画データが、第2の3Dデータを生成するために使用された動画データと異なる場合、上記の方法は使用されない。
ステップS145の後、パラメーター生成部53は、ステップS106において、欠落区間に基づいて変換パラメーターを生成する。このとき、パラメーター生成部53は、第1の3Dデータおよび第2の3Dデータを欠落区間の長さまたは角度だけ互いに離すための変換パラメーターを生成する。
本発明の各態様は、次の変形例を含んでもよい。構造情報は、被写体を持つ物体の内部に挿入される挿入部2の先端20が配置された2つ以上の位置を示す。
本発明の各態様は、次の変形例を含んでもよい。構造情報は、第1の位置情報(第1のカメラ軌跡データ)および第2の位置情報(第2のカメラ軌跡データ)を含む。第1の位置情報は、2枚以上の第1の画像を取得するために先端20が配置された2つ以上の位置を示す。第2の位置情報は、2枚以上の第2の画像を取得するために先端20が配置された2つ以上の位置を示す。パラメーター生成部53は、生成ステップ(ステップS144)において、第1の位置情報および第2の位置情報に基づいて、第1の3D座標系および第2の3D座標系を共通座標系に変換するための位置の変換パラメーターおよび姿勢の変換パラメーターを生成する。変換部54は、変換ステップ(ステップS107)において、位置の変換パラメーターおよび姿勢の変換パラメーターを使用することにより第1の3D座標系および第2の3D座標系を共通座標系に変換する。
本発明の各態様は、次の変形例を含んでもよい。第1の3Dデータは、2枚以上の第1の画像を使用することにより生成される。第2の3Dデータは、2枚以上の第2の画像を使用することにより生成される。2枚以上の第1の画像および2枚以上の第2の画像は、1つの動画ファイルを構成する。
本発明の各態様は、次の変形例を含んでもよい。欠落区間算出部60は、算出ステップ(ステップS145)において、2枚以上の第1の画像の枚数と、2枚以上の第2の画像の枚数と、第3の画像の枚数とに基づいて欠落領域の位置を算出する。第3の画像は、動画ファイルにおいて時間的に2枚以上の第1の画像と2枚以上の第2の画像との間に配置されている。欠落領域は、被写体の第1の領域および被写体の第2の領域のいずれとも異なる被写体の領域である。第1の領域は、第1の3Dデータに含まれる3D座標と対応する。第2の領域は、第2の3Dデータに含まれる3D座標と対応する。変換部54は、変換ステップ(ステップS107)において、欠落領域の位置に基づいて第1の3D座標系および第2の3D座標系を共通座標系に変換する。
第5の実施形態において、画像表示装置50cは、第1の3Dデータおよび第2の3Dデータを互いに接続することができ、かつ広い範囲の3D形状の画像を表示することができる。また、画像表示装置50cは、欠落区間を考慮することにより、被写体の本来の形状に近い3D形状の画像を表示することができる。
(第5の実施形態の変形例)
本発明の第5の実施形態の変形例を説明する。前述した第5の実施形態において、画像処理を通して生成されたカメラ軌跡データが使用される。一方、第5の実施形態の変形例において、センサーデータを使用することによりカメラの位置が算出され、その位置を示すデータがカメラ軌跡データの代わりに使用される。第5の実施形態の変形例において、図38に示す画像表示装置50cが使用される。
例えば、IMUまたは挿入長センサーが使用される。IMUは、挿入部2の先端20に配置される。挿入長センサーは、図22に示す挿入部2の基端部に配置され、または挿入部2を収納するドラムに配置される。挿入長センサーは、検査対象に挿入されている挿入部2の部分の長さ(挿入長)を検出する。
図47を使用することにより、画像表示装置50cが実行する処理について説明する。図47は、画像表示装置50cが実行する処理の手順を示す。図2に示す処理と同じ処理の説明を省略する。
ステップS103の後、データ取得部52は、記憶部73に接続し、かつ接続領域におけるセンサーデータを記憶部73から取得する(ステップS120)。例えば、データ取得部52は、第1の3Dデータの終端部の時刻から第2の3Dデータの始端部の時刻までの区間におけるセンサーデータを記憶部73から取得する。ステップS120は図29に示すステップS120と同じである。
ステップS120の後、パラメーター生成部53は、ステップS120において取得されたセンサーデータに基づいて変換パラメーターを生成する(ステップS150)。
例えば、パラメーター生成部53は、IMUのセンサーデータを使用することにより、挿入部2の先端20の軌跡を算出する。その軌跡は、先端20が配置された2つ以上の位置を示す。パラメーター生成部53は、その軌跡に基づいて先端20の動きを判断する。具体的には、パラメーター生成部53は、先端20が直進しているか否か、または先端20が90度曲がるか否かを判断する。また、欠落区間算出部60は、第5の実施形態における方法を使用することにより、欠落区間の長さを算出する。
挿入長センサーのセンサーデータが使用される場合、パラメーター生成部53は、先端20が直進しているか否か、または先端20が90度曲がるか否かを判断することができない。欠落区間算出部60は、挿入長センサーのセンサーデータを使用することにより、欠落区間の長さを算出することができる。第3の実施形態の第2の変形例における挿入部2の湾曲に関する操作の履歴情報が使用される場合、パラメーター生成部53は、履歴情報に基づいて先端20が直進しているか否か、または先端20が90度曲がるか否かを判断することができる。欠落区間算出部60は、履歴情報に基づいて欠落区間の形状を算出することができる。
ガスタービンの静翼が検査されるとき、スコープの先端が静翼のディスクの円周上で移動する。この場合においても、パラメーター生成部53は、挿入長センサーのセンサーデータを使用することにより、欠落区間の長さを算出することができる。
図48は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG131を表示部71に表示する。画像IMG131は、領域R131を含む。第1の3D形状3D131と第2の3D形状3D132との画像が領域R131に表示される。第1の3D形状3D131は、第1の3Dデータによって示される。第2の3D形状3D132は、第2の3Dデータによって示される。
図48に示す例では、パラメーター生成部53は、先端20が90度曲がると判断する。そのため、パラメーター生成部53は、第2の3D形状3D132の中心軸が第1の3D形状3D131の中心軸と直交するための位置姿勢変換パラメーターを生成する。第1の3D形状3D131および第2の3D形状3D132の間の角度AG131が90度となるように第1の3D形状3D131および第2の3D形状3D132が配置される。
前述した第3の実施形態の第2の変形例において、パラメーター生成部53は、構造情報を使用することにより変換パラメーターを生成する。一方、第5の実施形態の変形例において、パラメーター生成部53は、構造情報を使用せずにセンサーデータを使用することにより変換パラメーターを生成する。
本発明の各態様は、次の変形例を含んでもよい。欠落区間算出部60は、算出ステップ(ステップS150)において、欠落領域の形状を算出する。変換部54は、変換ステップ(ステップS107)において、欠落領域の形状に基づいて第1の3D座標系および第2の3D座標系を共通座標系に変換する。
第5の実施形態の変形例において、画像表示装置50cは、第1の3Dデータおよび第2の3Dデータを互いに接続することができ、かつ広い範囲の3D形状の画像を表示することができる。また、画像表示装置50cは、欠落区間を考慮することにより3D形状の画像を表示することができる。
(第6の実施形態)
本発明の第6の実施形態を説明する。工業用の内視鏡装置は、ボイラー、ガスタービン、自動車エンジン、およびパイプ等の内部の異常(傷および腐食等)の検査に使用されている。検査者が実施した検査の内容の検証を可能とするために、一般的に、検査時に動画が記録される。
動画を使用することにより検査対象の3D形状を再構成する技術が知られている。その動画は、単眼光学系を通して取得された光学像に基づいて生成される。この技術を使用することにより、内視鏡装置は広い範囲の検査対象の3Dデータを取得することができる。
検査された領域と、検査されていない領域とをユーザーに把握させるために検査対象の3Dデータが使用されてもよい。検査された領域の3Dデータが生成され、検査されていない領域の3Dデータは生成されない。検査対象がユニークな形状を持つ場合、ユーザーは3Dデータの領域が実際の検査対象のどの領域と対応するのかを把握することができる。ユーザーは、3Dデータが示す3D形状を確認することにより、検査対象において検査された領域を把握することができる。
しかしながら、内視鏡検査における代表的な検査対象である熱交換チューブまたはガスタービン等にはユニークな構造物は少ない。そのため、3Dデータの領域が検査対象のどの領域と対応するのかをユーザーが把握することは困難である。ユーザーが3Dデータと検査対象の参照データとを視覚的に比較する場合においても、3Dデータの領域が参照データのどの領域と対応するのかをユーザーが把握することは困難である。
第6の実施形態は、被写体がユニークな形状を持たない場合であっても、検査された領域と、検査されていない領域とをユーザーに把握させることができる方法を提供する。例えば、被写体は、同じ形状が連続している構造物(例えば、パイプ)を有する。あるいは、被写体は、同じ形状を持つ複数の構造物(例えば、ブレード)を有する。
第6の実施形態は、第4の実施形態とほぼ同じである。しかしながら、第6の実施形態において、3Dデータは2つに分割されていない。以下では、被写体がブレードである例を説明する。3Dデータが示す3D形状は、円環に近い。
第6の実施形態において、図1に示す画像表示装置50が使用される。図49を使用することにより、画像表示装置50が実行する処理について説明する。図49は、画像表示装置50が実行する処理の手順を示す。
データ取得部52は、記憶部73に接続し、かつ3Dデータを記憶部73から取得する(ステップS200)。ステップS200の後、表示制御部56は、3Dデータの画像を表示部71に表示する(ステップS201)。前述した第1から第5の実施形態において、2種類の3Dデータが記憶部73から取得され、かつ各3Dデータの画像が表示部71に表示される。一方、第6の実施形態において、1種類の3Dデータが記憶部73から取得され、かつその3Dデータの画像が表示部71に表示される。
ステップS201の後、情報受付部57は参照データを受け付ける(ステップS202)。例えば、通信部72は、参照データを外部装置から受信する。情報受付部57は、通信部72によって受信された参照データを受け付ける。参照データは、構造情報を含む。同じ形状を持つ2枚以上のブレードの各々にIDが割り当てられている。参照データは、各ブレードのIDを含む。
参照データは、3D-CADを使用することにより生成されたデータ、または任意の平面における2次元形状を示すデータ等である。参照データが構造情報を含み、かつIDが参照データと関連付けられている限り、参照データの形式は上記の例に限らない。
情報受付部57が参照データを受け付ける前にIDがブレードに割り当てられる必要はない。情報受付部57が参照データを受け付けた後、ユーザーがIDをブレードに割り当ててもよい。あるいは、IDが自動でブレードに割り当てられてもよい。
ステップS202の後、表示制御部56は、ステップS201において受け付けられた参照データの画像を表示部71に表示する(ステップS203)。
ステップS200からS203の順番は、図49に示す順番に限らない。例えば、ステップS202およびステップS203が実行された後、ステップS200およびステップS201が実行されてもよい。あるいは、ステップS200およびステップS202が実行された後、ステップS201およびステップS203が実行されてもよい。ステップS201およびステップS203は省略されてもよい。
ステップS203の後、パラメーター生成部53は、3Dデータの3D座標系および参照データの3D座標系を共通座標系に変換するための変換パラメーターを生成する(ステップS204)。
以下では、参照データの3D座標系が座標系の基準であり、かつ共通座標系として使用される例を説明する。以下の例では、パラメーター生成部53は、3Dデータの3D座標系の位置および姿勢を参照データの3D座標系の位置および姿勢と一致させるための位置姿勢変換パラメーターを生成する。また、パラメーター生成部53は、3Dデータの3D座標系の縮尺を参照データの3D座標系の縮尺と一致させるための縮尺変換パラメーターを生成する。しかしながら、変換パラメーターを生成する方法は、以下の例に限らない。3Dデータの3D座標系が共通座標系として使用されてもよい。3Dデータの3D座標系および参照データの3D座標系のいずれとも異なる3D座標系が共通座標系として使用されてもよい。
パラメーター生成部53は、ステップS204において、図50に示す処理を実行する。図50は、パラメーター生成部53が実行する処理の手順を示す。
パラメーター生成部53は、3Dデータにおけるブレード領域を特定する(ステップS204a)。各ブレード領域は、1つのブレードを含む。
ステップS204aの後、パラメーター生成部53は、ステップS204aにおいて特定されたブレード領域にIDを割り当てる(ステップS204b)。
ステップS204bの後、パラメーター生成部53は、参照データにおけるブレードのIDと3Dデータにおけるブレード領域のIDとが互いに一致するように3Dデータの位置、姿勢、および縮尺を補正するための変換パラメーターを算出する(ステップS204c)。ステップS204cが実行されたとき、図50に示す処理が終了する。
図51は、表示部71に表示された画像の例を示す。表示制御部56は、画像IMG141を表示部71に表示する。画像IMG141は、領域R141および領域R142を含む。第1の3D形状3D141の画像が領域R141に表示される。第1の3D形状3D141は、3Dデータによって示される。第2の3D形状3D142の画像が領域R142に表示される。第2の3D形状3D142は、参照データによって示される。
第1の3D形状3D141は、11枚のブレードを含む。その11枚のブレードのIDは、1から4および6から12である。IDが5であるブレードは欠落しており、3Dデータに含まれていない。
第2の3D形状3D142は、12枚のブレードを含む。その12枚のブレードのIDは、1から12である。
ステップS204の後、変換部54は、ステップS204において生成された変換パラメーターを使用することにより、3Dデータの3D座標系および参照データの3D座標系を共通座標系に変換する。つまり、変換部54は、3Dデータおよび参照データの各々を共通座標系における3Dデータに変換する(ステップS205)。参照データの3D座標系が共通座標系として使用される場合、参照データの3D座標系の位置、姿勢、および縮尺は変更されず、3Dデータの3D座標系の位置、姿勢、および縮尺が変更される。
ステップS205の後、表示制御部56は、3Dデータと参照データとの3D形状の画像を表示部71に表示する。このとき、表示制御部56は、ユーザーが3Dデータと対応する領域と、3Dデータと対応しない領域とを互いに区別することができるように画像の状態を制御する(ステップS206)。ステップS206が実行されたとき、図49に示す処理が終了する。
図52は、表示部71に表示された画像の例を示す。図51に示す部分と同じ部分の説明を省略する。表示制御部56は、画像IMG142を表示部71に表示する。画像IMG142は、領域R143を含む。3D形状3D141と3D形状3D142との画像が領域R143に表示される。
例えば、表示制御部56は、IDが1から4および6から12であるブレードを第1の色で表示し、かつIDが5であるブレードを第1の色と異なる第2の色で表示する。IDが5であるブレードは3Dデータに含まれていない。ユーザーは、参照データに含まれるブレードと、参照データに含まれないブレードとを確認することができる。つまり、ユーザーは、3Dデータと対応する参照データのブレードと、3Dデータと対応しない参照データのブレードとを確認することができる。
表示制御部56は、3Dデータと対応する領域または3Dデータと対応しない領域を強調するための処理を実行してもよい。3Dデータと対応する領域と、3Dデータと対応しない領域との各々の位置が音声でユーザーに通知されてもよい。ユーザーが3Dデータと対応する領域と、3Dデータと対応しない領域とを互いに区別できる限り、3Dデータの領域をユーザーに通知する方法は上記の方法に限らない。
第6の実施形態における方法は、ガスタービンの燃焼室の検査またはガスタービンの熱交換器の検査に適用されてもよい。図53は、熱交換器HE150の構造を示す。熱交換器HE150は、2本以上の熱交換チューブHT150を有する。一般的に、参照データにおいて2本以上の熱交換チューブの各々にIDが割り当てられている。
各熱交換チューブの3DデータにIDが割り当てられてもよい。画像表示装置50は、図49および図50に示す処理と同様の処理を実行してもよい。これにより、画像表示装置50は、各熱交換チューブの3Dデータの位置、姿勢、および縮尺の各々を、参照データの熱交換チューブの位置、姿勢、および縮尺の各々と一致させてもよい。
第6の実施形態において、画像表示装置50は、3Dデータおよび参照データを使用することにより、検査された領域と、検査されていない領域とをユーザーに把握させることができる。3Dデータのみが使用される場合と比較して、ユーザーは、検査された領域と、検査されていない領域とを簡単に区別することができる。そのため、検査者が作成する検査レポートの品質が向上する。
検査部門のマネージャーまたは検査の依頼元のメンバーが検査を承認する。一般的に、検査の承認者は、内視鏡検査にあまり詳しくない。承認者は、検査された領域と、検査されていない領域とを示すデータを確認することにより、検査が正しく実施されたか否かを客観的に判断することができる。そのため、検査の信頼性が保証される。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
1 内視鏡装置
2 挿入部
3 本体部
4,70 操作部
5,71 表示部
8 内視鏡ユニット
9 CCU
10 制御装置
12 映像信号処理回路
13 ROM
14 RAM
15 カードインタフェース
16 外部機器インタフェース
17 制御インタフェース
18 CPU
20 先端
28 撮像素子
50,50a,50b,50c 画像表示装置
51,180 制御部
52,181 データ取得部
53,182 パラメーター生成部
54,183 変換部
55,184,188 データ生成部
56,185 表示制御部
57,186 情報受付部
58,187 構造推定部
59 調整部
60 欠落区間算出部
72 通信部
73 記憶部
74 センサー
1880 画像取得部
1881 条件受付部
1882 データ算出部

Claims (22)

  1. 取得部が、被写体の第1の3次元データおよび前記被写体の第2の3次元データを記憶する記録媒体に接続し、かつ前記第1の3次元データを前記記録媒体から取得し、前記第1の3次元データは、第1の3次元座標系において定義された3次元座標を含み、前記第2の3次元データは、前記第1の3次元座標系と異なる第2の3次元座標系において定義された3次元座標を含み、前記第1の3次元データと対応する前記被写体の領域の少なくとも一部と、前記第2の3次元データと対応する前記被写体の領域の少なくとも一部とは互いに異なる第1の取得ステップと、
    前記取得部が前記記録媒体に接続し、かつ前記第2の3次元データを前記記録媒体から取得する第2の取得ステップと、
    変換部が、前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を3次元の共通座標系に変換し、前記構造情報は、前記第1の3次元データおよび前記第2の3次元データのいずれも使用せずに生成される変換ステップと、
    表示制御部が、前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する表示ステップと、
    を有する3次元画像表示方法。
  2. 前記第1の3次元データは、互いに異なる2つ以上の視点において取得された2枚以上の第1の画像を使用することにより生成され、
    前記第2の3次元データは、互いに異なる2つ以上の視点において取得された2枚以上の第2の画像を使用することにより生成され、
    前記2枚以上の第1の画像の少なくとも1枚と、前記2枚以上の第2の画像の少なくとも1枚とは、互いに異なる
    請求項1に記載の3次元画像表示方法。
  3. 前記2枚以上の第1の画像の各々と、前記2枚以上の第2の画像の各々とは時間情報を含み、
    前記変換部は、前記変換ステップにおいて、前記時間情報に基づいて前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する
    請求項2に記載の3次元画像表示方法。
  4. 前記2枚以上の第1の画像は、第1の動画に含まれる2枚以上の画像の少なくとも一部であり、
    前記2枚以上の第2の画像は、前記第1の動画と同じまたは異なる第2の動画に含まれる2枚以上の画像の少なくとも一部である
    請求項2に記載の3次元画像表示方法。
  5. 前記2枚以上の第1の画像および前記2枚以上の第2の画像は、1つの動画ファイルを構成する
    請求項4に記載の3次元画像表示方法。
  6. 算出部が、前記2枚以上の第1の画像の枚数と、前記2枚以上の第2の画像の枚数と、第3の画像の枚数とに基づいて欠落領域の位置を算出し、前記第3の画像は、前記動画ファイルにおいて時間的に前記2枚以上の第1の画像と前記2枚以上の第2の画像との間に配置され、前記欠落領域は、前記被写体の第1の領域および前記被写体の第2の領域のいずれとも異なる前記被写体の領域であり、前記第1の領域は、前記第1の3次元データに含まれる前記3次元座標と対応し、前記第2の領域は、前記第2の3次元データに含まれる前記3次元座標と対応する算出ステップをさらに有し、
    前記変換部は、前記変換ステップにおいて、前記欠落領域の前記位置に基づいて前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する
    請求項5に記載の3次元画像表示方法。
  7. 前記算出部は、前記算出ステップにおいて、前記欠落領域の形状を算出し、
    前記変換部は、前記変換ステップにおいて、前記欠落領域の前記形状に基づいて前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する
    請求項6に記載の3次元画像表示方法。
  8. 前記構造情報は、前記被写体を持つ物体の内部に挿入される挿入部の先端が配置された2つ以上の位置を示す
    請求項2に記載の3次元画像表示方法。
  9. 前記構造情報は、第1の位置情報および第2の位置情報を含み、前記第1の位置情報は、前記2枚以上の第1の画像を取得するために前記先端が配置された2つ以上の位置を示し、前記第2の位置情報は、前記2枚以上の第2の画像を取得するために前記先端が配置された2つ以上の位置を示し、
    前記3次元画像表示方法は、パラメーター生成部が前記第1の位置情報および前記第2の位置情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換するための位置の変換パラメーターおよび姿勢の変換パラメーターを生成する生成ステップをさらに有し、
    前記変換部は、前記変換ステップにおいて、前記位置の前記変換パラメーターおよび前記姿勢の前記変換パラメーターを使用することにより前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する
    請求項8に記載の3次元画像表示方法。
  10. 前記変換部は、前記変換ステップにおいて、前記被写体の第1の領域および前記被写体の第2の領域が互いに接続されるように前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換し、前記第1の領域は、前記第1の3次元データに含まれる前記3次元座標と対応し、前記第2の領域は、前記第2の3次元データに含まれる前記3次元座標と対応し、
    前記表示制御部は、前記表示ステップにおいて、前記第1の領域および前記第2の領域の位置を示す情報を前記ディスプレイに表示する
    請求項2に記載の3次元画像表示方法。
  11. 前記表示制御部は、前記表示ステップにおいて、前記第1の領域および前記第2の領域の接続の精度を示す情報を前記ディスプレイに表示する
    請求項10に記載の3次元画像表示方法。
  12. 前記2枚以上の第1の画像および前記2枚以上の第2の画像は、内視鏡によって生成される
    請求項2に記載の3次元画像表示方法。
  13. 前記2枚以上の第1の画像および前記2枚以上の第2の画像は、単眼光学系を通して取得された前記被写体の光学像に基づいて生成される
    請求項2に記載の3次元画像表示方法。
  14. 前記第1の3次元データが示す3次元形状の縮尺と、前記第2の3次元データが示す3次元形状の縮尺との少なくとも1つを補正するための縮尺の変換パラメーターをパラメーター生成部が生成する生成ステップをさらに有し、
    前記変換部は、前記変換ステップにおいて、前記縮尺の前記変換パラメーターを使用することにより前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する
    請求項2に記載の3次元画像表示方法。
  15. 前記構造情報は、前記幾何的な構造の設計値を含む設計データである、または前記第1の3次元データおよび前記第2の3次元データのいずれとも異なる3次元データである
    請求項2に記載の3次元画像表示方法。
  16. 前記構造情報は、センサーから出力されたデータに基づいて生成される
    請求項2に記載の3次元画像表示方法。
  17. 前記2枚以上の第1の画像および前記2枚以上の第2の画像は、挿入部によって取得された前記被写体の光学像に基づいて生成され、前記挿入部は、前記被写体を持つ物体の内部に挿入され、かつ湾曲可能であり、
    前記構造情報は、前記挿入部の湾曲方向および湾曲量を示す情報に基づいて生成される
    請求項2に記載の3次元画像表示方法。
  18. パラメーター生成部が前記構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換するための位置の変換パラメーターおよび姿勢の変換パラメーターを生成する生成ステップをさらに有し、
    前記変換部は、前記変換ステップにおいて、前記位置の前記変換パラメーターおよび前記姿勢の前記変換パラメーターを使用することにより前記第1の3次元座標系および前記第2の3次元座標系を前記共通座標系に変換する
    請求項2に記載の3次元画像表示方法。
  19. 調整部が、前記共通座標系における前記第1の3次元データおよび前記第2の3次元データの少なくとも一方の位置および姿勢の少なくとも一方を調整する調整ステップをさらに有する
    請求項2に記載の3次元画像表示方法。
  20. 前記被写体は2つ以上の物体を含み、
    前記構造情報は、前記2つ以上の物体が配置された位置を示す
    請求項2に記載の3次元画像表示方法。
  21. 被写体の第1の3次元データおよび前記被写体の第2の3次元データを記憶する記録媒体に接続し、かつ前記第1の3次元データおよび前記第2の3次元データを前記記録媒体から取得し、前記第1の3次元データは、第1の3次元座標系において定義された3次元座標を含み、前記第2の3次元データは、前記第1の3次元座標系と異なる第2の3次元座標系において定義された3次元座標を含み、前記第1の3次元データと対応する前記被写体の領域の少なくとも一部と、前記第2の3次元データと対応する前記被写体の領域の少なくとも一部とは互いに異なる取得部と、
    前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を3次元の共通座標系に変換し、前記構造情報は、前記第1の3次元データおよび前記第2の3次元データのいずれも使用せずに生成される変換部と、
    前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する表示制御部と、
    を有する3次元画像表示装置。
  22. 被写体の第1の3次元データおよび前記被写体の第2の3次元データを記憶する記録媒体に接続し、かつ前記第1の3次元データを前記記録媒体から取得し、前記第1の3次元データは、第1の3次元座標系において定義された3次元座標を含み、前記第2の3次元データは、前記第1の3次元座標系と異なる第2の3次元座標系において定義された3次元座標を含み、前記第1の3次元データと対応する前記被写体の領域の少なくとも一部と、前記第2の3次元データと対応する前記被写体の領域の少なくとも一部とは互いに異なる第1の取得ステップと、
    前記記録媒体に接続し、かつ前記第2の3次元データを前記記録媒体から取得する第2の取得ステップと、
    前記被写体の幾何的な構造に関する構造情報に基づいて、前記第1の3次元座標系および前記第2の3次元座標系を3次元の共通座標系に変換し、前記構造情報は、前記第1の3次元データおよび前記第2の3次元データのいずれも使用せずに生成される変換ステップと、
    前記共通座標系における前記第1の3次元データの画像と前記共通座標系における前記第2の3次元データの画像とをディスプレイに表示する表示ステップと、
    をコンピュータに実行させるためのプログラム。
JP2021092249A 2021-06-01 2021-06-01 3次元画像表示方法、3次元画像表示装置、およびプログラム Pending JP2022184415A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021092249A JP2022184415A (ja) 2021-06-01 2021-06-01 3次元画像表示方法、3次元画像表示装置、およびプログラム
US17/741,911 US11856176B2 (en) 2021-06-01 2022-05-11 Three-dimensional image display method, three-dimensional image display device, and recording medium
US18/514,216 US20240089421A1 (en) 2021-06-01 2023-11-20 Three-dimensional image display method, three-dimensional image display device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092249A JP2022184415A (ja) 2021-06-01 2021-06-01 3次元画像表示方法、3次元画像表示装置、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022184415A true JP2022184415A (ja) 2022-12-13

Family

ID=84194506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092249A Pending JP2022184415A (ja) 2021-06-01 2021-06-01 3次元画像表示方法、3次元画像表示装置、およびプログラム

Country Status (2)

Country Link
US (2) US11856176B2 (ja)
JP (1) JP2022184415A (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020094134A1 (en) * 2001-01-12 2002-07-18 Nafis Christopher Allen Method and system for placing three-dimensional models
US20050096515A1 (en) * 2003-10-23 2005-05-05 Geng Z. J. Three-dimensional surface image guided adaptive therapy system
JP5561458B2 (ja) * 2008-03-18 2014-07-30 国立大学法人浜松医科大学 手術支援システム
JP2010066595A (ja) 2008-09-11 2010-03-25 Toyota Motor Corp 環境地図生成装置及び環境地図生成方法
US9129435B2 (en) 2012-12-04 2015-09-08 Fuji Xerox Co., Ltd. Method for creating 3-D models by stitching multiple partial 3-D models
US10507087B2 (en) * 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
GB2559157A (en) * 2017-01-27 2018-08-01 Ucl Business Plc Apparatus, method and system for alignment of 3D datasets
EP3355214A1 (de) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells
CN110537076B (zh) * 2017-04-19 2021-09-03 瑞尼斯豪公司 支承布置
US20190050998A1 (en) * 2017-08-10 2019-02-14 Richard Kirby Scene Flow Camera
CN108279670B (zh) 2017-12-29 2021-12-10 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
US10791268B2 (en) * 2018-02-07 2020-09-29 Structionsite Inc. Construction photograph integration with 3D model images
WO2020102665A1 (en) * 2018-11-16 2020-05-22 Lang Philipp K Augmented reality guidance for surgical procedures with adjustment of scale, convergence and focal plane or focal point of virtual data
US10565737B1 (en) * 2019-07-09 2020-02-18 Mujin, Inc. Method and system for performing automatic camera calibration for a scanning system

Also Published As

Publication number Publication date
US20240089421A1 (en) 2024-03-14
US20220385874A1 (en) 2022-12-01
US11856176B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
US8485038B2 (en) System and method for augmented reality inspection and data visualization
US11536670B2 (en) System and method for engine inspection
JP3771988B2 (ja) 計測内視鏡装置
US10902664B2 (en) System and method for detecting damage using two-dimensional imagery and three-dimensional model
JP6405320B2 (ja) 物的資産の改良された自動外観検査のための方法およびシステム
EP2030558B1 (en) Three-dimensional image forming device, three-dimensional image forming method and program
US10964044B2 (en) Method of operating measurement device, measurement device, and recording medium
CN111879235A (zh) 弯管的三维扫描检测方法、三维扫描系统和计算机设备
US11941749B2 (en) Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon
JP5388921B2 (ja) 3次元距離計測装置及びその方法
CN113302650A (zh) 用于检查难以触及的部件的方法和设备
JP2008292405A (ja) 検査装置および検査プログラム
JP5242335B2 (ja) 画像処理装置、内視鏡装置、内視鏡システム、およびプログラム
US11650407B2 (en) Method of operating observation device, observation device, and recording medium
JP5307407B2 (ja) 内視鏡装置およびプログラム
JP2022184415A (ja) 3次元画像表示方法、3次元画像表示装置、およびプログラム
JP2004302756A (ja) Cad施工図検図方法及びその装置
JP2005030961A (ja) コンクリート点検システムのハイビジョン画像処理方法
JP6081209B2 (ja) 内視鏡装置およびプログラム
US11301990B2 (en) Borescope inspection method and device
US20230306584A1 (en) Three-dimensional data generation method, three-dimensional data generation device, and recording medium
Gorevoy et al. Applying a ray tracing model of an optoelectronic system to improve the accuracy of endoscopic measurements
JP2007299219A (ja) 撮影画像におけるゆがみの較正方法
JP7438001B2 (ja) 計測装置、計測システム、計測方法及びプログラム
JP3728535B2 (ja) 管内欠陥寸法測定システム及び方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240126