JP2019165338A - 画像処理装置及び投影システム - Google Patents

画像処理装置及び投影システム Download PDF

Info

Publication number
JP2019165338A
JP2019165338A JP2018051816A JP2018051816A JP2019165338A JP 2019165338 A JP2019165338 A JP 2019165338A JP 2018051816 A JP2018051816 A JP 2018051816A JP 2018051816 A JP2018051816 A JP 2018051816A JP 2019165338 A JP2019165338 A JP 2019165338A
Authority
JP
Japan
Prior art keywords
image
marker
projection
type
marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018051816A
Other languages
English (en)
Other versions
JP7139637B2 (ja
Inventor
乙一 中田
Otokazu Nakada
乙一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018051816A priority Critical patent/JP7139637B2/ja
Priority to EP19160614.4A priority patent/EP3543955B1/en
Priority to US16/292,552 priority patent/US10929706B2/en
Publication of JP2019165338A publication Critical patent/JP2019165338A/ja
Application granted granted Critical
Publication of JP7139637B2 publication Critical patent/JP7139637B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】非剛体へのプロジェクションマッピングに好適な投影画像を生成する画像処理装置及び投影システムを提供する。【解決手段】画像処理装置40は、柔軟性の異なる複数の部位を有し、当該部位に異なる柔軟性に対応する種別のマーカーが複数個付された対象領域について、当該対象領域を事前に撮像した投影対象の第1画像と、第1画像の投影に先駆けて対象領域を撮像した第2画像との各々から、マーカーが付されたマーキング位置をマーカー種別毎に抽出し、抽出されたマーカー種別毎のマーキング位置に基づいて、第1画像に含まれたマーカーのマーキング位置を、第2画像に含まれたマーカーのマーキング位置に位置合わせする画像処理を、マーカー種別に対応した処理方法で実行し、画像処理後の第1画像に基づいて、対象領域に投影する投影画像を生成する。【選択図】図5

Description

本発明は、画像処理装置及び投影システムに関する。
プロジェクタ等の投影装置を使用して建造物等の立体物に画像(映像)を投影するプロジェクションマッピングと呼ばれる技術が様々な分野で利用されている。係るプロジェクションマッピングでは、位置ずれや歪みが発生しないよう立体物の形状にあわせて画像を投影することが要求される。
例えば、投影先の対象物(立体物)を投影装置の視点から見た2次元の画像データと、投影装置の3次元データから生成した2次元画像とを用いることで、立体物と投影用の画像との位置合わせを行う技術が提案されている(特許文献1)。
ところで、上記したプロジェクションマッピングは、CT(コンピュータ断層撮像装置)やMRI(磁気共鳴診断装置)等のモダリティで撮像された患者のモダリティ画像を、当該患者の体表に投影する際にも利用されている。
しかしながら、プロジェクションマッピングを用いてモダリティ画像を投影する場合、モダリティ画像の投影先は非剛体の人体となるため、モダリティ画像の撮像時と投影時とで部位の形状が変化する可能性がある。例えば、撮像先(投影先)の領域に、皮下脂肪の多い柔軟性に富んだ部位(例えば乳房等)が含まれる場合には、モダリティ画像の撮像時と同じ体位を投影時に再現したとしても、当該部位の形状が相違する可能性がある。なお、従来の技術は、建造物等の剛体を投影先とした位置合わせ技術であるため、非剛体への投影に適用することは困難である。
本発明は、上記に鑑みてなされたものであって、非剛体へのプロジェクションマッピングに好適な投影画像を生成することが可能な画像処理装置及び投影システムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の一形態は、柔軟性の異なる複数の部位を有し当該部位に前記柔軟性に対応する種別のマーカーが複数個付された対象領域について、当該対象領域を事前に撮像した投影対象の第1画像と、前記第1画像の投影に先駆けて前記対象領域を撮像した第2画像との各々から、前記マーカーが付されたマーキング位置をマーカー種別毎に抽出するマーキング情報抽出部と、抽出された前記マーカー種別毎の前記マーキング位置に基づいて、前記第1画像に含まれた前記マーカーの前記マーキング位置を、前記第2画像に含まれた前記マーカーの前記マーキング位置に位置合わせする画像処理を、前記マーカー種別に対応した処理方法で実行する画像処理部と、前記画像処理後の前記第1画像に基づいて、前記対象領域に投影する投影画像を生成する投影画像生成部と、を備えることを特徴とする。
本発明によれば、非剛体へのプロジェクションマッピングに好適な投影画像を生成することが可能となる。
図1は、第1の実施形態に係るプロジェクションマッピングシステムのシステム構成例を示す図である。 図2は、第1の実施形態に係るマーカーの例を示す図である。 図3は、第1の実施形態に係るプロジェクタ及びカメラの設置例を示す図である。 図4は、第1の実施形態に係る画像処理装置のハードウェア構成例を示す図である。 図5は、第1の実施形態に係る画像処理装置の機能構成例を示す図である。 図6は、第1の実施形態に係る3次元データの座標系を説明するための図である。 図7は、第1の実施形態に係る入力画像及びマーキング認識用画像に含まれたマーカーのマーキング状態例を示す図である。 図8は、第1の実施形態に係る変形処理部の変形範囲の抽出動作を説明するための図である。 図9は、第1の実施形態に係る変形後座標群と患者の体表との関係を示す図である。 図10は、第1の実施形態に係る変形後座標群の座標系と、プロジェクタ座標系との関係を示す図である。 図11は、第1の実施形態の画像処理装置で実行される画像処理の一例を示すフローチャートである。 図12は、第1の実施形態の画像処理装置で実行される画像処理を説明するための図である。 図13は、第2の実施形態に係る投影先の対象物の例を示す図である。 図14は、第4の実施形態に係るプロジェクタと投影先の対象物との配置関係を説明するための図である。 図15は、第5の実施形態に係るマーカーの例を示す図である。 図16は、第7の実施形態に係る入力装置の機能構成例を示す図である。 図17は、第7の実施形態に係る形状計測パターンの一例を示す図である。
以下に添付図面を参照して、画像処理装置及び投影システムの実施形態を詳細に説明する。以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には当業者が容易に想到できるもの、実質的に同一のもの、及びいわゆる均等の範囲のものが含まれる。以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更、及び組み合わせを行うことができる。
(第1の実施形態)
図1は、第1の実施形態に係る投影システム1のシステム構成例を示す図である。投影システム1は、CT(コンピュータ断層撮像装置)やMRI(磁気共鳴診断装置)等のモダリティで撮像された患者のモダリティ画像を、当該患者の手術時等に患者の体表に投影(プロジェクションマッピング)するものである。
本例に係る投影システム1は、入力装置10、カメラ30、プロジェクタ20、及び画像処理装置40を有する。
入力装置10は、入力部の一例である。入力装置10は、モダリティで撮像されたモダリティ画像を、投影の対象となる入力画像として画像処理装置40に入力する。入力装置10は、例えばCTやMRI等のモダリティや、当該モダリティで撮像されたモダリティ画像を記憶・管理するデータベース等である。また、入力装置10は、例えば、フィルム媒体等で記録されたモダリティ画像を読み取るスキャナ装置である。
モダリティ画像は、CTやMRI等のモダリティで撮像された患者の生体内の情報を画像化したデータである。係るモダリティ画像は、投影したい向きに合わせて撮像されている。例えば、患者を仰臥位で撮像し、仰臥位状態の真上方向から投影する場合には、真上方向の視点のMIP(Maximum Intensity Projection)画像をモダリティ画像として用意する。また、仰臥位状態の斜め30度方向から投影する場合は、同様に斜め30度方向の視点のMIP画像をモダリティ画像として用意する。また、乳房温存手術の色素法を利用する場合は、その色素注射の穿刺方向に合わせたMIP画像をモダリティ画像として用意する。本例では説明の簡略化のため、撮影及び投影の対象となる対象領域を胸部(乳房周辺)とし、当該対象領域を真上方向からの視点で撮像・投影を行うものとして説明する。
また、モダリティ画像には、撮影時に患者の体表に付されたマーカーの位置及びマーカー種類を示すマーキング情報が含まれる。マーカーは、モダリティ画像の撮像時に、医師や技師等によって患者の体表の該当部位に付される。マーカーは、部位の特性(柔軟性)に応じて、複数種のマーカーが使い分けられる。
図2は、本実施形態に係るマーカーの例を示す図であり、患者の体表BD1(乳房周辺)に付されたマーカーの例を表している。同図では、第1種マーカーM1と、第2種マーカーM2との2種類のマーカーを用いた例を示している。
第1種マーカーM1は、弛みや皮下脂肪が少ない(MRI等で胸椎が写る)部位等、柔軟性の低い非変動部位に付されるものである。一方、第2種マーカーM2は、弛みや皮下脂肪が多い部位等、第1種マーカーM1が付される非変動部位と比較し、柔軟性の高い変動部位に付されるものである。
マーカーは、第1種マーカーM1と第2種マーカーM2とが識別できればよく、色、形状、模様、文字等を相違させて表すことができる。図2(a)では、第1種マーカーM1と第2種マーカーM2との形状を相違させた例を示している(第1種マーカーM1が「○」、第2種マーカーM2が「×」)。また、図2(b)では、第1種マーカーM1と第2種マーカーM2との色を相違させた例を示している(例えば、第1種マーカーM1が「緑」、第2種マーカーM2が「青」)。この場合、第1種マーカーM1及び第2種マーカーM2の色は、患者の肌の色と識別可能な色とすることが好ましい。
例えば、モダリティ画像に写る医療用の皮膚ペン等を用いてマーカー(第1種マーカーM1及び第2種マーカーM2)を付した場合、そのマーカーが付されたマーキング位置及び種別(色や形状)が、マーキング情報としてモダリティ画像上に記録される。この場合、マーカーは、投影時(例えば手術時)まで体表に残るような耐久性のあるインクを用いることが好ましい。
また、患者の体表に付したマーカーが、モダリティ画像に写らないような場合には、例えば、以下の手順でマーキング情報を記録すればよい。まず、患者の体表上でマーキング位置を決める。造影剤の入った造影マーカーをマーキング位置に貼付しモダリティで撮像する。これにより、撮像されたモダリティ画像上に造影マーカーのマーキング位置が記録される。そして、モダリティ画像上のマーキング位置に、該当する第1種マーカーM1及び第2種マーカーM2の種別(色、形)を、電子的又は皮膚ペン等を用いて記録する。
また、マーキング情報は、モダリティ画像と別体で保持する構成としてもよい。この場合、マーキング情報は、マーカーの種別とモダリティ画像上での当該マーカーのマーキング位置とを対応付けた情報(マーキング位置座標)を含み、対応するモダリティ画像とともに入力画像として画像処理装置40に入力される。
プロジェクタ20は、投影部の一例である。プロジェクタ20は、投影先の対象物に投影(プロジェクションマッピング)を行うプロジェクタ装置である。プロジェクタ20は、画像処理装置40から入力される各種の画像データを、投影先となる患者の体表BD1に投影する。なお、投影先は体表BD1に限らず、体表BD1周辺の領域を含んでもよい。この場合、体表BD1の範囲内には、第1種マーカーM1及び第2種マーカーM2に基づいて位置合わせされた入力画像(投影画像)が投影され、体表BD1の周辺領域には、第1種マーカーM1に基づいて位置合わせされた入力画像(投影画像)が投影される。
カメラ30は、撮像部の一例である。カメラ30は、ビデオカメラやデジタルカメラ等のカラー撮像可能な撮像装置である。カメラ30は、撮像によって得られる画像データを画像処理装置40に出力する。
プロジェクタ20及びカメラ30は、例えば、図3に示すように、仰臥位状態の患者T1の上方に位置付けられ、患者T1の上方から投影及び撮像を行う。ここで、図3は、本実施形態に係るプロジェクタ20及びカメラ30の設置例を示す図である。同図において、スタンド50は、プロジェクタ20及びカメラ30を設置するためのものであり、ベース部51と、キャスター52と、支柱部53と、アーム部54とを備える。ベース部51は、スタンド50の基部となる部材であって、底面に移動可能なキャスター52が設けられている。支柱部53は、ベース部51の中央部から立設されており、その上端部にアーム部54が取り付けられている。アーム部54は、上下左右に可動な状態で支柱部53に取り付けられる。アーム部54の先端部には、プロジェクタ20及びカメラ30が下向きに取り付けられる。係るスタンド50では、アーム部54の先端部を患者T1の上方に配置することで、患者T1の上方から投影及び撮像を行うことができる。
なお、患者T1に対するプロジェクタ20及びカメラ30の向きは、モダリティ画像の撮像が行われた向きと略同一に配置されるものとする。また、プロジェクタ20の投影範囲及びカメラ30の撮像範囲が、モダリティ画像の撮像が行われた患者部位を包含するよう、アーム部54の高さ等が調整されるものとする。
画像処理装置40は、入力装置10から入力された入力画像(第1画像)と、カメラ30によって撮像された撮像画像(第2画像)とに基づき、位置調整を施した投影用の投影画像を生成する。本例において、画像処理装置40は、特定のコンピュータ(PC(Personal Computer)、サーバ装置等)であるとするが、複数のコンピュータや複数のサーバ装置(クラウド)によって構成されてもよい。
図4は、本実施形態に係る画像処理装置40のハードウェア構成例を示す図である。画像処理装置40は、CPU(Central Processing Unit)41、RAM(Random Access Memory)42、ROM(Read Only Memory)43、ストレージ44、表示部45、操作部46、通信I/F47、及び接続I/F48等を含む。
CPU41はROM43又はストレージ44に記憶されたプログラムに従ってRAM42をワーキングエリアとして所定の制御演算処理を行う。ストレージ44は不揮発性メモリであって、各種プログラムや各種データを記憶する。
表示部45は、LCD(Liquid Crystal Display)等の表示デバイスによって構成され、CPU41からの表示信号に基づいて各種情報を表示する。操作部46は、キーボードやマウス等の入力デバイスによって構成され、ユーザ操作を受け付ける。なお、操作部46は、表示部45の画面上に形成されたタッチパネルであってもよい。
通信I/F47は、ネットワークNTを介して外部の機器との間で情報の送受信を可能にするデバイスである。接続I/F48は、有線又は無線により外部の機器との間で情報の送受信を可能にするデバイスである。
例えば、通信I/F47は、ネットワークNTを介して入力装置10と接続され、入力装置10から送信される入力画像を受信する。また、接続I/F48は、プロジェクタ20及びカメラ30と接続され、プロジェクタ20及びカメラ30との間で画像データの送受信を行う。なお、入力装置10は、接続I/F48を介して接続される構成としてもよい。また、プロジェクタ20及びカメラ30は、通信I/F47を介して接続される構成としてもよい。
図5は、本実施形態に係る画像処理装置40の機能構成例を示す図である。本例に係る画像処理装置40は、投影パターン生成部401と、マーキング情報抽出部402と、3次元点群計測処理部403と、位置合わせ処理部404と、変形処理部405及び投影画像生成部406を備える。これらの機能構成は、例えば、画像処理装置40のCPU41と、ROM43又はストレージ44に記憶されたプログラムとの協働により実現される。ここで、位置合わせ処理部404及び変形処理部405は、画像処理部の一例である。
投影パターン生成部401は、投影用のパターン画像を生成する。投影パターン生成部401は、以下の2種類のパターン画像を生成する。第1のパターン画像は、グレーコード画像、位相シフト画像、ハミングカラーコード画像等、一般に3次元形状を計測する目的で使用されるパターン画像(以下、形状計測パターンという)である。第2のパターン画像は、全白色の画像パターン及び全黒色の画像パターンである(以下、マーキング認識用パターンという)。全白色のマーキング認識用パターンは、室内照明が無い暗室において照明光として使用することを想定したものである。なお、室内照明がある場合等、外光のみでマーキング情報を抽出できる場合には、マーキング認識用パターンを生成しない構成としてもよい。
投影パターン生成部401が生成したパターン画像(形状計測パターン、マーキング認識用パターン)はプロジェクタ20に出力され、当該プロジェクタ20によって投影先(患者の体表BD1)に投影される。そして、プロジェクタ20によって投影されたパターン画像は、カメラ30によって撮像され、撮像画像として画像処理装置40に入力される。以下、カメラ30で撮像された撮像画像のうち、形状計測パターンを撮像したものを「形状計測画像」、マーキング認識用パターンを撮像したものを「マーキング認識用画像」という。
マーキング情報抽出部402は、入力装置10から入力された入力画像及びカメラ30で撮像されたマーキング認識用画像の各々から、マーキング情報(マーカー種別、マーキング位置)を抽出する。
例えば、図2(a)で説明したように、マーカーの種別が形状で表されている場合、マーキング情報抽出部402は、○印と×印のようなマーカーの形状(種別)をパターンマッチングで認識し、その円中心や×印の交点に該当する画素位置をマーキング位置として抽出する。
また、例えば、図2(b)で説明したようにマーカーの種別は色で表されている場合、マーキング情報抽出部402は、画像データを構成する各画素の色相(Hue)、彩度(Saturation)、明度(Value)等に基づき、マーカーの種別に該当する色領域をそれぞれ抽出する。マーキング情報抽出部402は、抽出した色領域に対して、当該色領域に隣接する同色の色領域を同じラベルとする8連結のラベリングなどを用いて、色領域をクラスタリングする。そして、マーキング情報抽出部402は、クラスタリングした色領域毎にその重心座標をマーキング位置として抽出する。以下、マーキング認識用画像から抽出されたマーキング位置を、「カメラ30上のマーキング位置」、入力画像から抽出されたマーキング位置を「入力画像上のマーキング位置」という。
3次元点群計測処理部403は、形状取得部の一例である。3次元点群計測処理部403は、カメラ30で撮像された形状計測画像に基づき、投影先(患者の体表BD1)の表面形状(3次元形状)を表した3次元データを生成する。以下、3次元点群計測処理部403の動作について説明する。
3次元点群計測処理部403は、カメラ30で取得された複数の形状計測画像から、プロジェクタ20が患者の体表BD1に投影した画像(以下、「プロジェクタ20上」と表記)の画素座標を表すコード値を復元(デコード)する。具体的には、3次元点群計測処理部403は、プロジェクタ20上の画素点(Xp、Yp)のコード値と、カメラ30上の画素点(Xc、Yc)のコード値と、の対応関係を調べることで、その対応点を探索する。
投影対象の3次元座標(X、Y、X)は、例えば、Zhangの方法(Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 22, 11, pp. 1330−1334, 2000.)で得られたプロジェクタ校正パラメータ行列(プロジェクタ20の内部パラメータ行列と外部パラメータ行列の積)と、同方法で得られたカメラ校正パラメータ行列(カメラ30の内部パラメータ行列と外部パラメータ行列の積)とを用いて導出することができる。
下記式(1)は、プロジェクタ20上の画素点(Xp、Yp)を、プロジェクタ校正パラメータ行列で表した式である。下記式(1)において、Hpはスケーリングファクターである。また、下記式(1)の右辺はプロジェクタ校正パラメータ行列であり、プロジェクタ20の内部パラメータ行列(P11…P34)と、外部パラメータ行列(X、Y、Z、1)との積で表される。また、下記式(2)は、カメラ30上の画素点(Xc、Yc)を、プロジェクタ校正パラメータ行列で表した式である。下記式(2)において、Hcはスケーリングファクターである。また、下記式(2)の右辺はカメラ校正パラメータ行列であり、カメラ30の内部パラメータ行列(C11…C34)と、外部パラメータ行列(X、Y、Z、1)との積で表される。
式(1)、(2)の関係からスケーリングファクターHp、Hcを消去すると、下記式(3)が得られる。
式(3)を、疑似逆行列を用いて解くと、投影先の表面形状を表す3次元点座標(X、Y、Z)を求めることができる。上記処理を各画素について実行すると、投影先(患者の体表BD1)の3次元形状を表した3次元データ(3次元点群P{(XPi、YPi、ZPi):Piは画素番号})が得られる。なお、3次元データの座標系は、図6のように、プロジェクタ20の投射光を原点とし、プロジェクタ20の水平方向をX軸、垂直方向をY軸、投影方向をZ軸としている。ここで、図6は、本実施形態に係る3次元データの座標系を説明するための図である。
なお、上記は垂直方向と水平方向との両方のコード値を生成した場合の解を得る一例であるが、プロジェクタ座標は垂直方向及び水平方向の何れかの1ラインが分かれば、疑似逆行列により3次元点群Pを一意に求めることができるため、何れか一方向を用いる構成としてもよい。
位置合わせ処理部404は、位置合わせ処理部の一例である。位置合わせ処理部404は、マーキング情報抽出部402で抽出された第1種マーカーM1のマーキング位置に基づいて、入力画像に含まれた第1種マーカーのマーキング位置を、マーキング認識用画像に含まれた第1種マーカーのマーキング位置に位置合わせするための画像処理を実行する。
以下の説明では、入力画像に含まれたマーカーのマーキング状態が、図7(a)に示す状態にあるとする。また、マーキング認識用画像に含まれたマーカーのマーキング状態が、図7(b)に示す状態にあるとする。ここで、図7は、本実施形態に係る入力画像及びマーキング認識用画像に含まれたマーカーのマーキング状態例を示す図である。
また、マーキング情報抽出部402によって抽出されたマーキング認識用画像上のマーキング位置のうち、第1種マーカーM1の4つのマーキング位置を、点群Pcg{(Xcg1、Ycg1)、(Xcg2、Ycg2)、(Xcg3、Ycg3)、(Xcg4、Ycg4)}と表記する。また、同様にマーキング情報抽出部402によって抽出された入力画像上のマーキング位置のうち、第1種マーカーM1の4つのマーキング位置を、点群Pmg{(Xmg1、Ymg1)、(Xmg2、Ymg2)、(Xmg3、Ymg3)、(Xmg4、Ymg4)}と表記する。
まず、位置合わせ処理部404は、3次元点群計測処理部403で導出された3次元点群座標(X、Y、Z)に基づいて、点群Pcgに対応する、3次元空間上での各座標を点群PCg{(XCg1、YCg1、ZCg1)、(XCg2、YCg2、ZCg2)、(XCg3、YCg3、ZCg3)、(XCg4、YCg4、ZCg4)}として取得する。なお、点群PCgは、3次元点群計測処理部403の処理の過程で導出されるものである。
次に、位置合わせ処理部404は、点群Pmgと、3次元空間の座標系(図6参照)とに基づき、入力画像上の点群Pmgを3次元空間の座標系で表した点群PMg{(Xmg1、Ymg1、Z0)、(Xmg2、Ymg2、Z0)、(Xmg3、Ymg3、Z0)、(Xmg4、Ymg4、Z0)}と定義する。この時、Z0は任意の値でよく、本例ではプロジェクタ平面と並行になるようZ0=0をセットする。これは投影の対象となるモダリティ画像が、平面情報であるからそれを同じ視点方向から並行投影したいという意図を反映したものである。
位置合わせ処理部404は、点群PCgと点群PMgとを取得すると、点群PCgのX、Y座標位置に点群PMgのX、Y座標位置を合わせるための変換パラメータ(スケーリング量、回転角度、シフト量)を推定するため、プロクラステス解析を実行する。
ここで、位置合わせ処理部404は、例えば下記式(4)を用いることで、スケーリング計数b、回転行列T、並進行列cを変換パラメータとして算出する。ここで、Yは、点群PMgを示す行列、Zは、点群PCgを示す行列である。
Z=bYT+c …(4)
位置合わせ処理部404は、算出した変換パラメータ(スケーリング計数b、回転行列T、並進行列c)を、点群Pmg(点群PMg)と同様に入力画像の全域(全画素)に適用することで、当該入力画像に対し線形の変換処理を実行する。これにより、位置合わせ処理部404は、第1種マーカーのマーキング位置に基づき位置合わせした位置合わせ後の入力画像を、位置合わせ後画像(座標群PMreg{(Xmi、Ymi、Z0):miは画素番号})として生成する。
変形処理部405は、変形処理部の一例である。変形処理部405は、マーキング情報抽出部402で抽出された第2種マーカーM2のマーキング位置に基づいて、入力画像に含まれる第2種マーカーのマーキング位置を、マーキング認識用画像に含まれる第2種マーカーのマーキング位置に位置合わせするための画像処理を実行する。
以下、マーキング情報抽出部402によって抽出された入力画像上のマーキング位置のうち、第2種マーカーM2の4つのマーキング位置(点群Pmb)を、3次元空間の座標系で表した各位置を、点群PMb{(Xmb1、Ymb1、Z0)、(Xmb2、Ymb2、Z0)、(Xmb3、Ymb3、Z0)、(Xmb4、Ymb4、Z0)}と表記する。また、マーキング情報抽出部402によって抽出されたマーキング認識用画像上のマーキング位置のうち、第2種マーカーM2の4つのマーキング位置(点群Pcb)を、3次元空間の座標系で表した各位置を、点群PCb{(XCb1、YCb1、ZCb1)、(XCb2、YCb2、ZCb2)、(XCb3、YCb3、ZCb3)、(XCb4、YCb4、ZCb4)}と表記する。なお、点群PMb及び点群PCbは、上述した点群PMg及び点群PCgと同様に導出されるものである。
まず、変形処理部405は、変形処理の対象となる変形範囲を抽出する。ここで、変形処理部405は、点群PM(点群PMg及び点群PMb)を含むX、Y平面において、点群PMbを包含する最小の矩形領域A0を設定する。また、変形処理部405は、矩形領域A0の外側に、当該矩形領域A0の幅及び高さ方向に所定のマージンを持たせた矩形領域A1を設定する。そして、変形処理部405は、設定した矩形領域A0及びA1の何れか一方を変形範囲ACとして抽出する。
ここで、マージン量は、矩形領域A0の外側のどの程度まで変形処理を施すかを決めるパラメータとなる。マージン量は、任意に設定可能とするが、投影先の部位や用途等に応じて変更することが好ましい。例えば、矩形領域A0と、その周辺の点群PMgとの離間距離からマージン量を自動で設定する構成としてもよい。なお、矩形領域A0を変形範囲ACとして抽出するよう予め定められている場合には、矩形領域A1の設定は不要である。
また、変形処理部405は、点群PCbについても同様に、点群PC(点群PCg及び点群PCb)を含むX、Y平面において、点群PCbを包含する最小の矩形領域B0と、当該矩形領域B0に所定のマージンを持たせた矩形領域B1を設定する(図8(b)参照)。そして、変形処理部405は、設定した矩形領域B0及びB1の何れか一方を変形範囲BCとして抽出する。ここで、変形範囲ACが変形範囲BCの範囲の一部を含まない場合は、その一部を包含するよう設定した矩形領域AC’を変形範囲として抽出する。
図8は、本実施形態に係る変形処理部405の変形範囲の抽出動作を説明するための図である。図8(a)に示すように、変形処理部405は、点群PMを含むX、Y平面において、4つの第2種マーカーM2を包含する最小の矩形領域A0を設定する。また、変形処理部405は、矩形領域A0に所定のマージンを持たせた矩形領域A1を設定する。
また、図8(b)に示すように、変形処理部405は、点群PCを含むX、Y平面において、4つの第2種マーカーM2を包含する最小の矩形領域B0を設定する。また、変形処理部405は、矩形領域B0に所定のマージンを持たせた矩形領域B1を設定する。
なお、矩形領域A0を変形範囲ACとした場合には、矩形領域B0を変形範囲BCとして抽出するものとする。また、矩形領域A1を変形範囲ACとした場合には、矩形領域B1を変形範囲BCとして抽出するものとする。また、矩形領域B1を設定する際のマージン量は、矩形領域A0と矩形領域B0とのサイズ比等に基づき、矩形領域A1のマージン量に対応した値を設定することが好ましい。
次に、変形処理部405は、点群PMを含むX、Y平面のX、Y座標と、点群PCを含むX、Y平面のX、Y座標とに基づき、変形範囲ACの形状を変形範囲BCの形状に変形させるための変位場を導出する。なお、変形範囲AC’を抽出した場合には、点群PMを含むX、Y平面のX、Y座標と、点群PCを含むX、Y平面のX、Y座標とに基づき、変形範囲AC’の形状に近づけるための変位場を導出する。
具体的には、変形処理部405は、変形範囲ACを格子状に区切ることで変形範囲AC内に所定数の格子点を生成する。格子点の数は、プロジェクタ20の解像度や、変形範囲AC及び変形範囲BCのサイズ等に応じて定めるものとする。以下、変形範囲ACに形成された、幅方向(X軸方向)にLw個、高さ方向(Y軸方向)にLh個の格子点群をLP{(Xlpi、Ylpj):iは1〜Lw、jは1〜Lh}で表す。
ここで、格子点群LPに対し変位場を適用したLPH{(XHlpi、YHlpj):iは1〜Lw、jは1〜Lh}を変位場座標群とすると、例えば、格子点群LPの(Xlp1、Ylp1)、(Xlp1、Ylp2)、(Xlp2、Ylp1)、(Xlp2、Ylp2)で構成される格子点領域は、変位場座標群LPHの(XHlp1、YHlp1)、(XHlp1、YHlp2)、(XHlp2、YHlp1)、(XHlp2、YHlp2)で構成される格子点領域に射影されるとみなすことができる。そこで、変形処理部405は、これらの点から算出した射影変換(ホモグラフィ変換)Hlp1,lp1を、(Xlp1、Ylp1)、(Xlp1、Ylp2)、(Xlp2、Ylp1)、(Xlp2、Ylp2)の格子点領域の変位場として算出する。
変形処理部405は、上記した変位場の算出を、変形範囲ACを構成する格子点領域の各々に行うことで、変形範囲ACの全ての領域に対する射影変換Hlpi,lpj(iは1〜Lw−1、jは1〜Lh−1)を取得する。
変形処理部405は、位置合わせ後画像の座標群PMregに対して、そのX、Y座標が含まれる領域に対応する射影変換Hlpi,lpjを選択して非線形の変換処理を実行する。これにより、変形処理部405は、第2種マーカーのマーキング位置に基づき入力画像(位置合わせ後画像)を位置合わせした、変形後画像(変形後座標群PMDreg{(Xmi、Ymi、Zmi):miは画素番号})を生成する。
投影画像生成部406は、3次元点群計測処理部403で得られた3次元データ(3次元点群P)と、変形処理部405で生成された変形後画像(変形後座標群PMDreg)とに基づいて、投影用の画像データ(以下、投影画像)を生成する。
投影画像生成部406は、変形後座標群PMDregの各点について、Z座標の値Zmiを算出する。前述の通り、この時点での変形後座標群PMDregのZmiはZ0(Zmi=Z0)となっている。ここで、変形後座標群PMDregと投影先の表面(患者の体表BD1)との位置関係は、図9に示すものとなり、プロジェクタ20の光軸方向であるZ軸方向に移動すれば、変形後座標群PMDregを患者の体表BD1にマッピングできる状態にある。なお、図9は、本実施形態に係る変形後座標群PMDregと患者の体表BD1との関係を示す図である。
そこで、投影画像生成部406は、変形後座標群PMDregの各点をZ軸方向で探索し、(Xmi、Ymi)=(Xpi、Ypi)となる点があれば、その3次元点群PのZ座標の値Zpiを用いて、(Xmi、Ymi、Zmi=Zpi)とする、マッピング処理を実行する。
探索の方法は、特に問わず、最近傍法や、点(Xmi、Ymi、Zmi)を包含する規定サイズ範囲の点群から平面もしくは曲面近似によってZmiを算出する等、種々の手法を用いることができる。また、(Xmi、Ymi)=(Xpi、Ypi)となる点があった場合でも、同様に平面又は曲面近似する手法を用いてもよい。また、一致する点がない場合は、周辺の点群より探索を行うものとする。なお、点(Xmi、Ymi、Zmi)が計測範囲外の位置に存在している場合は、該当する3次元点群Pは存在しないため、その点をノイズ又は投影不可能な点として排除してもよい。
次に、投影画像生成部406は、Zmiの値を定めた変形後座標群PMDregを、プロジェクタ20が投影する画像データの座標系(以下、プロジェクタ座標系)に変換する。具体的には、上記式(1)を用いることで、変形後座標群PMDregの各座標から、対応するプロジェクタ座標群Pm{(Xpmi、Ypmi):iは画素番号}を求める。
変形後座標群PMDregはプロジェクタ座標系に離散的にマッピングされるので、該当箇所の輝度(又はカラー)情報も離散的となり、間欠画素が発生する。そこで、投影画像生成部406は、間欠画素を補完するための処理を実行する。以下、図10を参照して、間欠画素の補間について説明する。
図10は、本実施形態に係る変形後座標群PMDregの座標系CS1と、プロジェクタ座標系CS2との関係を示す図である。本実施形態で用いる入力画像(モダリティ画像)は、図10に示すように、水平方向にw個、縦方向にh個の画素で構成され、各画素は、グレースケール画像であれば輝度値、カラー画像であればカラー情報(RGB値)等を有する。
ここで、入力画像上の3点(X0、Y0)、(X1、Y0)、(X0、Y1)に対応する、プロジェクタ座標系の3点(X0p、Y0p)、(X1p、Y0p)、(X0p、Y1p)は三角形の領域を構成する。例えば、この三角形の領域内に間欠画素が含まれる場合、投影画像生成部406は、(X0p、Y0p)、(X1p、Y0p)、(X0p、Y1p)の3点との距離に応じた輝度値(又はカラー情報)で線形補間することで、間欠画素を補間する。
なお、上述した手法は全画素に対して点群を生成するので、画素数が多くなるほど処理の負荷が増加する。そこで、投影画像生成部406は、例えば、次の手法を用いて間欠画素を補間してもよい。
入力画像の座標系を、横方向にw個、縦方向にh個の格子点として考えると、上記の変換処理では、変形後座標群PMDregの各座標は、入力画像を代表する格子点として、当該格子点をプロジェクタ座標系にマッピングしているとみなせる。この場合、図10に示すように、入力画像の格子領域を構成する4点(X0、Y0)、(X1、Y0)、(X0、Y1)、(X1、Y1)を、プロジェクタ座標系の4点(X0p、Y0p)、(X1p、Y0p)、(X0p、Y1p)、(X1p、Y1p)へ射影する射影変換(ホモグラフィ変換)Hを求めることができる。
なお、変換先の4点が、図10のように凹部を有する四角形である場合は、射影変換Hでは四角形の内部に射影できないため、事前に四角形が凹部を有していないか判定することが好ましい。凹部を有する場合は、四角形を三角形に分割して(例えば、(X0p、Y0p)、(X1p、Y0p)、(X0p、Y1p)の組と、(X1p、Y1p)、(X1p、Y0p)、(X0p、Y1p)の組)、それぞれ射影変換(アフィン変換)を求めればよい。また、全ての格子点について三角形の射影変換を求めるようにしてもよい。
また、ホモグラフィ変換又はアフィン変換を用いた場合も、間欠画素が発生するがこれらも最近傍法、バイリニア補完、バイキュービック補完等で補完すればよい。以上の過程を得て、投影画像生成部406は投影用画像を生成する。投影画像生成部406が生成した投影用画像は、プロジェクタ20に出力され、投影先の患者に投影される。このようにして投影された投影用画像では、第1種マーカーM1及び第2種マーカーM2のマーキング位置が、患者に付された第1種マーカーM1及び第2種マーカーM2のマーキング位置と略一致した状態で提示されることになる。
次に、図11、図12を参照して、画像処理装置40の動作について説明する。図11は、本実施形態の画像処理装置40で実行される画像処理の一例を示すフローチャートである。また、図12は、本実施形態の画像処理装置40で実行される画像処理を説明するための図である。
まず、マーキング情報付きの入力画像G1が入力装置10から入力される(ステップS11)。入力された入力画像G1は、RAM42やストレージ44等の記憶媒体に記憶される。なお、入力画像が入力されるタイミングは特に問わず、モダリティによる撮像時であってもよいし、プロジェクタ20による投影直前であってもよい。
投影パターン生成部401は、投影用のパターン画像を生成すると、プロジェクタ20に出力することで、当該パターン画像を患者の体表BD1に投影させる(ステップS12)。マーキング情報抽出部402は、カメラ30によって撮像されたマーキング認識用画像を取得し(ステップS13)、当該マーキング認識用画像からマーキング位置をマーカー種別毎に抽出(取得)する(ステップS14)。また、マーキング情報抽出部402は、入力画像からマーキング位置をマーカー種別毎に抽出(取得)する(ステップS15)。
一方、3次元点群計測処理部403は、カメラ30で撮像された形状計測画像に基づき、投影先の表面形状を表した3次元データ(3次元点群P)を生成する(ステップS16)。
続いて、位置合わせ処理部404は、カメラ座標上での第1種マーカーM1のマーキング位置(点群Pcg)に対応する、3次元空間上でのマーキング位置(点群PCg)を特定する(ステップS17)。次いで、位置合わせ処理部404は、プロクラステス解析を実行することで、入力画像上での第1種マーカーM1のマーキング位置(点群Pmg)を、3次元空間上でのマーキング位置(点群PCg)に変換する変換パラメータを算出する(ステップS18)。そして、位置合わせ処理部404は、算出した変換パラメータを用いて入力画像の全画素位置を線形変換することで、位置合わせ後の入力画像である位置合わせ後画像G1a(座標群PMreg)を取得する(ステップS19)。
ここで、位置合わせ後画像G1aは、第1種マーカーM1に基づいて位置合わせが行われたものであり、患者の体表BD1に付された第1種マーカーM1のマーキング位置と一致する。但し、変動部位については、入力画像G1(モダリティ画像)の撮像時と同じ体位を投影時に再現したとしても、その形状が異なる可能性がある。この場合、位置合わせ後画像G1aを投影したとしても、第2種マーカーM2のマーキング位置は一致せず(上段右図の状態)、プロジェクションマッピングの投影画像としては不適である。そこで、変形処理部405は、以降の処理において、第2種マーカーM2のマーキング位置を位置合わせするための処理を実行する。
変形処理部405は、入力画像G1及びマーキング認識用画像を3次元空間の座標系で表したX、Y平面において、第2種マーカーM2の包含する矩形領域を変形範囲AC、BCとしてそれぞれ抽出する(ステップS20)。次いで、変形処理部405は、入力画像G1由来の変形範囲ACを、マーキング認識用画像由来の変形範囲BC(又は変形範囲AC’)に変形する変位場を算出する(ステップS21)。そして、変形処理部405は、算出した変位場を用いて位置合わせ後画像G1a(座標群PMreg)を変形(非線形変換)することで、変形後の入力画像G1である変形後画像G1b(変形後座標群PMDreg)を取得する(ステップS22)。
続いて、投影画像生成部406は、3次元データ(3次元点群P)に基づいて、変形後画像G1bのZ値を設定することで、当該変形後画像G1bを患者の体表BD1にマッピングする(ステップS23)。投影画像生成部406は、マッピングした画像を、プロジェクタ20のプロジェクタ座標系に変換する(ステップS24)。次いで、投影画像生成部406は、プロジェクタ座標系へ変換により生じた間欠画素を補完し(ステップS25)、投影用の投影画像を生成する(ステップS26)。そして、投影画像生成部406は、生成した投影画像をプロジェクタ20に出力することで(ステップS27)、当該投影画像をプロジェクタ20に投影させ、本処理を終了する。
これにより、図12の下段右図に示すように、患者の体表BD1に付された第1種マーカーM1及び第2種マーカーM2のマーキング位置に位置合わせされた投影画像(変形後画像G1b)が、患者の体表BD1に投影されることになる。
上記のように、投影システム1(画像処理装置40)によれば、人体等の非剛体の対象物に投影するような場合であっても、第1種マーカー及び第2種マーカーのマーキング位置に基づき、非変動部位と変動部位とで異なる方法で位置合わせを行うため、投影先の表面形状や柔軟性に対応した投影画像を生成することができる。したがって、投影システム1(画像処理装置40)によれば、人体等の非剛体へのプロジェクションマッピングに好適な投影画像を生成することができる。
以下、他の実施形態について図面を参照して説明する。なお、第1の実施形態と同一又は同様の作用効果を奏する箇所については同一の符号を付してその説明を省略する場合がある。
(第2の実施形態)
第1の実施形態では、胸部(乳房近傍)に投影画像(モダリティ画像)を投影する例を説明したが、投影の対象となる部位は、これに限定されるものではない。本実施形態では、他の部位を投影先とした例について説明する。
図13は、本実施形態に係る投影先の対象物の例を示す図であり、人体の頭部BD2を示している。頭部BD2を投影先とする場合も、第1種マーカーM1及び第2種マーカーM2のマーキング位置は、第1の実施形態と同様となる。具体的には、柔軟性の低い部位(例えば、耳の付け根や鼻梁等の解剖学的基準点)に第1種マーカーM1をマーキングし、柔軟性の高い部位(例えば頬等)に第2種マーカーM2をマーキングする。
また、図13では、左右の頬に形態の異なる第2種マーカーM2(M2a、M2b)をマーキングしている。これは、非変動領域となる鼻部を境に左の頬と右の頬とが独立した部位となるためである。この場合、第2種マーカーM2aと、第2種マーカーM2bとのマーキング位置を個別に抽出し上記した変形処理を行うことで、左右の頬の各々について第2種マーカーM2a、M2bに基づいた位置合わせを実行できる。
なお、全てのマーカーを1視点(1台のプロジェクタ20、1台のカメラ30)で捕捉できない場合は、複数台のプロジェクタ20やカメラ30を用いる構成としてもよい。図13では、顔の正面に配置したプロジェクタ20の左右に、2台のカメラ30を配置した例を示している。この場合も第1の実施形態と同様に、プロジェクタ20及びカメラ30の位置関係を固定し校正することで、統一された3次元空間上のデータとして取り扱うことができる。また、頭部以外にも、腹部や背中、腰部、足部等、各種部位に適用することができる。
(第3の実施形態)
第1の実施形態では、第1種マーカーM1及び第2種マーカーM2をそれぞれ4個付した例を説明したが、マーカーの個数はこれに限定されるものではない。本実施形態では、マーカーを他の個数とした場合の動作例について説明する。
まず、第1種マーカーM1及び第2種マーカーM2がそれぞれ3個以上付されている場合は、第1の実施形態と同様の処理により投影画像を生成することができる。但し、第2種マーカーM2の個数を3とした場合、変形処理部405は、上記した非線形の射影変換の代わりに線形のアフィン変換を用いて、第2種マーカーM2に基づいた位置合わせ(変形処理)を行うものとする。
また、第1種マーカーM1を2個、第2種マーカーM2を1個とした場合であっても、下記の方法により位置合わせを行うことが可能である。まず、第1種マーカーM1については、第1の実施形態と同様に、当該第1種マーカーM1の2点のマーキング位置に基づいて、線形写像により位置合わせを実行する。一方、第2種マーカーM2に基づく位置合わせについては、第1種マーカーM1に所定の重みをもたせることで、当該第1種マーカーM1を第2種マーカーM2と見なす。そして、第1種マーカーM1及び第2種マーカーM2の、計3点のマーキング位置に基づいて、非線形の射影変換又は線形のアフィン変換を行うことで、第2種マーカーM2に基づいた位置合わせ(変形処理)を実行する。このように、第1種マーカーM1は最低2個、第2種マーカーM2が最低1個あれば、投影画像の生成が可能である。
なお、第1種マーカーM1が2個未満の場合は、設定不要であるため位置合わせを行わず、その旨を表示部45やプロジェクタ20等を介して報知を行う構成としてもよい。
(第4の実施形態)
第1の実施形態では、位置合わせ処理部404は、カメラ30の撮像画像から抽出された第1種マーカーM1のマーキング位置(点群Pcg)と、入力装置10の入力画像から抽出された第1種マーカーM1のマーキング位置(点群Pmg)とに基づき、位置合わせ用の変換パラメータを算出する構成とした。係る構成では、プロジェクタ20と患者との向きが同じ配置関係(配置角度)にある場合に、良好な状態で投影を行うことができる。
図14は、本実施形態に係るプロジェクタ20と投影先の対象物(患者T1)との配置関係を説明するための図である。同図において、患者T1に対向して配置されたプロジェクタ20の光軸が、患者T1の配置角度に対して直交関係にある場合(配置角度AG1)、理想的な配置関係となる。
しかしながら、例えばスタンド50を移動させたり、アーム部54の高さを移動させたりしながら投影を行うようなシーンでは、プロジェクタ20と患者との配置関係に誤差が発生してしまう場合が想定される。図14の配置角度AG2の状態は、プロジェクタ20と患者T1との配置角度がθ度ずれた状態を示している。
そこで、本実施形態では、この配置角度ずれを加味するため、3次元の回転成分を含めて位置合わせすることが可能な形態について説明する。まず、配置角度がずれた状態をモデル化するため、図9で示した座標系のY軸とZ軸との間のずれ角度をθ、同様にX軸とY軸との間のずれ角度をφと定義する。そして、θ及びφが所定の範囲内で点群Pmgを補正し、補正した点群Pmgを点群Qmgとする。
点群Qmgは、例えば、下記式(5)に基づき算出することができる。ここで、Rx(θ)、Ry(φ)は、ずれ角度であるθ及びφを加味した項であり、例えば下記式(6)、(7)で表される。
この場合、位置合わせ処理部404は、点群PMgの代わりに、点群Qmgで得たX、Y座標位置を用いて上記したプロクラステス解析を行う。プロクラステス解析では、ユークリッド距離が最小となるZ(点群PCg)を、上記式(4)を用いて算出する。θとφとの組み合わせ毎に評価値となる点群毎のユークリッド距離の総和が算出されるため、評価値が最小となるθ、φを用いて上記式(4)を算出することで、位置合わせ後画像の座標群PMregを導出する。
なお、θ及びφは、0度を含む±数度の小さい範囲で設定を行うものとする。θ及びφが大きくなるような状況下では、入力画像自体が投影先との位置関係に即していないと考えられるため、適切な状態で投影することはできない。このようなθ及びφの範囲が閾値を超えるような場合、つまり変換誤差が閾値を超えるような場合に、画像処理装置40(例えば位置合わせ処理部404)は、プロジェクタ20と投影先との配置関係が不適であると判断し、その旨を表示部45やプロジェクタ20等を介して報知を行ってもよい。これにより、入力画像(モダリティ画像)と、当該入力画像を投影する患者の部位との不整合を報知することができるため、ユーザビリティの向上を図るとともに、誤った入力画像に基づいて医療行為が行われてしまうことを防止することができる。
(第5の実施形態)
第1の実施形態では、2種類のマーカー(第1種マーカーM1、第2種マーカーM2)を用いて、非変動部位と変動部位とをマーキングする例を説明したが、マーカーの種類は2種類に限るものではない。本実施形態では、3種類のマーカーを用いた構成例について説明する。
図15は、本実施形態に係るマーカーの例を示す図であり、3種類のマーカーを用いてマーキングした例を示している。ここで、第1種マーカーM1は、例えば緑色のマーカーであり、第1の実施形態と同様に非変動部位にマーキングされる。また、第2種マーカーM2は、例えば青色のマーカーであり、第1の実施形態と同様に変動部位にマーキングされる。第3種マーカーM3は、例えば赤色のマーカーであり、第1種マーカーM1及び第2種マーカーM2と識別可能な形態を有する。
図15(a)では、第1種マーカーM1が付された非変動部位よりも柔軟性が高く(変動しやすく)、第2種マーカーM2が付された変動部位よりも柔軟性の低い(変動しにくい)部位に、第3種マーカーM3を付した例を示している。
また、図15(b)は、患者の体表BD1の矩形領域A1(又はB1)に対応する位置に第3種マーカーM3をマーキングした例を示している。このように、矩形領域A1(又はB1)に対応する位置に、第3種マーカーM3をマーキングしてもよい。この場合、第3種マーカーM3のマーキング位置に基づいて、矩形領域A1(及びB1)や変形範囲AC(及びBC)を特定することができる。
なお、第3種マーカーM3を使用する場合、当該第3種マーカーM3のマーキング位置に基づく位置合わせは、位置合わせ処理部404及び変形処理部405の何れか一方で実行することができる。本実施形態では、位置合わせ処理部404で位置合わせを行う例について説明する。
まず、第1の実施形態と同様に、入力画像に含まれた第1種マーカーM1のマーキング位置を点群Pmgとし、カメラ30で撮像されたマーキング認識用画像に含まれる第1種マーカーM1のマーキング位置を点群Pcgとする。また、入力画像に含まれた第3種マーカーM3のマーキング位置を点群Pmrとし、カメラ30で撮像されたマーキング認識用画像に含まれる第3種マーカーM3のマーキング位置を点群Pcrとする。
第3種マーカーM3を用いる場合、位置合わせ処理部404は、点群Pcgと点群Pcrとを用いてプロクラステス解析を行う。このとき、位置合わせ処理部404は、点群Pmrと点群Pcrとのサンプリング数を、重み付け係数α(整数)分だけ増やして、プロクラステス解析を実行することで、第3種マーカーM3側の拘束力を増加させることができる。なお、点群Pcgと点群Pmgとの重み付け係数をβとし、これらα及びβの値を調整することで、第1種マーカーM1と第3種マーカーM3との拘束力の比率を調整してもよい。
(第6の実施形態)
上記実施形態では、入力画像及びカメラ30で撮像された画像データ(マーキング認識用画像)から、マーキング情報(マーカー種別、マーキング位置)を抽出する構成とした。但し、使用環境によっては、画像データからマーキング情報を自動で抽出することが困難な状況も想定される。そこで、本実施形態では、操作部46等を介して、画像データ中のマーキング位置及びマーカー種別をユーザが指定可能な構成について説明する。
具体的には、画像処理装置40(例えば、マーキング情報抽出部402)が、入力画像及びカメラ30で撮像されたマーキング認識用画像の両方又は何れか一方を表示部45に表示し、これら画像に対するマーキング位置及びマーカー種別の指定操作(マーキング操作)を、操作部46を介して受け付ける。マーキング情報抽出部402は、画像中から指定されたマーキング位置及びマーカー種別をマーキング情報として取得する。これにより、本実施形態によれば、マーカーの自動抽出が困難な状況下であっても、ユーザから指定されたマーキング位置及びマーカー種別に基づき、第1の実施形態と同様の処理を行うことができるため、好適な投影画像を生成することができる。
(第7の実施形態)
第1の実施形態では、3次元点群計測処理部403により、患者の体表BD1を表した3次元データ(3次元点群P)を生成する構成を説明した。本実施形態では、この3次元点群計測処理部403を省略可能な構成例について説明する。
図16は、本実施形態に係る画像処理装置40aの機能構成例を示す図である。図16に示すように、画像処理装置40aは、図5で説明した画像処理装置40の機能構成から、3次元点群計測処理部403を取り除いた構成となっている。また、画像処理装置40aは、投影パターン生成部401、マーキング情報抽出部402、位置合わせ処理部404、変形処理部405及び投影画像生成部406に代えて、投影パターン生成部401a、マーキング情報抽出部402a、位置合わせ処理部404a、変形処理部405a及び投影画像生成部406aを備える。
一般にプロジェクタ20やカメラ30は縮小光学系であり、立体物計測において透視投影の影響を排除する対象物との距離を十分に確保する必要がある。本実施形態はこうしたハードウェア的な制約が無い理想条件下での構成例となる。係る理想条件は、例えば、投影先となる患者の体表BD1への投影において、患者の上方でプロジェクタ20及びカメラ30を同じ向きとなるように並列に配置し、かつこれらの光学系と患者との距離を十分に確保したものである。
投影パターン生成部401aは、例えば図17に示すような市松模様状の格子パターンを、形状計測パターンとして生成する。また、投影パターン生成部401aは、投影パターン生成部401と同様に、マーキング認識用パターンを生成する。ここで、図17は、本実施形態に係る形状計測パターンの一例を示す図である。
投影パターン生成部401aで生成されたパターン画像(格子パターン、マーキング認識用パターン)は、プロジェクタ20によって患者の体表BD1に投影される。また、患者の体表に投影された格子パターンの状態がカメラ30によって撮像される。
マーキング情報抽出部402aは、カメラ30によって撮像されたマーキング認識用画像及び入力装置10から入力された入力画像から、第1種マーカーM1のマーキング位置を示す点群Pcg、点群Pmgを抽出する。また、マーキング情報抽出部402aは、同様に、マーキング認識用画像及び入力画像から、第2種マーカーM2のマーキング位置を示す点群Pcb、点群Pmbを抽出する。
続いて、位置合わせ処理部404aは、点群Pcg、点群Pmgに対応するプロジェクタ座標上での位置座標を示す、点群Pcgp、点群Pmgpを算出する。これは例えば、点群Pcgを含む格子に対応する射影変換Hiの逆射影変換Hi -1を用いることで、プロジェクタ座標上での対応する位置を特定することができる。よって、この逆射影変換Hi -1を点群Pcgに適用したHi -1cgが、投影画像上の位置合わせの基準点(点群Pcgp)になる。また、位置合わせ処理部404aは、点群Pcbについても同様に、プロジェクタ座標上での対応する位置座標(点群Pcbp)を特定する。
また、位置合わせ処理部404aは、点群Pmgpと点群Pcgpとを用いて、点群Pmgを点群Pcgpの位置座標に変換する変換パラメータを、プロクラステス解析によって求める。そして、位置合わせ処理部404aは、この変換パラメータを用いてこの変換パラメータをPmbに適用させて算出した座標位置を点群Pcbregとする。よって、入力画像がこの時点でプロジェクタ座標上に配置され、位置合わせ後画像が取得される。
次に、変形処理部405aは、点群Pcbregを点群Pcbpの座標位置に対応させる変形処理を行う。第1の実施形態の変形処理部405では、3次元空間上で変形していたが、この場合、プロジェクタ座標上で変形処理を行うため、プロジェクタ空間上で変位場を生成する。係る変位場は、第1の実施形態と同様に生成することができる。変形処理部405aは、生成した変位場を位置合わせ後画像に適用することで、変形後画像を生成する。
そして、投影画像生成部406aは、変形処理部405aによって生成された変形後画像に対し、上述した射影変換Hiを適用することで投影画像を生成する。これにより、本実施形態の画像処理装置10aによれば、投影先の表面形状や柔軟性に応じて位置合わせした投影画像を生成することができるため、第1の実施形態と同様に、プロジェクションマッピングに好適な投影画像を提供することができる。
以上、本発明の実施形態を説明したが、上記実施形態は例として提示したものであり、発明の範囲を限定することを意図するものではない。この新規な実施形態はその他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更、及び組み合わせを行うことができる。この実施形態及びその変形は発明の範囲及び要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 投影システム
10 入力装置
20 プロジェクタ
30 カメラ
40、40a 画像処理装置
41 CPU
42 RAM
43 ROM
44 ストレージ
45 表示部
46 操作部
47 通信I/F
48 接続I/F
401、401a 投影パターン生成部
402、402a マーキング情報抽出部
403 3次元点群計測処理部
404、404a 位置合わせ処理部
405、405a 変形処理部
406、406a 投影画像生成部
特開2017−192040号公報

Claims (7)

  1. 柔軟性の異なる複数の部位を有し当該部位に前記柔軟性に対応する種別のマーカーが複数個付された対象領域について、当該対象領域を事前に撮像した投影対象の第1画像と、前記第1画像の投影に先駆けて前記対象領域を撮像した第2画像との各々から、前記マーカーが付されたマーキング位置をマーカー種別毎に抽出するマーキング情報抽出部と、
    抽出された前記マーカー種別毎の前記マーキング位置に基づいて、前記第1画像に含まれた前記マーカーの前記マーキング位置を、前記第2画像に含まれた前記マーカーの前記マーキング位置に位置合わせする画像処理を、前記マーカー種別に対応した処理方法で実行する画像処理部と、
    前記画像処理後の前記第1画像に基づいて、前記対象領域に投影する投影画像を生成する投影画像生成部と、
    を備える画像処理装置。
  2. 前記画像処理部は、
    前記柔軟性の低い非変動部位に付された第1種マーカーの前記マーキング位置に基づいて、前記第1画像に含まれる前記第1種マーカーの前記マーキング位置を、前記第2画像に含まれる前記第1種マーカーの前記マーキング位置に位置合わせする前記画像処理を、線形変換によって行う位置合わせ処理部と、
    前記非変動部位と比較し前記柔軟性のより高い変動部位に付された第2種マーカーの前記マーキング位置に基づいて、前記第1画像に含まれる前記第2種マーカーの前記マーキング位置を、前記第2画像に含まれる前記第2種マーカーの前記マーキング位置に位置合わせする前記画像処理を、非線形変換によって行う変形処理部と、
    を有する請求項1に記載の画像処理装置。
  3. 前記第2画像から、前記対象領域の表面形状を取得する形状取得部を更に備え、
    前記位置合わせ処理部は、前記第1画像に含まれる前記第2種マーカーの前記マーキング位置が、前記第2画像から抽出された前記第1種マーカーの前記マーキング位置に対応する前記表面形状上でのマーキング位置となるよう、前記第1画像の全域を前記線形変換し、
    前記変形処理部は、前記線形変換後の前記第1画像に含まれる前記第2種マーカーのマーキング位置が、前記第2画像から抽出された前記第2種マーカーの前記マーキング位置に対応する前記表面形状上でのマーキング位置となるよう、前記線形変換後の前記第1画像の一部の領域を前記非線形変換する請求項2に記載の画像処理装置。
  4. 前記位置合わせ処理部は、前記第1種マーカーの位置合わせを3次元の回転を含めて実行する請求項2又は3に記載の画像処理装置。
  5. 前記位置合わせ処理部は、位置合わせ後の前記第1種マーカーの変換誤差が所定の閾値を超えた場合に報知を行う請求項2〜4の何れか一項に記載の画像処理装置。
  6. 前記第1画像及び前記第2画像の何れか一方又は両方を表示する表示部と、
    前記表示部に表示された画像に対し、前記マーカー種別を指定した前記マーカーのマーキング操作を受け付ける操作部と、
    を更に備え、
    前記マーキング情報抽出部は、前記マーキング操作によって付された前記マーカーの前記マーキング位置を前記マーカー種別毎に抽出する請求項1〜5の何れか一項に記載の画像処理装置。
  7. 柔軟性の異なる複数の部位を有し当該部位に前記柔軟性に対応する種別のマーカーが複数個付された対象領域について、当該対象領域を撮像した投影対象の第1画像を入力する入力部と、
    前記対象領域を撮像し第2画像を生成する撮像部と、
    前記第1画像と前記第2画像との各々から、前記マーカーが付されたマーキング位置をマーカー種別毎に抽出するマーキング情報抽出部と、
    抽出された前記マーカー種別毎の前記マーキング位置に基づいて、前記第1画像に付された前記マーカーの前記マーキング位置を、前記第2画像に付された前記マーカーの前記マーキング位置に位置合わせする画像処理を、前記マーカー種別に対応した処理方法で実行する画像処理部と、
    前記画像処理後の前記第1画像に基づいて、前記対象領域に投影する投影画像を生成する投影画像生成部と、
    前記投影画像を前記対象領域に投影する投影部と、
    を有する投影システム。
JP2018051816A 2018-03-19 2018-03-19 画像処理装置及び投影システム Active JP7139637B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018051816A JP7139637B2 (ja) 2018-03-19 2018-03-19 画像処理装置及び投影システム
EP19160614.4A EP3543955B1 (en) 2018-03-19 2019-03-04 Image processing device and projection system
US16/292,552 US10929706B2 (en) 2018-03-19 2019-03-05 Image processing device and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018051816A JP7139637B2 (ja) 2018-03-19 2018-03-19 画像処理装置及び投影システム

Publications (2)

Publication Number Publication Date
JP2019165338A true JP2019165338A (ja) 2019-09-26
JP7139637B2 JP7139637B2 (ja) 2022-09-21

Family

ID=65817722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051816A Active JP7139637B2 (ja) 2018-03-19 2018-03-19 画像処理装置及び投影システム

Country Status (3)

Country Link
US (1) US10929706B2 (ja)
EP (1) EP3543955B1 (ja)
JP (1) JP7139637B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199979A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7139637B2 (ja) * 2018-03-19 2022-09-21 株式会社リコー 画像処理装置及び投影システム
CN111179347B (zh) * 2019-12-26 2023-06-06 广东星舆科技有限公司 基于区域性特征的定位方法、定位设备及存储介质
US20210298863A1 (en) * 2020-03-27 2021-09-30 Trumpf Medizin Systeme GmbH & Co. KG. Augmented reality for a surgical system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146989A (ja) * 2014-02-07 2015-08-20 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2017080159A (ja) * 2015-10-29 2017-05-18 パイオニア株式会社 画像処理装置及び画像処理方法、並びにコンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX4738E (es) 1976-05-07 1982-08-25 Nattermann A & Cie Procedimiento para fabricar preparados enzimaticos ricos en lipasa
JPS54147211A (en) 1978-05-10 1979-11-17 Mitsubishi Paper Mills Ltd Paper producing method
JP2009522005A (ja) 2005-12-29 2009-06-11 ケアストリーム ヘルス インク 時間横断的かつモダリティ横断的な医療診断
WO2011007312A1 (en) * 2009-07-17 2011-01-20 Koninklijke Philips Electronics N.V. Multi-modality breast imaging
CN104169969B (zh) * 2012-03-15 2017-03-29 皇家飞利浦有限公司 多模态可变形配准
JP6089461B2 (ja) * 2012-06-22 2017-03-08 セイコーエプソン株式会社 プロジェクター、画像表示システム、プロジェクターの制御方法
CA2914780C (en) * 2012-07-10 2020-02-25 Aimago S.A. Perfusion assessment multi-modality optical medical device
EP3495805A3 (en) 2014-01-06 2019-08-14 Body Vision Medical Ltd. Surgical devices and methods of use thereof
JP6326959B2 (ja) 2014-05-20 2018-05-23 株式会社リコー 投影システム、情報処理装置、情報処理方法及びプログラム
JP2016142991A (ja) 2015-02-04 2016-08-08 株式会社リコー 画像処理システム、情報処理装置、画像処理方法、及びプログラム
JP6846661B2 (ja) 2016-04-13 2021-03-24 パナソニックIpマネジメント株式会社 3次元的な投影対象のための投影方法及び装置
JP7139637B2 (ja) * 2018-03-19 2022-09-21 株式会社リコー 画像処理装置及び投影システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146989A (ja) * 2014-02-07 2015-08-20 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2017080159A (ja) * 2015-10-29 2017-05-18 パイオニア株式会社 画像処理装置及び画像処理方法、並びにコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. Z. UNLU ET AL.: "Computerized method for nonrigid MR-to-PET breast-image registration", COMPUTERS IN BIOLOGY AND MEDICINE, vol. 40, no. 1, JPN6022003547, 1 January 2010 (2010-01-01), pages 37 - 53, XP026857534, ISSN: 0004844801 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199979A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
US10929706B2 (en) 2021-02-23
JP7139637B2 (ja) 2022-09-21
EP3543955B1 (en) 2021-05-05
EP3543955A1 (en) 2019-09-25
US20190286933A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US10635930B2 (en) Patient position control for scanning
CN113347937B (zh) 参照系的配准
US9990744B2 (en) Image registration device, image registration method, and image registration program
US10929706B2 (en) Image processing device and projection system
JP2023175709A (ja) 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション
JP6344050B2 (ja) 画像処理システム、画像処理装置、プログラム
CN111568548B (zh) 基于混合实境的手术导航图像成像方法
CN102484724A (zh) 投影图像区域检测装置
JP6750500B2 (ja) 情報処理装置および認識支援方法
JPH04336677A (ja) 画像処理方法及びこれを用いたシステム
JP4948552B2 (ja) カメラ校正装置、カメラ校正方法、カメラ校正プログラムおよびそのプログラムを記録した記録媒体
JP2015233266A (ja) 画像処理システム、情報処理装置、プログラム
WO2001057805A2 (en) Image data processing method and apparatus
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
Richey et al. Soft tissue monitoring of the surgical field: detection and tracking of breast surface deformations
CN113786228B (zh) 一种基于ar增强现实的辅助穿刺导航系统
JP6451350B2 (ja) 医療画像処理装置、医療画像処理方法及びプログラム
CN113786229B (zh) 一种基于ar增强现实的辅助穿刺导航系统
US20240331329A1 (en) Method and system for superimposing two-dimensional (2d) images over deformed surfaces
Wang et al. 3D surgical overlay with markerless image registration using a single camera
Ibrahim Spatially Augmented Reality on Dynamic, Deformable Surfaces and Its Applications
CN117357153A (zh) 一种在三维超声成像中减少目标抖动影响的方法
CN117958850A (zh) 一种辅助医学成像方法和系统
Zhou et al. A Novel Augmented Reality Ultrasound Framework Using an RGB-D Camera and a 3D-printed Marker
CN116983084A (zh) 一种穿支皮瓣三维导航方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R151 Written notification of patent or utility model registration

Ref document number: 7139637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151