JP5611441B1 - 顕微鏡用映像処理装置、および医療用顕微鏡システム - Google Patents

顕微鏡用映像処理装置、および医療用顕微鏡システム Download PDF

Info

Publication number
JP5611441B1
JP5611441B1 JP2013246968A JP2013246968A JP5611441B1 JP 5611441 B1 JP5611441 B1 JP 5611441B1 JP 2013246968 A JP2013246968 A JP 2013246968A JP 2013246968 A JP2013246968 A JP 2013246968A JP 5611441 B1 JP5611441 B1 JP 5611441B1
Authority
JP
Japan
Prior art keywords
microscope
image
surgical
surgical instrument
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013246968A
Other languages
English (en)
Other versions
JP2015104447A (ja
Inventor
洋之 高尾
洋之 高尾
雄一 村山
雄一 村山
春信 遠藤
春信 遠藤
坂野 哲平
哲平 坂野
樟吾 郭
樟吾 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medivation Co Ltd
Original Assignee
Medivation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medivation Co Ltd filed Critical Medivation Co Ltd
Priority to JP2013246968A priority Critical patent/JP5611441B1/ja
Application granted granted Critical
Publication of JP5611441B1 publication Critical patent/JP5611441B1/ja
Priority to EP14866443.6A priority patent/EP3075342B1/en
Priority to US15/038,612 priority patent/US9736464B2/en
Priority to PCT/JP2014/080894 priority patent/WO2015080042A1/ja
Publication of JP2015104447A publication Critical patent/JP2015104447A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/92Identification means for patients or instruments, e.g. tags coded with colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Microscoopes, Condenser (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】手術用顕微鏡から入力される映像を3次元映像に変換すること。【解決手段】顕微鏡用映像処理装置100は、手術用顕微鏡200から顕微鏡映像を取得する顕微鏡映像取得手段と、顕微鏡映像取得手段によって取得された顕微鏡映像を3次元映像に変換する映像変換手段と、映像変換手段によって変換された3次元映像内における手術器具の位置を特定する手術器具位置特定手段と、あらかじめ設定された患者の手術対象部位と、手術器具位置特定手段によって特定された手術器具の位置との距離を算出する距離算出手段と、距離算出手段によって算出された距離を表す距離情報を3次元映像内に表示した出力映像を表示装置へ出力する映像出力手段とを備える。【選択図】図1

Description

本発明は、顕微鏡用映像処理装置、および医療用顕微鏡システムに関する。
次のような手術用顕微鏡が知られている。この手術用顕微鏡は、撮像素子を用いた電子画像実体顕微鏡において、自然な立体感が得られるように観察画像を画像処理する(例えば、特許文献1)。
特開2004−151490号公報
しかしながら、従来の手術用顕微鏡では、顕微鏡による観察対象を立体的な画像で表示することはできるが、顕微鏡画像を見ながらの手術においては、表示されている画像内において、患者の手術対象部位と、医師が把持している手術器具との距離感が把握し辛いという問題があった。
本発明による顕微鏡用映像処理装置は、手術用顕微鏡から所定のフレームレートで出力される顕微鏡映像を取得する顕微鏡映像取得手段と、顕微鏡映像取得手段によって取得された顕微鏡映像を3次元映像に変換する映像変換手段と、顕微鏡映像取得手段によって取得された顕微鏡映像の中から、持ち手部分に、手術器具の先端側と後端側を判別可能なように色分けがされたマーキングが等間隔に施された手術器具について、最も先端側の位置を判別するために付されたマーキングの位置を手術器具の先端位置として特定し、特定した先端位置の顕微鏡映像における座標値を、3次元映像内における座標値に変換することにより、映像変換手段によって変換された3次元映像内における手術器具の先端位置を特定する手術器具位置特定手段と、あらかじめ設定された患者の手術対象部位と、手術器具位置特定手段によって特定された手術器具の先端位置との距離を算出する距離算出手段と、記距離算出手段によって算出された距離を表す距離情報を3次元映像内に表示した出力映像を表示装置へ出力する映像出力手段とを備えることを特徴とする。
本発明による医療用顕微鏡システムは、上記の顕微鏡用映像処理装置と、顕微鏡用映像処理装置と接続され、顕微鏡用映像処理装置へ所定のフレームレートで顕微鏡映像を入力する手術用顕微鏡とを備えることを特徴とする。
本発明によれば、3次元映像内に患者の手術対象部位と手術器具の位置との距離を表す距離情報を表示するようにしたので、手術を行う医師は、患者の手術対象部位と自身が把持している手術器具との距離を正確に把握することができる。
医療用顕微鏡システム10の一実施の形態の構成を示すブロック図である。 顕微鏡用映像処理装置100の一実施の形態の構成を示すブロック図である。 手術用顕微鏡200と顕微鏡像面との関係を示す図である。 手術器具に施されたマーキングの一例を模式的に示す図である。 顕微鏡像面における手術器具の先端位置の一例を示す図である。 表示される3次元映像の具体例を示す図である。 顕微鏡用映像処理装置100で実行される処理の流れを示すフローチャート図である。
図1は、本実施の形態における医療用顕微鏡システム10の一実施の形態の構成を示すブロック図である。医療用顕微鏡システム10は、顕微鏡用映像処理装置100と、手術用顕微鏡200とで構成される。本実施の形態では、顕微鏡用映像処理装置100と手術用顕微鏡200とは、例えば接続ケーブルを介して、または無線通信により接続される。なお、無線通信の場合は、例えば無線LANやBluetooth(登録商標)等の公知の通信技術を用いればよい。
手術用顕微鏡200は、アームを備えた架台部と、アームの先端に取り付けられ、被写体を拡大撮影する顕微鏡部とで構成される。アームは、水平、垂直、回転の各方向に所定の可動範囲を有しており、顕微鏡部の位置を任意に変更することができる構造となっている。顕微鏡部は、撮像素子やレンズ等で構成される撮像部を備え、ズームレンズを駆動させて観察対象像を拡大させるとともに、フォーカスレンズを駆動させて観察対象に合焦させ、観察対象の画像を取得する。本実施の形態では、顕微鏡部は、所定のフレームレートで画像を取得することにより、観察対象を撮影した映像を出力することができる。なお、手術用顕微鏡の構造や手術用顕微鏡が備える機能は公知のため、ここでは詳細な説明を省略する。
顕微鏡用映像処理装置100は、手術用顕微鏡200から入力される映像を処理する装置である。この顕微鏡用映像処理装置100としては、例えば、パソコンやサーバ装置などの情報処理装置が用いられ、これらの情報処理装置に手術用顕微鏡200から入力される映像を処理するためのソフトウェアがインストールされることにより、後述する処理を実行する。
図2は、本実施の形態における顕微鏡用映像処理装置100としてパソコンを用いた場合の一実施の形態の構成を示すブロック図である。顕微鏡用映像処理装置100は、接続IF(インターフェース)101と、制御装置102と、記録装置103と、表示装置104とを備えている。
接続IF101は、顕微鏡用映像処理装置100を手術用顕微鏡200と接続するためのインターフェースであり、例えば、手術用顕微鏡200と有線接続するためのインターフェースや、無線接続するためのインターフェースが用いられる。
制御装置102は、CPU、メモリ、およびその他の周辺回路によって構成され、顕微鏡用映像処理装置100の全体を制御する。なお、制御装置102を構成するメモリは、例えばSDRAM等の揮発性のメモリである。このメモリは、CPUがプログラム実行時にプログラムを展開するためのワークメモリや、データを一時的に記録するためのバッファメモリとして使用される。例えば、接続IF101を介して読み込まれたデータは、バッファメモリに一時的に記録される。
記録装置103は、顕微鏡用映像処理装置100が蓄える種々のデータや、制御装置102が実行するためのプログラムのデータ等を記録するための記録装置であり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等が用いられる。上述した手術用顕微鏡200から入力される映像を処理するためのソフトウェアのプログラムデータは、この記録装置103に記録される。なお、記録装置103に記録されるプログラムデータは、CD−ROMやDVD−ROMなどの記録媒体に記録されて提供されたり、ネットワークを介して提供され、操作者が取得したプログラムデータを記録装置103にインストールすることによって、制御装置102がプログラムを実行できるようになる。
表示装置104は、制御装置102から出力された情報が表示される表示装置であって、例えば液晶モニタ等が用いられる。
本実施の形態における医療用顕微鏡システム10では、顕微鏡用映像処理装置100の制御装置102は、接続IF101を介して手術用顕微鏡200から入力される映像を対象として、以下に説明する処理を行う。
本実施の形態では、手術用顕微鏡200を使用して手術を行う場合には、顕微鏡用映像処理装置100を操作する操作者は、あらかじめ手術前に撮影された患者の手術対象部位のCTのスライス画像と、手術前に撮影された患者の手術対象部位のMRIのスライス画像と、手術対象部位の3次元モデル画像とを記録装置103に記録しておく。
手術対象部位のCTのスライス画像は、患者の手術対象部位周辺を対象として、その断面を所定のスライス厚で撮影した複数のCT画像からなる。手術対象部位のMRIのスライス画像は、患者の手術対象部位周辺を対象として、その断面を所定のスライス厚で撮影した複数のMRI画像からなる。手術対象部位の3次元モデル画像は、患者の手術対象部位に対応する位置周辺を3次元モデル化した画像であって、該当部位の一般的な3次元モデル画像が公知の作成方法により作成されたものである。
制御装置102は、接続IF101を介して手術用顕微鏡200から顕微鏡映像の入力が開始されると、入力された顕微鏡映像を構成する各コマを画像処理して3次元画像を作成して、顕微鏡映像を3次元映像に変換する。以下、制御装置102によって実行される顕微鏡映像を3次元映像に変換するための処理について説明する。
制御装置102は、記録装置103から、患者の手術対象部位のCTのスライス画像を読み出して、CTのスライス画像を重ね合せて、患者の手術対象部位の3次元CT画像を作成する。また、制御装置102は、記録装置103から、患者の手術対象部位のMRIのスライス画像を読み出して、MRIのスライス画像を重ね合せて、患者の手術対象部位の3次元MRI画像を作成する。
制御装置102は、記録装置103から、手術対象部位の3次元モデル画像を読み出して、作成した3次元CT画像と3次元MRI画像と3次元モデル画像とを位置合わせして重畳することにより患者の手術対象部位の3次元画像を作成する。3次元CT画像と3次元MRI画像と3次元モデル画像との位置合わせは、各画像に対して2値化処理やラベリング処理といった公知の画像処理を施して各画像から特徴的な形状を抽出し、この特徴的な形状同士を重ね合せることにより行う。
ここで重ね合せに用いる特徴的な形状としては、各画像内に含まれる血管の形状などとすればよい。具体例を挙げると、脳のシルブウス溝を切り開く手術を行う場合、内頸動脈はY字型の特徴的な形状をしているため、あらかじめ一般的な内頸動脈の形状をテンプレート画像として登録しておき、制御装置102は、3次元CT画像と3次元MRI画像と3次元モデル画像のそれぞれからテンプレート画像として登録された内頸動脈の形状と近似する形状を抽出する。制御装置102は、このように抽出した特徴的な形状である内頸動脈の形状が互いに重なるように位置合わせを行って、3次元CT画像と3次元MRI画像と3次元モデル画像とを重ね合せることにより、XYZ座標系で表される3次元画像を作成する。なお、これはあくまでも一例であって、大脳縦列裂を切り開く手術を行う場合には、前大脳動脈の形状のような特徴的な形状を抽出する、側頭葉底面を切り開く手術を行う場合には、脳底動脈の形状や後大脳動脈の形状といった特徴的な形状を抽出するといったように、位置合わせに用いる特徴的な形状は、患者の手術対象部位に応じて選択すればよい。
制御装置102は、手術用顕微鏡200からの顕微鏡映像の入力が開始された場合には、所定のフレームレートで入力される顕微鏡映像の各コマと、上述した処理で作成した患者の手術対象部位の3次元画像とを位置合わせして重畳することにより、2次元の顕微鏡映像を3次元映像に変換する。ここでの3次元画像と顕微鏡映像の各コマの位置合わせも、上述した処理と同様に、3次元画像と顕微鏡映像の各コマから血管の形状などの特徴的な形状を抽出し、この特徴的な形状同士を重ね合せることにより行えばよい。
制御装置102は、変換した3次元映像を表示装置104へ出力して表示させる。これによって、医師等は、手術対象部位を立体的に把握して手術を行うことができる。
本実施の形態における顕微鏡用映像処理装置100は、手術用顕微鏡200から入力される顕微鏡映像内に写っている手術器具の3次元映像内における位置を特定し、患者の手術対象部位と手術器具の位置との間の距離を3次元映像内に表示する機能を有している。以下、患者の手術対象部位と手術器具の位置との間の距離を3次元映像内に表示するために、制御装置102が実行する処理について説明する。なお、本実施の形態では、手術器具の位置として、手術器具の先端位置を特定する場合について説明する。
まず、制御装置102は、3次元映像内における手術器具の先端位置を特定するために、手術用顕微鏡200から入力される顕微鏡映像における顕微鏡座標系と、表示装置104へ出力する3次元映像における表示座標系とを位置合わせするためのキャリブレーション処理を行う。キャリブレーション処理においては、図3に示すように、位置t0における手術用顕微鏡200の光軸3bと垂直な顕微鏡像面3aにおいて、光軸3bと顕微鏡像面3aとが交わる点P0を原点として、顕微鏡像面3aにx軸3cとy軸3dをとり、手術用顕微鏡200の光軸3b方向にz軸3eをとった3次元座標系を顕微鏡座標系として設定する。
本実施の形態では、表示座標系における原点P0の座標値vP0(vX0,vY0,vZ0)、表示座標系における原点P0の方向ベクトルvV0(vVx0,vVy0,vVz0)、表示座標系における原点P0の表示倍率vM0と、顕微鏡座標系における原点P0の座標値rP0(rX0,rY0,rZ0)、顕微鏡座標系における原点P0の方向ベクトルrV0(rVx0,rVy0,rVz0)、顕微鏡座標系における原点P0の表示倍率rM0とに対して、表示座標系における原点P0の(vP0,vV0,vM0)と、顕微鏡座標系における原点P0の(rP0,rV0,rM0)とを対応付けることにより、両座標系の位置合わせを行う。具体的には、顕微鏡座標系における原点P0の(rP0,rV0,rM0)は、表示座標系における原点P0の(vP0,vV0,vM0)=((0,0,0),(0,0,1),1)に対応する。
顕微鏡用映像処理装置100の操作者は、キャリブレーション処理を行うとともに、観察対象面3a上に手術器具を置き、キャリブレーション処理時における顕微鏡映像内での手術器具の長さを特定する。本実施の形態では、図4に示すように、手術器具には複数のマーキング4a〜4fが施されている。これらのマーキングは、手術器具の持ち手部分に等間隔に施されており、各マーキングは、手術器具の先端側と後端側を判別可能なように色分けがされている。例えば、最も後端側に位置するマーキング4aを薄い色とし、最も先端側に位置するマーキング4fを濃い色として、その間に位置するマーキング4b〜4eは、マーキング4bからマーキング4eに向けて徐々に濃くなるようにし、全体として、マーキング4a〜4fに向けて色が濃くなるようなグラデーション配色とする。
制御装置102は、顕微鏡映像内から観察対象面3a上に置かれた手術器具のマーキングを抽出し、色が一番薄いマーキング4aから色が一番濃いマーキング4fまでの長さを手術器具の長さLとして特定する。制御装置102は、特定した手術器具の長さLをメモリに記録する。これにより、キャリブレーション処理と手術器具の長さ特定処理が完了する。なお、ここで特定する手術器具の長さLは、持ち手部分に付されたマーキング4aからマーキング4fまでの長さであって、実際の手術器具の全長とは異なるが、本実施の形態では、上記処理で特定した長さLを手術器具の長さとみなすこととする。
次に、手術時に顕微鏡映像内に写っている手術器具の先端位置を特定するための処理について説明する。ここでは、図3において、手術用顕微鏡200が位置t1へ移動した場合の処理を例にして説明を行う。なお、ここでは、手術用顕微鏡200の撮影倍率は、キャリブレーション処理時と同一であるものとして説明するが、撮影倍率が変化した場合には、制御装置102は、撮影倍率の変化を加味して処理を行う。
この場合、制御装置102は、位置t1における手術用顕微鏡200の光軸3gと垂直な顕微鏡像面3fにおいて、光軸3gと顕微鏡像面3fとが交わる点P1を原点として、顕微鏡像面3fにx軸とy軸をとり、手術用顕微鏡200の光軸3g方向にz軸をとった座標系において、原点P1の座標値rP1(rX1,rY1,rZ1)を特定する。また、制御装置102は、顕微鏡映像内に写っている手術器具のうち、最も濃い色が付されたマーキングの位置を手術器具の先端位置として特定し、該先端位置tP´の座標値rtP´(rtX´,rtY´,rtZ´)を特定する。これにより、図5に示すように、顕微鏡像面3fにおけるrP1とrtP´の位置関係が明らかになる。
なお、この場合、顕微鏡映像内に手術器具の先端部分が映っていれば、制御装置102は、最も濃い色が付されたマーキングの位置を特定することができるが、手術器具の一部が医師の手などに隠れている場合等、最も濃い色が付されたマーキングの位置を特定することができず、手術器具の先端位置を特定できない場合もある。この場合は、制御装置102は、以下のようにして手術器具の先端位置を推定する。
まず、制御装置102は、顕微鏡映像内に写っている手術器具に付されているマーキングの色に基づいて、色の変化方向を特定する。これにより、制御装置102は、マーキングの色が薄い色から濃い色に変化している方向が手術器具の先端方向であることを特定することができ、特定した先端方向に手術器具の先端位置が隠れていると判定することができる。
さらに、制御装置102は、顕微鏡映像内に写っている手術器具の長さを特定し、特定した長さと、上述した処理でメモリに記録しておいた手術器具の長さLとに基づいて、顕微鏡映像内における手術器具の先端位置を推定する。すなわち、顕微鏡映像内に写っている手術器具の長さが、上述した処理でメモリに記録しておいた手術器具の長さLと一致するまで、顕微鏡映像内に写っている手術器具を先端方向へ伸ばした位置が顕微鏡映像内における手術器具の先端位置であると推定することができる。これにより、顕微鏡映像内で手術器具の先端部分が隠れている場合であっても、手術器具の先端位置を特定することができる。
制御装置102は、特定した手術器具の先端位置tP´の座標値rtP´(rtX´,rtY´,rtZ´)を、上述した顕微鏡座標系における座標値rtP(rtX,rtY,rtZ)に変換する。その後、制御装置102は、上述したキャリブレーション処理による顕微鏡座標系と表示座標系の位置合わせ結果に基づいて、顕微鏡座標系における座標値rtP(rtX,rtY,rtZ)を表示座標系における座標値vtP(vtX,vtY,vtZ)に変換する。これによって、表示座標系における手術器具の先端位置を特定することができる。
制御装置102は、あらかじめ設定されている表示座標系における手術対象部位の座標値と、上記処理で特定した表示座標系における手術器具の先端位置の座標値vtP(vtX,vtY,vtZ)との間の距離を算出して、表示装置104へ出力する3次元映像上に算出した距離情報を表示する。なお、表示座標系における手術対象部位の座標値は、手術前に決定された患者の手術対象部位の座標値が顕微鏡用映像処理装置100の操作者によってあらかじめ登録されているものとする。
これによって、3次元映像上には、図6に示すように、手術対象部位6aと手術器具の先端位置6bとの間の距離情報として、両座標間の直線距離6cと、深度方向、すなわち表示座標系におけるZ軸方向の距離6dと、左右方向、すなわち表示座標系におけるX軸方向の距離6eと、上下方向、すなわち表示座標系におけるY軸方向の距離6fとが表示される。また、図6に示すように、3次元映像上に手術対象部位6aを明示する。これによって、手術を行う医師は、3次元映像上で手術対象部位、および現在の手術器具の先端位置から手術対象部位までの距離情報を把握することができる。
また、本実施の形態では、手術対象部位の3次元モデル画像に対して、手術時に注意が必要な危険部位の位置を示す情報が登録されている。例えば、手術対象部位が脳内である場合には、危険部位の位置を示す情報として、視神経、聴覚連合野、体性感覚野といった手術対象部位の周囲に存在する損傷リスクが伴う危険部位の位置を特定するための領域情報が登録される。制御装置102は、登録されている危険部位の位置を示す情報に基づいて、表示座標系における危険部位領域を特定し、特定した領域を3次元映像に表示する。例えば、図6に示す例では、視神経に対応する領域6gと体性感覚野に対応する領域6hとが表示されている。これにより、手術を行う医師は、手術対象部位の周囲に存在する危険部位を把握することができるため、手術時のリスクを低減することができる。
図7は、本実施の形態における顕微鏡用映像処理装置100で実行される処理の流れを示すフローチャートである。図7に示す処理は、手術用顕微鏡200から顕微鏡映像の入力が開始されると起動するプログラムとして、制御装置102によって実行される。なお、本実施の形態では、上述した3次元CT画像と3次元MRI画像の作成処理、および3次元CT画像、3次元MRI画像、3次元モデル画像を用いた患者の手術対象部位の3次元画像の作成処理は既に完了しているものとする。
ステップS10において、制御装置102は、上述したように、所定のフレームレートで入力される顕微鏡映像の各コマと、患者の手術対象部位の3次元画像とを位置合わせして重畳することにより、2次元の顕微鏡映像を3次元映像に変換する。その後、ステップS20へ進む。
ステップS20では、制御装置102は、ステップS10で変換して得た3次元映像を表示装置104へ出力して表示させる。その後、ステップS30へ進む。
ステップS30では、制御装置102は、上述したように、3次元映像内における手術器具の先端位置を特定する。その後、ステップS40へ進む。
ステップS40では、制御装置102は、図6に示したように、手術対象部位6aと手術器具の先端位置6bとの間の距離情報を3次元映像内に表示する。このとき、制御装置102は、手術対象部位6aと手術対象部位の周囲に存在する危険部位を特定するための情報6g、6hも3次元映像内に表示する。その後、処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置102は、手術用顕微鏡200から顕微鏡映像を取得し、取得した顕微鏡映像を3次元映像に変換し、3次元映像内における手術器具の先端位置を特定し、あらかじめ設定された患者の手術対象部位と、特定した手術器具の先端位置との距離を算出し、算出した距離を表す距離情報を3次元映像内に表示した出力映像を表示装置104へ出力するようにした。これによって、3次元映像内に患者の手術対象部位と手術器具の位置との距離を表す距離情報を表示するようにしたので、手術を行う医師は、患者の手術対象部位と自身が把持している手術器具との距離を正確に把握することができる。また、医師が患者の手術対象部位と医師が把持している手術器具との距離感をつかめないと、手術対象部位の周辺に位置する他の部位を傷つけてしまうなどの重大なミスにつながる可能性があるが、本発明によれば、このような手術時のリスクを低減することができる。
(2)制御装置102は、手術前に撮影された患者の手術対象部位のCTのスライス画像を重ね合せた3次元CT画像を作成するとともに、手術前に撮影された患者の手術対象部位のMRIのスライス画像を重ね合せた3次元MRI画像を作成し、3次元CT画像と、3次元MRI画像と、あらかじめ用意された手術対象部位の3次元モデル画像とを位置合わせして重畳することにより患者の手術対象部位の3次元画像を作成し、患者の手術対象部位の3次元画像と、手術用顕微鏡200から取得した顕微鏡映像の各コマを位置合わせして重畳することにより、顕微鏡映像を3次元映像に変換するようにした。このように、CTのスライス画像、MRIのスライス画像、および3次元モデル画像を用いることにより精度の高い3次元画像を作成して、顕微鏡映像を3次元映像に変換することができる。
(3)制御装置102は、手術器具の先端位置の顕微鏡座標系における座標値を特定し、これを表示座標系における座標値に変換することにより、3次元映像内における手術器具先端位置を特定するようにした。これによって、顕微鏡映像内に写っている手術対象器具の先端位置を3次元映像内においても特定することができる。
(4)制御装置102は、3次元映像内におけるあらかじめ設定された手術対象部位の座標値と、特定した手術器具の先端位置の座標値とに基づいて、手術対象部位と手術器具の先端位置との直線距離、深度方向、すなわち奥行き方向の距離と、左右方向、すなわち水平方向の距離と、上下方向、すなわち垂直方向の距離とを算出するようにした。これによって、手術を行う医師は、3次元映像上で現在の手術器具の先端位置から手術対象部位までの距離情報を把握することができる。
(5)制御装置102は、3次元映像内に、手術対象部位の位置を示す情報を表示するようにした。これによって、手術を行う医師は、3次元映像上で手術対象部位を把握することができる。
(6)制御装置102は、3次元映像内に、手術対象部位の周囲に存在する損傷リスクが伴う危険部位の位置を示す情報を表示するようにした。これによって、手術を行う医師は手術対象部位の周囲に存在する危険部位を把握することができ、手術時のリスクを低減することができる。
―変形例―
なお、上述した実施の形態の医療用顕微鏡システム10は、以下のように変形することもできる。
(1)上述した実施の形態では、キャリブレーション処理を行うとともに、観察対象面3a上に手術器具を置き、キャリブレーション処理時における顕微鏡映像内での手術器具の長さLを特定するようにし、手術器具の先端位置を特定する際に、手術器具に付された最も濃い色が付されたマーキングの位置を特定することができない場合には、手術器具の長さLに基づいて、顕微鏡映像内における手術器具の先端位置を推定する例について説明した。上述した実施の形態では、手術器具の長さLは、キャリブレーション処理時に観察対象面3a上に置かれた手術器具を対象として算出したものであるが、手術時には、必ずしも観察対象面に対して水平に手術器具が映るとは限らない。仮に、手術器具が観察対象面に対して傾きを持って顕微鏡映像に映った場合には、顕微鏡映像内の手術器具の長さは、キャリブレーション処理時に計測した手術器具の長さLとは異なることになる。この場合、手術器具に等間隔に付されたマーキングは、顕微鏡映像内では光軸から離れるに従って狭く映ることになる。また、マーキングの幅、すなわち図4に示したマーキングの縦方向の長さは、顕微鏡映像内では光軸から離れるに従って細く映ることになる。このため、制御装置102は、このマーキング間隔の変化とマーキング幅の変化に基づいて、顕微鏡映像内における手術器具の長さを補正するようにすればよい。
具体的には、制御装置102は、顕微鏡映像内で連続する3つのマーキングを対象として、隣り合う2つのマーキングの間の間隔を特定し、これらの間隔の比を算出する。例えば、図4に示したマーキング4b、4c、4dの連続する3つのマーキングを対象として、マーキング4bとマーキング4cとの間の間隔Aと、マーキング4cとマーキング4dとの間の間隔Bを特定し、間隔Aと間隔Bの比を算出する。この比は、顕微鏡座標系におけるZ軸方向の傾き幅を表すため、顕微鏡映像内の手術器具の長さを、キャリブレーション処理時に計測した手術器具の長さLと該傾き幅とに基づいて、三角関数により算出して、補正をすることができる。
あるいは、制御装置102は、隣り合う2つのマーキングを対象として、マーキング幅の比を算出する。例えば、図4に示したマーキング4bと4cを対象として、マーキング4bのマーキング幅とマーキング4cのマーキング幅の比を算出する。この比も顕微鏡座標系におけるZ軸方向の傾き幅を表すため、顕微鏡映像内の手術器具の長さを、キャリブレーション処理時に計測した手術器具の長さLと該傾き幅とに基づいて、三角関数により算出して補正するようにしてもよい。
(2)上述した実施の形態では、手術器具には複数のマーキング4a〜4fが施されており、各マーキングは、手術器具の先端側と後端側を判別可能なように色分けがされている例について説明した。しかしながら、手術器具の先端側と後端側を判別とすれば、手術器具に施すものはマーキングに限定されない。例えば、図4に示したマーキング4a〜4fの位置に、手術器具の先端側と後端側を判別するために番号を付しても良いし、先端側を示す方向を向く矢印を付すようにしてもよい。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。
10 医療用顕微鏡システム
100 顕微鏡用映像処理装置
101 接続IF
102 制御装置
103 記録装置
104 表示装置
200 手術用顕微鏡

Claims (7)

  1. 手術用顕微鏡から所定のフレームレートで出力される顕微鏡映像を取得する顕微鏡映像取得手段と、
    前記顕微鏡映像取得手段によって取得された前記顕微鏡映像を3次元映像に変換する映像変換手段と、
    前記顕微鏡映像取得手段によって取得された前記顕微鏡映像の中から、持ち手部分に、手術器具の先端側と後端側を判別可能なように色分けがされたマーキングが等間隔に施された前記手術器具について、最も先端側の位置を判別するために付されたマーキングの位置を前記手術器具の先端位置として特定し、特定した先端位置の前記顕微鏡映像における座標値を、前記3次元映像内における座標値に変換することにより、前記映像変換手段によって変換された3次元映像内における手術器具の先端位置を特定する手術器具位置特定手段と、
    あらかじめ設定された患者の手術対象部位と、前記手術器具位置特定手段によって特定された前記手術器具の先端位置との距離を算出する距離算出手段と、
    前記距離算出手段によって算出された距離を表す距離情報を前記3次元映像内に表示した出力映像を表示装置へ出力する映像出力手段とを備えることを特徴とする顕微鏡用映像処理装置。
  2. 請求項1に記載の顕微鏡用映像処理装置において、
    前記映像変換手段は、手術前に撮影された患者の手術対象部位のCTのスライス画像を重ね合せた3次元CT画像を作成するとともに、手術前に撮影された患者の手術対象部位のMRIのスライス画像を重ね合せた3次元MRI画像を作成し、前記3次元CT画像と、前記3次元MRI画像と、あらかじめ用意された手術対象部位の3次元モデル画像とを位置合わせして重畳することにより患者の手術対象部位の3次元画像を作成し、前記患者の手術対象部位の3次元画像と、前記顕微鏡映像取得手段によって取得された前記顕微鏡映像の各フレームを位置合わせして重畳することにより、前記顕微鏡映像を前記3次元映像に変換することを特徴とする顕微鏡用映像処理装置。
  3. 請求項1または2に記載の顕微鏡用映像処理装置において、
    前記手術器具位置特定手段は、前記顕微鏡映像取得手段によって取得された前記顕微鏡映像内に前記手術器具の先端位置が映っていないことにより、前記手術器具の先端位置の座標値が特定できない場合には、前記顕微鏡映像に映っている前記手術器具の一部と、あらかじめ特定した前記手術器具の長さとに基づいて、前記手術器具の先端位置の座標値を推定することを特徴とする顕微鏡用映像処理装置。
  4. 請求項1〜のいずれか一項に記載の顕微鏡用映像処理装置において、
    前記距離算出手段は、前記3次元映像内におけるあらかじめ設定された手術対象部位の座標値と、前記手術器具位置特定手段によって特定された前記手術器具の先端位置の座標値とに基づいて、前記手術対象部位と前記手術器具の先端位置との直線距離、水平方向の距離、垂直方向の距離、および奥行き方向の距離を算出することを特徴とする顕微鏡用映像処理装置。
  5. 請求項1〜のいずれか一項に記載の顕微鏡用映像処理装置において、
    前記3次元映像内に、前記手術対象部位の位置を示す手術対象部位位置情報を表示する手術対象部位位置情報表示手段をさらに備えることを特徴とする顕微鏡用映像処理装置。
  6. 請求項1〜5のいずれか一項に記載の顕微鏡用映像処理装置において、
    前記3次元映像内に、前記手術対象部位の周囲に存在する損傷リスクが伴う危険部位の位置を示す危険部位位置情報を表示する危険部位位置情報表示手段をさらに備えることを特徴とする顕微鏡用映像処理装置。
  7. 請求項1〜6のいずれかに記載の顕微鏡用映像処理装置と、前記顕微鏡用映像処理装置と接続され、前記顕微鏡用映像処理装置へ所定のフレームレートで顕微鏡映像を入力する手術用顕微鏡とを備えることを特徴とする医療用顕微鏡システム。
JP2013246968A 2013-11-29 2013-11-29 顕微鏡用映像処理装置、および医療用顕微鏡システム Active JP5611441B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013246968A JP5611441B1 (ja) 2013-11-29 2013-11-29 顕微鏡用映像処理装置、および医療用顕微鏡システム
EP14866443.6A EP3075342B1 (en) 2013-11-29 2014-11-21 Microscope image processing device and medical microscope system
US15/038,612 US9736464B2 (en) 2013-11-29 2014-11-21 Microscope video processing device and medical microscope system
PCT/JP2014/080894 WO2015080042A1 (ja) 2013-11-29 2014-11-21 顕微鏡用映像処理装置、および医療用顕微鏡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013246968A JP5611441B1 (ja) 2013-11-29 2013-11-29 顕微鏡用映像処理装置、および医療用顕微鏡システム

Publications (2)

Publication Number Publication Date
JP5611441B1 true JP5611441B1 (ja) 2014-10-22
JP2015104447A JP2015104447A (ja) 2015-06-08

Family

ID=52574631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013246968A Active JP5611441B1 (ja) 2013-11-29 2013-11-29 顕微鏡用映像処理装置、および医療用顕微鏡システム

Country Status (4)

Country Link
US (1) US9736464B2 (ja)
EP (1) EP3075342B1 (ja)
JP (1) JP5611441B1 (ja)
WO (1) WO2015080042A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6880606B2 (ja) * 2016-08-30 2021-06-02 株式会社ニデック 眼科用手術顕微鏡
JP2020022563A (ja) 2018-08-06 2020-02-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
CN113395595B (zh) * 2020-03-12 2023-03-24 平湖莱顿光学仪器制造有限公司 一种密度相关的智能二维视频播放方法及其视频装置
WO2022251814A2 (en) 2021-05-24 2022-12-01 Stryker Corporation Systems and methods for generating three-dimensional measurements using endoscopic video data
DE102021118400A1 (de) * 2021-07-16 2023-01-19 Aesculap Ag Medizinisches System und Verfahren zum Prüfen einer Kompatibilität von Implantaten und Instrumenten eines medizinischen Systems

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007007041A (ja) * 2005-06-29 2007-01-18 Hitachi Medical Corp 手術支援装置
JP2009542362A (ja) * 2006-06-29 2009-12-03 インテュイティブ サージカル インコーポレイテッド コンピュータディスプレイ画面の境界領域に表示されるツール位置および識別指標
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US6466815B1 (en) * 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
DE60130264T2 (de) * 2001-06-13 2008-05-21 Volume Interactions Pte. Ltd. Führungssystem
JP4832679B2 (ja) * 2001-09-11 2011-12-07 オリンパス株式会社 顕微鏡システム
JP2004151490A (ja) 2002-10-31 2004-05-27 Olympus Corp 手術用顕微鏡
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007007041A (ja) * 2005-06-29 2007-01-18 Hitachi Medical Corp 手術支援装置
JP2009542362A (ja) * 2006-06-29 2009-12-03 インテュイティブ サージカル インコーポレイテッド コンピュータディスプレイ画面の境界領域に表示されるツール位置および識別指標
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム

Also Published As

Publication number Publication date
EP3075342A4 (en) 2017-11-01
WO2015080042A1 (ja) 2015-06-04
JP2015104447A (ja) 2015-06-08
EP3075342A1 (en) 2016-10-05
US20160295199A1 (en) 2016-10-06
EP3075342B1 (en) 2020-02-12
US9736464B2 (en) 2017-08-15

Similar Documents

Publication Publication Date Title
Badiali et al. Augmented reality as an aid in maxillofacial surgery: validation of a wearable system allowing maxillary repositioning
McJunkin et al. Development of a mixed reality platform for lateral skull base anatomy
JP5476036B2 (ja) 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
JP5611441B1 (ja) 顕微鏡用映像処理装置、および医療用顕微鏡システム
WO2017179350A1 (ja) 画像表示制御装置および方法並びにプログラム
JP4630564B2 (ja) 手術支援装置、方法及びプログラム
US20140221819A1 (en) Apparatus, system and method for surgical navigation
JPWO2018012080A1 (ja) 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
JP2016533832A (ja) 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム
CN107854177A (zh) 一种基于光学定位配准的超声与ct/mr图像融合手术导航系统及其方法
JP6290723B2 (ja) 手術支援装置および手術支援システム
JP5934070B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP5961504B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
US20170231718A1 (en) System and Method for Guiding Medical Instruments
JP2017102927A (ja) 3d画像から2d画像へのマッピング
EP3689218A1 (en) Method and system for guiding an intra-oral scan
CN108629845A (zh) 手术导航方法、装置、设备、系统和可读存储介质
KR20210121050A (ko) 치과 치료를 제안 및 시각화하기 위한 방법 및 시스템
KR20160121740A (ko) 수술 관련 해부정보 제공 방법 및 장치
JP2017164075A (ja) 画像位置合せ装置、方法およびプログラム
Condino et al. Registration Sanity Check for AR-guided Surgical Interventions: Experience From Head and Face Surgery
WO2016054775A1 (zh) 超声虚拟内窥成像系统和方法及其装置
JP2016225861A (ja) 情報処理装置、情報処理方法、及び生体内撮像システム
JP2015036084A (ja) 画像処理システム
US12023208B2 (en) Method for operating a visualization system in a surgical application, and visualization system for a surgical application

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140902

R150 Certificate of patent or registration of utility model

Ref document number: 5611441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250