JP2016502905A - トラッキングシステム及びこれを用いたトラッキング方法 - Google Patents

トラッキングシステム及びこれを用いたトラッキング方法 Download PDF

Info

Publication number
JP2016502905A
JP2016502905A JP2015552571A JP2015552571A JP2016502905A JP 2016502905 A JP2016502905 A JP 2016502905A JP 2015552571 A JP2015552571 A JP 2015552571A JP 2015552571 A JP2015552571 A JP 2015552571A JP 2016502905 A JP2016502905 A JP 2016502905A
Authority
JP
Japan
Prior art keywords
marker
markers
image
imaging unit
reflector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015552571A
Other languages
English (en)
Other versions
JP6147360B2 (ja
Inventor
ジョン‐キュ ホン、
ジョン‐キュ ホン、
ヒョン‐キ イ、
ヒョン‐キ イ、
ジェ‐ホン チョン、
ジェ‐ホン チョン、
ミン‐ヨン キム、
ミン‐ヨン キム、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academic Cooperation Foundation of KNU
Original Assignee
Industry Academic Cooperation Foundation of KNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industry Academic Cooperation Foundation of KNU filed Critical Industry Academic Cooperation Foundation of KNU
Publication of JP2016502905A publication Critical patent/JP2016502905A/ja
Application granted granted Critical
Publication of JP6147360B2 publication Critical patent/JP6147360B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一台の結像ユニットのみでもそれぞれのマーカーの3次元座標を算出できるようにして、製作費用の低減と共に装備のコンパクト化を実現することにより、手術空間の制約を最小化できるトラッキングシステム及びこれを用いたトラッキング方法を開示する。前記トラッキングシステム及びこれを用いたトラッキング方法は、それぞれのマーカーから放出される光が2つの経路で一台の結像ユニットに伝達されて前記結像ユニットのイメージセンサにそれぞれのマーカーに対してそれぞれの経路による2つの画像(ダイレクト画像とリフレクト画像)を結像させるため、一台の結像ユニットのみでも目的物に取り付けられたマーカーの空間位置及び方向を算出して確認することができるので、トラッキングシステムの製作費用の節減とともに装備の小型・軽量化をなすことができ、従来のトラッキングシステムに比較して手術空間の制約を相対的に少なく受けるという効果がある。

Description

本発明は、トラッキングシステム及びこれを用いたトラッキング方法に関し、より具体的には、患者の患部や手術器具のような目的物に取り付けられたマーカーの座標を追跡して目的物の空間位置情報及び方向情報を検出する手術用トラッキングシステム及びこれを用いたトラッキング方法に関する。
最近では腹腔鏡手術や耳鼻咽喉科の手術を行うとき、さらに患者の苦痛を減らして素早く患者が回復できるようにするためのロボット手術が研究及び導入されている。
かかるロボット手術の際には手術の危険を最小化してさらに精密な手術が行われるようにするために、患部や手術器具のような目的物の空間位置及び方向を正確に追跡して検出した後、前記手術器具を患者の患部へ正確に操縦(NAVIGATE)できるナビゲーションが用いられる。
上記のような手術用ナビゲーションには、上述したように患部や手術器具のような目的物の空間位置及び方向を正確に追跡して検出することができるトラッキングシステムが含まれる。
上記のようなトラッキングシステムは、通常、患部や手術器具のような目的物に取り付けられるマーカーと、前記マーカーによって放出される光を結像させる第1及び第2結像ユニットと、前記第1及び第2結像ユニットと連結されて前記マーカーの3次元座標を算出した後、既に格納済の前記互いに隣り合うマーカーを連結する直線の情報と、互いに隣り合う一対の直線がなす角度情報を前記マーカーの3次元座標と比較して前記目的物の空間位置及び方向を算出するプロセッサを含む。
ここで、前記マーカーの3次元座標をプロセッサを通じて算出するためには、通常、1つのマーカーから放出されて第1結像ユニットに結像された前記マーカーの座標と、前記第2結像ユニットに結像された前記マーカーの座標が同一であるという仮定下で三角法を通じて前記プロセッサによって検出されることによりそれぞれのマーカーの3次元座標がプロセッサを通じて算出されるためには必ず2台のディテクターが必要であった。
よって、従来の一般的なトラッキングシステムは、相異する位置でそれぞれのマーカーから放出される光を結像させるための2台の結像ユニットを備えなければならないため、製作費用の上昇とともにシステム全体のサイズが大きくなってしまい、手術空間の制約を大きく受けるという問題点があった。
本発明の目的は、一台の結像ユニットのみでもそれぞれのマーカーの3次元座標を算出できるようにして製作費用の低減とともに装備のコンパクト化を実現し、手術空間の制約を最小化することができるトラッキングシステム及びこれを用いたトラッキング方法を提供することにある。
本発明の一実施例によるトラッキングシステムは、目的物に取り付けられて光を放出するか、または少なくとも1つの光源から放出される光を反射させる少なくとも3つのマーカーと、前記マーカーから放出されるか、または前記マーカーによって反射されて放出される光を反射させるリフレクターと、前記マーカーから放出される光を直接受光してダイレクト画像を結像させると同時に、前記マーカーから放出された後、前記リフレクターによって反射されて放出される光を受光してリフレクト画像を結像させる結像ユニットと、前記結像ユニットに結像された前記マーカーのダイレクト画像及びリフレクト画像を用いて前記マーカーの3次元座標をそれぞれ算出した後、前記マーカーの3次元座標と既に格納済の互いに隣り合うマーカー間の幾何学的情報を比較して前記目的物の空間位置及び方向を算出するプロセッサとを含む。
一実施例によれば、前記リフレクターは、前記マーカーから放出される光を前記結像ユニット側に反射させてリフレクト画像を結像させるミラーであり得る。
一実施例によれば、前記リフレクターは、前記結像ユニットと同一光路上に位置し、前記プロセッサの制御下で設置位置や角度、反射面の形状のうち少なくとも1つを変更して、前記リフレクト画像の結像位置を変化させることができる。
一実施例によれば、前記結像ユニットは、前記マーカーから直接放出される光と前記リフレクターによって反射された光を受光して画像を結像させるカメラであり得る。
一方、前記マーカー間の幾何学的情報は、前記互いに隣り合うマーカーを連結する直線の長さ情報と、前記互いに隣り合う一対の直線がなす角度情報であり得る。
本発明の一実施例によるトラッキング方法は、目的物に取り付けられた少なくとも3つのマーカーから放出される光を直接受光してダイレクト画像を結像ユニットに結像させると同時に、前記マーカーから放出された後、特定の位置に設けられて光を反射させるリフレクターによって放出される光を受光してリフレクト画像を結像ユニットに結像させる段階と、前記結像ユニットに結像された前記マーカーのダイレクト画像とリフレクト画像を用いてプロセッサを通じて前記それぞれのマーカーの3次元座標を算出する段階と、前記それぞれのマーカーの3次元座標と前記プロセッサに既に格納済の互いに隣り合うマーカー間の幾何学的情報を比較して前記目的物の空間位置及び方向を算出する段階とを含む。
ここで、前記マーカー間の幾何学的情報は、前記互いに隣り合うマーカーを連結する直線の長さ情報と、前記互いに隣り合う一対の直線がなす角度情報であり得る。
一方、前記リフレクト画像を結像ユニットに結像させる段階は、前記プロセッサでリフレクターの設置位置、角度及び反射面の形状の変更のうち少なくとも1つを制御して前記結像ユニットとの同一光路上で前記リフレクト画像の結像位置を変化させる段階を含むことができる。
一実施例によれば、前記マーカーの3次元座標を算出する段階は、前記プロセッサを通じて前記結像ユニットに結像された前記マーカーのダイレクト画像とリフレクト画像の2次元座標を算出する段階と、前記マーカーのダイレクト画像の2次元座標と前記リフレクト画像の2次元座標を用いて前記プロセッサを通じて前記マーカーの3次元座標を算出する段階とを含むことができる。
このように本発明の一実施例によるトラッキングシステム及びこれを用いたトラッキング方法は、それぞれのマーカーから放出される光が直接結像ユニットに流入されると同時にリフレクターによって反射されて前記結像ユニットに流入されるようにする。すなわち、それぞれのマーカーから放出される光が2つの経路(第1の経路:マーカーから結像ユニットへ、第2の経路:マーカーからリフレクターを介して結像ユニットへ)で結像ユニットに伝達されて前記結像ユニットのイメージセンサにそれぞれのマーカーに対してそれぞれの経路による2つの画像(ダイレクト画像とリフレクト画像)を結像させるため、一台の結像ユニットのみでも目的物に取り付けられたマーカーの空間位置及び方向を算出して確認することができる
従って、トラッキングシステムの製作費用の節減とともに装備の小型・軽量化を達成することができ、従来のトラッキングシステムに比べて手術空間の制約を相対的に少なく受けるという効果がある。
本発明の一実施例によるトラッキングシステムの概略図である。 マーカーが目的物に取り付けられた例示図である。 レンズの同一光路上においてマーカーの位置が変わる時にリフレクト画像が結像される位置の変化を説明するための例示図である。 本発明の一実施例によるトラッキング方法を説明するためのブロック図である。 マーカーの3次元座標を算出する過程を説明するためのブロック図である。 結像ユニットのイメージセンサをダイレクト画像の座標系とリフレクト画像の座標系に仮想分割した例示図である。 画像における2次元座標と実際のマーカーの3次元座標との関係を説明するための図面である。
本発明は、多様な変更を加えることができ、また、様々な形態を有することができるところ、特定の実施例を図面に例示して本文に詳細に説明する。しかし、これは本発明を特定の開示形態について限定しようとするのではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むものと理解されるべきである。
第1、第2等の用語は多様な構成要素を説明するのに用いられるが、前記構成要素は前記用語によって限定されてはならない。前記用語は1つの構成要素を他の構成要素から区別する目的でのみ用いられる。例えば、本発明の権利範囲を逸脱せずに第1の構成要素は第2の構成要素と呼ばれることができて、同様に第2の構成要素は第1の構成要素と呼ばれることができる。
本出願で使用する用語は単に特定の実施例を説明するために使用しており、本発明を限定しようとする意図ではない。単数の表現は文脈上明白に異なって意味しない限り、複数の表現を含む。本出願で、「含む」または「有する」等の用語は明細書に記載された特徴、数字、段階、動作、構成要素、部分品またはこれらを組み合わせたものが存在することを指定するものであり、1つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部分品またはこれらを組み合わせたもの等の存在または付加の可能性を予め排除しないものと理解されるべきである。
異なって定義しない限り、技術的であったり科学的である用語を含めてここで使用される全ての用語は、本発明が属する技術分野で通常の知識を有する者によって一般に理解されるものと同一の意味を有する。
一般に使用される辞典に定義されている用語は関連技術の文脈上の意味と一致する意味を有すると解釈されるべきであり、本出願で明白に定義しない限り、理想的であったり過度に形式的な意味と解釈されない。
以下、図面を参照して、本発明の望ましい実施例をより詳細に説明する。
本発明の一実施例によるトラッキングシステム及びこれを用いたトラッキング方法は、患部や手術器具のような目的物に少なくとも3つのマーカーを取り付けた後、前記マーカーの3次元座標を算出してプロセッサに既に格納済の互いに隣り合うマーカー間の幾何学的情報と、前記マーカーの3次元座標とをプロセッサを通じて比較して前記患部や手術器具のような目的物の空間位置及び方向を算出できるようにするものであって、その詳細な構成については図面を参照して説明する。
図1は、本発明の一実施例によるトラッキングシステムの概略図、図2はマーカーが目的物に取り付けられた例示図、図3はレンズの同一光路上においてマーカーの位置が変わる時にリフレクト画像が結像される位置の変化を説明するための例示図である。
まず、図1及び図3では説明の便宜上、1つのマーカーのみを示しているが、本発明の一実施例によるトラッキングシステム100は図2に示すように少なくとも3つのマーカー110、111、112が患部や手術器具のような目的物200に取り付けられる。
図1〜図3を参照すると、本発明の一実施例によるトラッキングシステム100は少なくとも3つのマーカー110、111、112、リフレクター(reflector)120、結像ユニット130、プロセッサ(processor)140を含む。
前記少なくとも3つのマーカー110、111、112は患部や手術器具のような目的物200に取り付けられる。ここで、前記少なくとも3つのマーカー110、111、112は、互いに隣り合うマーカー110、111、112間に一定の間隔で離隔され、互いに隣り合うマーカー110、111、112を仮想に連結して各マーカー毎に隣り合う一対の直線L1、L2、L3が一定の角度A1、A2、A3をなすように配置されて前記患部や手術器具のような目的物200に取り付けられる。
ここで、前記互いに隣り合うマーカー110、111、112間の幾何学的情報、すなわち、互いに隣り合うマーカー110、111、112を連結する直線L1、L2、L3の長さ情報と、互いに隣り合うマーカー110、111、112を連結する隣り合う一対の直線がなす角度A1、A2、A3情報は、前記プロセッサ140に実装されたメモリ(memory)141に予め格納されている。
例えば、前記マーカー110、111、112は、3つが患部や手術器具のような目的物200に三角形状に取り付けられ得、前記3つのマーカー110、111、112を頂点とする三角形の辺をなすそれぞれの直線L1、L2、L3の長さ情報と、前記マーカー110、111、112を連結する互いに隣り合う一対の直線がなす角度A1、A2、A3情報は、前記プロセッサ140に含まれたメモリ141に予め格納され得る。
一方、前記マーカー110、111、112は、独自に光を放出するアクティブ(active)マーカーであり得る。上述したように前記マーカー110、111、112をアクティブマーカーとして用いる場合には、別途の光源を用いる必要がない。
これとは異なって、前記マーカー110、111、112は少なくとも1つの光源150から放出される光を反射させるパッシブ(passive)マーカーであり得る。上述したように前記マーカー110、111、112をパッシブマーカーとして用いる場合には、前記マーカー110、111、112に光を放出する少なくとも1つの光源150を前記結像ユニット130の周辺に配置することができる。例えば、一対の光源150が前記結像ユニット130の両側に配置され得る。
前記リフレクター120は、前記マーカー110、111、112から放出されたり前記マーカー110、111、112によって反射されて放出される光を反射させる。例えば、前記リフレクター120は、前記アクティブマーカーから放出される光を反射させたり、前記光源150から放出された後、前記パッシブマーカーによって反射されて放出される光を再反射させる。
ここで、前記リフレクター120は、前記マーカー110、111、112から放出される光を前記結像ユニット130側に反射させてリフレクト(reflect)画像を前記結像ユニット130に結像させることができるミラーであり得る。例えば、前記リフレクター120としては球面ミラーを用いることができる。このように、前記リフレクター120として球面ミラーを用いると、図3に示すように結像ユニット130のレンズ131の同一光路AX1上でマーカー110の位置が変わる時にθ値を減らすことができるため、これに基づいてマーカーの位置を測定することができる。
一方、前記リフレクター120は、設置位置や設置角度を変更したり、反射面の形状を変更して前記リフレクター120によって反射されて前記結像ユニット130に結像されるリフレクト画像の結像位置の変化を与えることができる。すなわち、前記リフレクター120の設置位置や設置角度または反射面の形状を変更することにより、様々な実測定可能範囲の変更を可能にする。
この時、リフレクター120の設置位置や角度、反射面の形状の変更は、有無線方式でネットワーク連動した前記プロセッサ140の制御により変更され得る。これにより、手術ロボットのスタンド、アーム、医師、看護師などによって光路が遮られる場合、リフレクター120の移動を通じてリフレクター画像の光路を変更することができる利点がある。
または、プロセッサ140において前記マーカー110、111、112のダイレクト画像を受信した後、一定時間リフレクト画像の受信を待機して受信できない場合には、リフレクター画像の光路が障害物によって遮断されたと判断し得るため、この場合には、予め設定された数値だけ予め設けられた位置で移動、角度調節、反射面の形状の変更のうち少なくとも1つを制御する制御情報をリフレクター120に伝送することができる。
このような、前記リフレクター120の空間位置と方向情報、及び変更された空間位置と方向情報は、前記プロセッサ140に実装されたメモリ141に予め格納され得る。
前記結像ユニット130は、前記マーカー110、111、112から放出される光を直接受光してダイレクト(direct)画像を結像させると同時に、前記マーカー110、111、112から放出された後、前記リフレクター120によって反射されて放出される光を受光してリフレクト画像を結像させる。
例えば、前記結像ユニット130は、前記マーカー110、111、112から直接放出される光と、前記リフレクター120によって反射された光を受光して画像を結像させるカメラであり得る。すなわち、前記結像ユニット130は、前記マーカー110、111、112から放出される光と前記リフレクター120によって反射する光が焦点を通過するレンズ131と、前記レンズ131の後方部に配置されて前記マーカー110、111、112から放出される光と前記リフレクター120によって反射する光が結像されるイメージセンサ133が実装された本体部132を含むことができる。
前記プロセッサ140は、前記結像ユニット130に結像された前記マーカー110、111、112のダイレクト画像とリフレクト画像を用いて前記それぞれのマーカー110、111、112の3次元座標を算出し、前記マーカー110、111、112の3次元座標を既に格納済の互いに隣り合うマーカー110、111、112間の幾何学的情報と比較して患部や手術器具のような前記目的物200の空間位置及び方向を算出することができる。
ここで、前記プロセッサ140にはメモリ141が実装される。一方、前記プロセッサ140に実装されたメモリ141には、前記互いに隣り合うマーカー110、111、112間の幾何学的情報、すなわち、互いに隣り合うマーカー110、111、112を連結する直線L1、L2、L3の長さ情報と互いに隣り合うマーカー110、111、112を連結する隣り合う一対の直線がなす角度A1、A2、A3情報が予め格納され得る。
これに加えて、前記プロセッサ140に実装されたメモリ141には、前記リフレクター120の空間位置及び方向が予め格納され得る。
上述したように本発明の一実施例によるトラッキングシステム100は、マーカー110、111、112から放出される光が結像ユニット130に流入されてダイレクト画像が結像されるだけでなく、前記マーカー110、111、112から放出される光がリフレクター120によって反射された後、前記結像ユニット130に流入されてリフレクト画像も結像されるようにして、一台の結像ユニット130を使用して、また図1及び図3でリフレクター120の左側に点線で表示したように一台の結像ユニットをさらに使用したことと同じ効果が見られる。
図1〜図7を参照して本発明の一実施例によるトラッキングシステムを用いて目的物の空間位置及び方向をトラッキングする過程について説明する。
図4は本発明の一実施例によるトラッキング方法を説明するためのブロック図、図5はマーカーの3次元座標を算出する過程を説明するためのブロック図、図6は結像ユニットのイメージセンサをダイレクト画像の座標系とリフレクト画像の座標系に仮想分割した例示図、図7は画像における2次元座標と実際のマーカーの3次元座標との関係を説明するための図面である。
図1〜図7を参照すると、本発明の一実施例によるトラッキングシステムを用いて目的物200の空間位置及び方向をトラッキングするためには、まず目的物200に取り付けられた少なくとも3つのマーカー110、111、112を活性化させて前記マーカー110、111、112から光が放出されるようにするか、または、少なくとも1つの光源150を作動させて前記光源150から前記目的物200に取り付けられた少なくとも3つのマーカー110、111、112に光を照射して前記マーカー110、111、112によって光が反射されて放出されるようにする(S110)。
より詳細に説明すると、前記目的物200に自ら光を放出する少なくとも3つのアクティブマーカー110、111、112が取り付けられた場合には、前記マーカー110、111、112を活性化させて前記マーカー110、111、112から光が放出されるようにする。これとは異なって、前記目的物200に自ら光を放出できない少なくとも3つのパッシブマーカー110、111、112が取り付けられた場合には、少なくとも1つの光源150を作動させて前記光源150から前記目的物200に取り付けられた少なくとも3つのパッシブマーカー110、111、112に光を照射して前記パッシブマーカー110、111、112により光が反射されて放出されるようにする。
前記少なくとも3つのマーカー110、111、112によって放出された光は、前記結像ユニット130に直接伝達されて前記結像ユニット130に前記それぞれのマーカー110、111、112のダイレクト画像を結像させると同時に、前記少なくとも3つのマーカー110、111、112によって放出された光はリフレクター120に伝達されて前記リフレクター120によって反射された後、前記結像ユニット130に伝達されて前記結像ユニット130に前記それぞれのマーカー110、111、112のリフレクト画像を結像させる(S120)。
すなわち、前記目的物200に取り付けられた少なくとも3つのマーカー110、111、112から放出される光を直接受光してダイレクト画像を前記結像ユニット130に結像させると同時に、前記マーカー110、111、112から放出された後、前記リフレクター120によって反射されて放出される光を受光してリフレクト画像を前記結像ユニット130に結像させる。
より詳細に説明すると、前記少なくとも3つのマーカー110、111、112によって放出された光は第1経路を通じて直接前記結像ユニット130側に伝達されて前記結像ユニット130のレンズを通過した後、前記結像ユニット130の本体部132に実装されたイメージセンサ133に前記マーカー110、111、112のダイレクト画像を結像させると同時に、前記少なくとも3つのマーカー110、111、112によって放出された光は第2経路を通じて前記リフレクター120によって反射された後、前記結像ユニット130側に伝達されて前記結像ユニット130のレンズ131を通過した後、前記結像ユニット130の本体部132に実装されたイメージセンサ133に前記マーカー110、111、112のリフレクト画像を結像させる。すなわち、前記マーカーによって放出された光は、2つの経路(第1経路:マーカーから結像ユニットへ、第2経路:マーカーからリフレクターを介して結像ユニットへ)で結像ユニット130に伝達されて前記結像ユニット130のイメージセンサ133にそれぞれのマーカー110、111、112に対してそれぞれの経路(第1及び第2経路)による2つの画像(ダイレクト画像とリフレクト画像)を結像させる。
上記のようにそれぞれのマーカー110、111、112のダイレクト画像とリフレクト画像が前記結像ユニット130に結像されれば、プロセッサ140により前記それぞれのマーカー110、111、112の3次元座標を算出する(S130)。
前記それぞれのマーカー110、111、112の3次元座標を算出する段階について、図5のブロック図を通じて詳細に説明すると次の通りである。
前記それぞれのマーカー110、111、112の3次元座標を算出するためには、まず前記プロセッサ140を通じて前記結像ユニット130に結像された前記マーカー110、111、112のダイレクト画像とリフレクト画像の2次元座標を算出する(S131)。
ここで、前記マーカー110、111、112のダイレクト画像の2次元座標と前記リフレクト画像の2次元座標を算出した後には、各座標系別にカメラキャリブレーション(calibration)を行う(S132)。
前記のように各座標系別にカメラキャリブレーションを行った後には、前記マーカー110、111、112のダイレクト画像の2次元座標と前記リフレクト画像の2次元座標を用いて、前記プロセッサ140を通じて前記それぞれのマーカー110、111、112の3次元座標を算出する(S133)。
前記それぞれのマーカー110、111、112の3次元座標を算出する段階について、図6及び図7を参照してさらに詳しく説明すると次の通りである。
図6に示すように、イメージセンサ133の一側をダイレクト画像のFOV(FIELD OF VIEW)、他側をリフレクト画像のFOVと仮想で分割し、前記イメージセンサ133のダイレクト画像の2次元座標を(U、V)座標系で表示し、前記リフレクト画像の2次元座標を(U'、V')と表示して図7を参照すると、画像におけるマーカー110、111、112の2次元座標と実空間におけるマーカー110、111、112の3次元座標は、数式1のような関係式で表現され得る。

ここで、mは画像におけるマーカーの2次元座標、Mは実空間におけるマーカーの3次元座標、A(R、t)はカメラマトリックスである。
これをより簡略に説明するために、実際のマーカー110、111、112の3次元座標をXとすれば、前記実際のマーカー110、111、112の3次元座標Xとダイレクト画像の座標XLの関係式と、前記実際のマーカー110、111、112の3次元座標Xとリフレクト画像の座標XRの関係式は数式2のように示すことができる。

ここで、前記Pはダイレクト画像のカメラマトリックス、Pはリフレクト画像のカメラマトリックスである。
そして、それぞれのマーカー110、111、112のダイレクト画像とリフレクト画像に対して、XL=PX、XR=PXの関係式はAX=0の線型方程式で表現が可能であり、これをまとめると、数式3のように示すことができる。

ここで、PiTは行列Pの行ベクトルである。
上記の数式を再度まとめると、数式4のように示すことができる。

ここで、Wはスケール因子である。
数式4のように表現された線型方程式を解いてX、Y、Zを求めると、その解がマーカー110、111、112の3次元座標となる。
上述したようにプロセッサ140によってそれぞれのマーカー110、111、112の実空間における3次元座標を算出した後には、前記それぞれのマーカー110、111、112の実空間における3次元座標と前記プロセッサ140に既に格納済の互いに隣り合うマーカー110、111、112間の幾何学的情報とをプロセッサ140を通じて比較して前記マーカー110、111、112が取り付けられた目的物200の空間位置及び方向を算出する(S140)。
ここで、前記互いに隣り合うマーカー110、111、112間の幾何学的情報は、上述したように互いに隣り合うマーカー110、111、112を連結する直線L1、L2、L3の長さ情報と、前記マーカー110、111、112を連結する互いに隣り合う一対の直線がなす角度A1、A2、A3情報であり得る。
すなわち、前記プロセッサ140を通じて前記それぞれのマーカー110、111、112の実空間における3次元座標と前記プロセッサ140に既に格納済の互いに隣り合うマーカー110、111、112を連結する直線L1、L2、L3の長さ情報と、それぞれのマーカー110、111、112を互いに連結する互いに隣り合う一対の直線がなす角度A1、A2、A3情報を比較して前記マーカー110、111、112が取り付けられた目的物200の空間位置及び方向を算出する。
上述したように本発明の一実施例によるトラッキングシステム及びこれを用いたトラッキング方法は、それぞれのマーカー110、111、112から放出される光が直接結像ユニット130に流入されてダイレクト画像が結像されると同時にリフレクター120によって反射されて前記結像ユニット130に流入されることにより、リフレクト画像が流入されるようにする。すなわち、それぞれのマーカー110、111、112から放出される光が2つの経路(第1経路:マーカーから結像ユニットへ、第2経路:マーカーからリフレクターを介して結像ユニットへ)で結像ユニット130に伝達されて前記結像ユニット130のイメージセンサ133にそれぞれのマーカー110、111、112に対してそれぞれの経路による2つの画像(ダイレクト画像とリフレクト画像)を結像させる。
したがって、本発明の一実施例によるトラッキングシステム及びこれを用いたトラッキング方法は、一台の結像ユニット130のみでも目的物200に取り付けられたマーカー110、111、112の空間位置及び方向を算出して確認することができる。
また、トラッキングシステムの製作費用の節減とともに小型・軽量化を達成することができるので、従来のトラッキングシステムに比べて手術空間の制約を相対的に少なく受けるという利点がある。
上述した本発明の詳細な説明では本発明の望ましい実施例を参照して説明したが、該当技術分野の熟練した当業者または該当技術分野に通常の知識を有する者であれば、後述する特許請求の範囲に記載された本発明の思想及び技術領域から逸脱しない範囲内で本発明を多様に修正及び変更させることができることを理解できるであろう。

Claims (9)

  1. 目的物に取り付けられて光を放出するか、または少なくとも1つの光源から放出される光を反射させる少なくとも3つのマーカーと、
    前記マーカーから放出されるか、または前記マーカーによって反射されて放出される光を反射させるリフレクターと、
    前記マーカーから放出される光を直接受光してダイレクト画像を結像させると同時に、前記マーカーから放出された後、前記リフレクターによって反射されて放出される光を受光してリフレクト画像を結像させる結像ユニットと、
    前記結像ユニットに結像された前記マーカーのダイレクト画像及びリフレクト画像を用いて前記マーカーの3次元座標をそれぞれ算出した後、前記マーカーの3次元座標と既に格納済の互いに隣り合うマーカー間の幾何学的情報を比較して前記目的物の空間位置及び方向を算出するプロセッサと
    を含むトラッキングシステム。
  2. 前記リフレクターは、前記マーカーから放出される光を前記結像ユニット側に反射させてリフレクト画像を結像させるミラーであることを特徴とする請求項1に記載のトラッキングシステム。
  3. 前記リフレクターは、前記結像ユニットと同一光路上に位置し、前記プロセッサの制御下で設置位置や角度、反射面の形状のうち少なくとも1つを変更して、前記リフレクト画像の結像位置を変化させることを特徴とする請求項1に記載のトラッキングシステム。
  4. 前記結像ユニットは、前記マーカーから直接放出される光と前記リフレクターによって反射された光を受光して画像を結像させるカメラであることを特徴とする請求項1に記載のトラッキングシステム。
  5. 前記マーカー間の幾何学的情報は、前記互いに隣り合うマーカーを連結する直線の長さ情報と、前記互いに隣り合う一対の直線がなす角度情報であることを特徴とする請求項1に記載のトラッキングシステム。
  6. 目的物に取り付けられた少なくとも3つのマーカーから放出される光を直接受光してダイレクト画像を結像ユニットに結像させると同時に、前記マーカーから放出された後、特定の位置に設けられて光を反射させるリフレクターによって放出される光を受光してリフレクト画像を結像ユニットに結像させる段階と、
    前記結像ユニットに結像された前記マーカーのダイレクト画像とリフレクト画像を用いてプロセッサを通じて前記それぞれのマーカーの3次元座標を算出する段階と、
    前記それぞれのマーカーの3次元座標と前記プロセッサに既に格納済の互いに隣り合うマーカー間の幾何学的情報とを比較して前記目的物の空間位置及び方向を算出する段階と
    を含むトラッキング方法。
  7. 前記マーカー間の幾何学的情報は、前記互いに隣り合うマーカーを連結する直線の長さ情報と、前記互いに隣り合う一対の直線がなす角度情報であることを特徴とする請求項6に記載のトラッキング方法。
  8. 前記リフレクト画像を結像ユニットに結像させる段階は、前記プロセッサでリフレクターの設置位置、角度及び反射面の形状の変更のうち少なくとも1つを制御して前記結像ユニットとの同一光路上で前記リフレクト画像の結像位置を変化させる段階を含むことを特徴とする請求項6に記載のトラッキング方法。
  9. 前記マーカーの3次元座標を算出する段階は、
    前記プロセッサを通じて前記結像ユニットに結像された前記マーカーのダイレクト画像とリフレクト画像の2次元座標を算出する段階と、
    前記マーカーのダイレクト画像の2次元座標と前記リフレクト画像の2次元座標を用いて前記プロセッサを通じて前記マーカーの3次元座標を算出する段階と
    を含むことを特徴とする請求項6に記載のトラッキング方法。
JP2015552571A 2013-01-10 2014-01-07 トラッキングシステム及びこれを用いたトラッキング方法 Active JP6147360B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020130002841A KR101371384B1 (ko) 2013-01-10 2013-01-10 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR10-2013-0002841 2013-01-10
PCT/KR2014/000131 WO2014109520A1 (ko) 2013-01-10 2014-01-07 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Publications (2)

Publication Number Publication Date
JP2016502905A true JP2016502905A (ja) 2016-02-01
JP6147360B2 JP6147360B2 (ja) 2017-06-14

Family

ID=50647854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552571A Active JP6147360B2 (ja) 2013-01-10 2014-01-07 トラッキングシステム及びこれを用いたトラッキング方法

Country Status (6)

Country Link
US (1) US9576366B2 (ja)
EP (1) EP2944285B1 (ja)
JP (1) JP6147360B2 (ja)
KR (1) KR101371384B1 (ja)
CN (1) CN104902840B (ja)
WO (1) WO2014109520A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101371387B1 (ko) * 2013-01-18 2014-03-10 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR101638477B1 (ko) * 2014-09-19 2016-07-11 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
US10363667B2 (en) * 2015-11-30 2019-07-30 Autodesk, Inc. Optical measurement of object location in three dimensions
CN109186947B (zh) * 2018-09-26 2019-11-12 福州大学 一种电器三维动态特性自动测试系统及方法
FR3103097B1 (fr) * 2019-11-19 2021-11-05 Quantum Surgical Méthode de navigation pour positionner un robot médical

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001506762A (ja) * 1997-09-26 2001-05-22 ノーザン・デジタル・インコーポレーテッド ターゲットの空間的位置を算出するためのシステム
JP2005537583A (ja) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド 物体の単一カメラ追跡方法及び装置
JP2007130398A (ja) * 2005-11-14 2007-05-31 Toshiba Corp 光学式位置計測装置
JP2009294048A (ja) * 2008-06-04 2009-12-17 Yokohama Rubber Co Ltd:The 移動体の挙動計測装置および移動体の挙動計測方法
EP2233099A2 (en) * 2009-03-24 2010-09-29 Masmec S.r.L. Computer-assisted system for guiding a surgical instrument during percutaneous diagnostic or therapeutic operations
JP2011179910A (ja) * 2010-02-26 2011-09-15 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5394875A (en) * 1993-10-21 1995-03-07 Lewis; Judith T. Automatic ultrasonic localization of targets implanted in a portion of the anatomy
JP2004507288A (ja) 2000-07-06 2004-03-11 ジンテーズ アクチエンゲゼルシャフト クール ぶつかり検知方法およびぶつかり検知装置
CN100491914C (zh) * 2001-01-30 2009-05-27 Z-凯特公司 器具的校准器及跟踪器系统
JP4628566B2 (ja) * 2001-03-12 2011-02-09 三菱電機株式会社 画像投写装置
EP1447644A1 (en) * 2003-02-14 2004-08-18 Metronor ASA Measurement of spatial coordinates
WO2005000139A1 (en) * 2003-04-28 2005-01-06 Bracco Imaging Spa Surgical navigation imaging system
DE10321749B4 (de) * 2003-05-09 2018-05-30 Trimble Jena Gmbh Verfahren und Anordnung zur Bestimmung der räumlichen Lage und Position eines Reflektorstabes in Bezug zu einem Aufhaltepunkt
US8128871B2 (en) * 2005-04-22 2012-03-06 Alverix, Inc. Lateral flow assay systems and methods
EP1645241B1 (de) * 2004-10-05 2011-12-28 BrainLAB AG Positionsmarkersystem mit Punktlichtquellen
US7390089B2 (en) * 2005-02-25 2008-06-24 20/10 Perfect Vision Optische Geraete Gmbh Device and method for aligning an eye with a surgical laser
JP4396564B2 (ja) 2005-04-01 2010-01-13 株式会社島津製作所 物体のモニタリング方法およびこれを用いたモーショントラッカ
US9867669B2 (en) * 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
US7720259B2 (en) * 2005-08-26 2010-05-18 Sony Corporation Motion capture using primary and secondary markers
DE112007000340T5 (de) * 2006-02-09 2008-12-18 Northern Digital Inc., Waterloo Retroreflektierende Markenverfolgungssysteme
DE102006010767B4 (de) * 2006-03-08 2008-04-17 Carl Zeiss Surgical Gmbh Mikroskopiesystem
JP4864516B2 (ja) 2006-04-07 2012-02-01 株式会社トプコン 眼科装置
US8131348B2 (en) * 2006-05-12 2012-03-06 Northshore University Healthsystem Systems, methods and apparatuses of elastic light scattering spectroscopy and low coherence enhanced backscattering spectroscopy
KR100835186B1 (ko) 2007-01-29 2008-06-04 주식회사 프리진 액티브 마커를 이용한 모션 캡춰용 마커 구분 시스템
WO2009023801A1 (en) * 2007-08-14 2009-02-19 Hansen Medical, Inc. Robotic instrument systems and methods utilizing optical fiber sensor
EP2826436B1 (en) * 2007-09-06 2018-03-28 Alcon LenSx, Inc. Precise targeting of surgical photodisruption
DE102010010192A1 (de) 2010-03-04 2011-09-08 Siemens Aktiengesellschaft Medizinische Untersuchungs- und/oder Behandlungsvorrichtung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001506762A (ja) * 1997-09-26 2001-05-22 ノーザン・デジタル・インコーポレーテッド ターゲットの空間的位置を算出するためのシステム
JP2005537583A (ja) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド 物体の単一カメラ追跡方法及び装置
JP2007130398A (ja) * 2005-11-14 2007-05-31 Toshiba Corp 光学式位置計測装置
JP2009294048A (ja) * 2008-06-04 2009-12-17 Yokohama Rubber Co Ltd:The 移動体の挙動計測装置および移動体の挙動計測方法
EP2233099A2 (en) * 2009-03-24 2010-09-29 Masmec S.r.L. Computer-assisted system for guiding a surgical instrument during percutaneous diagnostic or therapeutic operations
JP2011179910A (ja) * 2010-02-26 2011-09-15 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム

Also Published As

Publication number Publication date
EP2944285A1 (en) 2015-11-18
US9576366B2 (en) 2017-02-21
US20150302590A1 (en) 2015-10-22
KR101371384B1 (ko) 2014-03-07
JP6147360B2 (ja) 2017-06-14
WO2014109520A1 (ko) 2014-07-17
EP2944285B1 (en) 2017-10-18
CN104902840A (zh) 2015-09-09
CN104902840B (zh) 2017-08-01
EP2944285A4 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
US20220175464A1 (en) Tracker-Based Surgical Navigation
WO2023280326A1 (zh) 一种外科手术的主动导航系统及其控制方法
JP6147360B2 (ja) トラッキングシステム及びこれを用いたトラッキング方法
US8885177B2 (en) Medical wide field of view optical tracking system
EP3108266B1 (en) Estimation and compensation of tracking inaccuracies
JP2007209384A (ja) 視線ベクトル検出方法及び同装置
US20080107305A1 (en) Integrated mapping system
US20060173357A1 (en) Patient registration with video image assistance
JP2016515837A (ja) トラッキングシステム及びこれを用いたトラッキング方法
US20210038323A1 (en) Optical tracking system and tracking method using the same
JP2011504769A (ja) 光学追跡casシステム
JP2023501053A (ja) 医療ロボットを位置決めするためのナビゲーション方法
WO2019037605A1 (zh) Ar眼镜及其追踪系统
KR101446173B1 (ko) 트랙킹 시스템 및 이를 이용한 트랙킹 방법
JP5590487B2 (ja) 視線計測方法及び視線計測装置
JP6430813B2 (ja) 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
US20240115325A1 (en) Camera tracking system for computer assisted surgery navigation
US20220346882A1 (en) Devices, methods, and systems for robot-assisted surgery
EP4333756A1 (en) Devices, methods, and systems for robot-assisted surgery

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170516

R150 Certificate of patent or registration of utility model

Ref document number: 6147360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250