JPWO2018186363A1 - 計測器装着支援装置と計測器装着支援方法 - Google Patents

計測器装着支援装置と計測器装着支援方法 Download PDF

Info

Publication number
JPWO2018186363A1
JPWO2018186363A1 JP2019511239A JP2019511239A JPWO2018186363A1 JP WO2018186363 A1 JPWO2018186363 A1 JP WO2018186363A1 JP 2019511239 A JP2019511239 A JP 2019511239A JP 2019511239 A JP2019511239 A JP 2019511239A JP WO2018186363 A1 JPWO2018186363 A1 JP WO2018186363A1
Authority
JP
Japan
Prior art keywords
image
coordinates
imaging
measuring instrument
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019511239A
Other languages
English (en)
Other versions
JP6872817B2 (ja
Inventor
拓之 川口
拓之 川口
山田 亨
亨 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Publication of JPWO2018186363A1 publication Critical patent/JPWO2018186363A1/ja
Application granted granted Critical
Publication of JP6872817B2 publication Critical patent/JP6872817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0079Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/684Indicating the position of the sensor on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0406Constructional details of apparatus specially shaped apparatus housings
    • A61B2560/0425Ergonomically shaped housings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Neurology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Neurosurgery (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

被検体上の指定の位置にプローブ等の計測器を簡易かつ正確に装着させるよう支援する装置及び方法を提供することを課題とする。本課題を解決するために、被検体を撮像することにより得られた画像から予め定めた特徴点の座標を検出する座標検出部4と、モデル画像における上記特徴点の座標を上記検出により得られた座標に変換するための投影変換パラメータを算出する変換パラメータ算出部5と、被検体に装着させる計測器の位置をモデル画像において指定するための指定部7と、指定部7を用いて指定された位置の座標を、投影変換パラメータを用いて変換する座標変換部6と、座標変換部6による変換により得られた座標を撮像により得られた画像に表示する表示部8を備えた計測器装着支援装置1を提供する。

Description

本発明は、生体情報を取得する計測器の被検体への装着を支援する装置及び方法に関するものである。
非侵襲的な手段により脳内活動を観測する方法として、機能的近赤外分光法(functional near infrared spectroscopy: fNIRS)が知られている。このfNIRSでは、観測対象とする所望の脳領域に対し、その直上にプローブを当てることが必要となる。このため、特許文献1や2に見られるように、被検体がプローブを備えたホルダを頭部に装着する際の支援システム等が考案されている。
特開2009−261588号公報 特開2015−77331号公報
特許文献1に開示された技術では、被検体の頭部を計測毎に磁場ソースに対して固定した上で特徴点を電磁センサーで記録した後に、プローブの装着を行わなければならないため、被検体に対する拘束性が高いと共に、計測前の準備作業も煩雑であるという問題がある。
また、特許文献2に開示された技術では、計測毎に光学マーカを被検体に装着させる必要があり、それに伴って、頭部の形状によらず光学マーカを安定的に固定するための装具が必要となる。こうした装具は、プローブやプローブを固定している固定具に影響を与えないよう設計されなければならず、試行錯誤を要することになる。また、本技術はあくまで光学マーカの位置の再現性を向上させようとするものに過ぎず、初めて計測する際の位置決めをどのように行うかという課題は解決されていない。
本発明は、このような問題を解決するためになされたもので、被検体上の指定の位置にプローブ等の計測器を簡易かつ正確に装着させるよう支援する装置及び方法を提供することを目的とする。
上記課題を解決するため、本発明は、被検体を撮像することにより得られた画像から予め定めた特徴点の座標を検出する座標検出手段と、モデル画像における上記特徴点の座標を上記検出により得られた座標に変換するための投影変換パラメータを算出する変換パラメータ算出手段と、被検体に装着させる計測器の位置をモデル画像において指定するための指定手段と、指定手段を用いて指定された位置の座標を、投影変換パラメータを用いて変換する座標変換手段と、座標変換手段による変換により得られた座標を撮像により得られた画像に表示する表示手段を備えた計測器装着支援装置を提供する。
また、上記課題を解決するため、本発明は、被検体の外観を撮像することにより得られた画像から予め定めた特徴点の座標を検出する座標検出手段と、被検体の脳表面形状画像における上記特徴点の座標を上記検出により得られた座標に変換するための投影変換パラメータを算出する変換パラメータ算出手段と、投影変換パラメータを用いて、撮像により得られた画像と脳表面形状画像との間における対応点を求め、対応点同士を重ね合わせることによって脳表面形状画像と上記撮像により得られた画像を合成する画像合成手段を備えた計測器装着支援装置を提供する。
また、上記課題を解決するため、本発明は、被検体を撮像することにより得られた画像から予め定めた特徴点の座標を検出する第一のステップと、モデル画像における上記特徴点の座標を上記検出により得られた座標に変換するための投影変換パラメータを算出する第二のステップと、モデル画像において指定された、被検体に装着される計測器の位置座標を、投影変換パラメータを用いて変換し、変換された座標を撮像により得られた画像に表示する第三のステップを含む計測器装着支援方法を提供する。
本発明によれば、被検体上の指定の位置にプローブ等の計測器を簡易かつ正確に装着させることができる。
本発明の実施の形態1に係る計測器装着支援装置の構成例を示すブロック図である。 本発明の実施の形態に係る計測器装着支援方法を示すフローチャートである。 図2に示された計測器装着支援方法の具体例を示すフローチャートである。 図2に示されたモデル画像の作成方法を示すフローチャートである。 図2に示された特徴点の検出を自動的に行う方法を示すフローチャートである。 本発明の実施の形態1に係る計測器装着支援装置の他の構成例を示す図である。 本発明の実施の形態1に係る計測器装着支援装置のさらに他の構成例を示すブロック図である。 図7に示された可搬端末40の具体例を示す図である。 本発明の実施の形態2に係る計測器装着支援装置の構成例を示すブロック図である。
以下において、本発明の実施の形態を図面を参照しつつ詳しく説明する。なお、図中同一符号は同一又は相当部分を示す。
[実施の形態1]
本発明の実施の形態1に係る計測器装着支援装置は、専用のマーカを使用せず、被検体頭部の形態上の特徴点を基準マーカとして利用する。すなわち、上記特徴点は、被検体の頭部を撮像することにより得られた画像から自動検出される。さらに、この機能は動画映像を対象として実行され、実時間で基準マーカの検出が行われる。その後、本装置により、被検体の頭部を撮像することにより検出された基準マーカにモデル画像の基準点を一致させる投影変換のパラメータが求められ、モデル画像上に設定した計測器の装着位置が、求められたパラメータを用いて上記動画映像に投影される。このように、本装置は、計測器を装着すべき位置の動画上への実時間表示を実現することにより、上記被検体による当該計測器の正しい位置への装着を支援するものである。以下において、本装置をより詳しく説明する。
図1は、本発明の実施の形態1に係る計測器装着支援装置の構成例を示すブロック図である。図1に示されるように、本発明の実施の形態1に係る計測器装着支援装置1は、入力端子2と、入力端子2に接続されたバス3と、それぞれバス3に接続された座標検出部4、変換パラメータ算出部5、座標変換部6、指定部7、及び表示部8を含む。
図2は、本発明の実施の形態に係る計測器装着支援方法を示すフローチャートである。以下においては、図1に示された計測器装着支援装置1を用いて本方法を実現する場合を説明するが、本方法は他の手段を用いて実行されてもよく、計測器装着支援装置1を用いた場合に限られるものでないことは言うまでもない。
最初に、ステップS1において、座標検出部4は患者等の被検体を撮像することにより得られた画像から予め定めた特徴点の座標を検出する。次に、ステップS2において、変換パラメータ算出部5は、モデル画像における上記特徴点の座標を上記検出により得られた座標に変換するための投影変換パラメータを算出する。次に、ステップS3において、座標変換部6は、ユーザにより指定部7を用いて上記モデル画像において指定された、被検体に装着される計測器の位置座標を、投影変換パラメータを用いて変換し、表示部8は変換された座標を上記撮像により得られた画像に表示する。
図3は、図2に示された計測器装着支援方法の具体例を示すフローチャートである。以下においては、図3を参照しつつ、本具体例の概要を説明する。
予め顔画像のデータベース(顔画像DB)と3次元解剖画像のデータベース(3D解剖画像DB)を用意する。そして、事前処理として、ステップS10において顔画像DBから顔画像を読み出し、ステップS11において特徴点位置予測モデルを作成する。
計測器装着支援装置1は、ステップS1において、入出力端子2を介して外部から2次元顔画像を取得する。なお、図示していないが、計測器装着支援装置1が撮像部をさらに備え、撮像部により撮像された2次元顔画像を、図示していない記憶部に保存するようにしてもよい。
次に、ステップS2において、座標検出部4はステップS1で取得された2次元顔画像から、ステップS11で作成された予測モデルを利用して特徴点p’iを検出する。
一方、事前処理として、ステップS20では3D解剖画像DBから3次元モデルを読み出し、ステップS21でユーザにより3次元モデルの特徴点piが設定されると、変換パラメータ算出部5は特徴点piを特徴点p’iに変換する座標変換関数fを推定する。
そして、さらにユーザが、計測したい脳の部位を上記3次元モデル上において指定部7を用いて指定すると、ステップS23において3次元モデルにおける頭皮へのプローブ装着位置rが決定される。
これより、座標変換部6はステップS4において、ステップS3で推定された座標変換関数(変換パラメータ)を用いて、プローブ装着位置rに対応する2次元画像上でのプローブ装着位置r’を計算する。
そして、表示部8はステップS5において、ステップS4において算出されたプローブ装着位置r’を2次元ビデオ画像に重ねて表示する。なお、以上のような図3に示されたステップS1〜S5の手順は、リアルタイムに実行される。
以下において、図3に示された計測器装着支援方法について詳述する。
まず、図3のステップS2に示された特徴点の検出方法について、図4及び図5を用いて、被検体頭部の2次元画像から形態上の特徴点(基準マーカ)を自動検出する場合を例として詳しく説明する。
図4は、図3のステップS11に示された予測モデルを作成する方法を示すフローチャートである。以下においては、図4を参照しつつ、上記予測モデルを作成する方法を具体的に説明する。
多数の人物の顔画像上で、例えば鼻根や耳介、目尻などの特徴点の座標が指定され、教師データが作成される。そして、作成された教師データを用いて機械学習を実行し、数式からなる予測モデルを構築する。
より具体的には、ステップS1では、人の顔が写っているn個のデジタル画像(顔画像)の各々において、m個の解剖学的特徴点の座標p(n)(以下「特徴点座標データ」という。)を抽出し、ステップS2において正規化する。
なお、正規化された特徴点座標データsは、例えば以下の式(1)に示されるように、右目中央、左目中央、口唇右端、口唇左端などといった特徴点の2次元空間上における座標(xi,yi)を、予め決められた順序で配置することにより作成され、このようなフォーマットは全ての特徴点座標データにおいて共通なものとされる。
Figure 2018186363
次に、ステップS3において、全特徴点座標データの平均となる平均座標s0と、係数(変位)ベクトルviを算出する。ここで、変位ベクトルviは、例えば以下の式(2)で示されるデータ行列Xに対する主成分分析によって求められる。なお、iは変位ベクトルの数を示す。
Figure 2018186363
次に、ステップS4において、変位量aiを用いた次式(3)で示される全特徴点座標データsからなる形状モデルを取得する。
Figure 2018186363
上式(3)において、ベクトルVは変位ベクトルviから生成されるベクトルであり、行列aは変位量aiから生成される行列とされる。
一方、ステップS5では、最初に、各特徴点の周辺画素における輝度プロファイルgm,nを取得する。この輝度プロファイルは、例えば、顔画像のある特徴点を中心とした(3x3)ピクセルの輝度値を取得し、この中の最大値が1で最小値が0となるように規格化した上で、(3x3)ピクセルの規格化された輝度値を、例えば(x-1,y-1),(x,y-1),(x+1,y-1),(x-1,y),(x,y),(x+1,y),(x-1,y+1),(x,y+1),(x+1,y+1)という決まった順序で並べてできる1次元ベクトルとされる。
次に、各特徴点について、その周辺の輝度プロファイルの平均g0と共分散行列Gを算出する。ここで、共分散行列Gはばらつきを示すものであり、例えば、データ列(gm,0, gm,1, … , gm,n)より作成された分散共分散行列とされる。
このようにして、ステップS6では、以上の方法で算出されたm個の平均g0,m及び共分散行列Gmからなるプロファイルモデルが取得される。
図5は、図3のステップS2における特徴点(基準マーカ)の座標検出を自動的に行う方法を示すフローチャートである。以下において、図5を参照しつつ、座標検出部4が基準マーカを自動検出する方法を具体的に説明する。
ステップS1では、座標検出部4は入出力端子2及びバス3を介して顔画像を入力する。なお、図1には図示していないバス3に接続された記憶部に予め顔画像を格納しておき、この顔画像をバス3経由で座標検出部4に入力されるようにしてもよい。
次に、ステップS2では、座標検出部4は、入力された各画像において顔領域を検出する。ここで、顔領域とは長方形などで規定される顔全域を含む領域を意味する。この顔領域Φを検出するには、ハールライク(Harr-like)特徴などを用いる手法がある。
次に、ステップS3では、座標検出部4は、形状モデルをステップS2で検出された顔領域に初期配置する。この初期配置においては、例えば顔領域の検出にHarr-like特徴を用いた場合、顔の方向は特定できているため、形状モデルは当該モデル中の平均座標s0の重心が顔領域Φの中心と合致するよう配置される。なお、本初期配置により、上記の特徴点(基準マーカ)に相当する解剖学的なランドマーク群の初期座標p’i=0が決まることになる。
次に、ステップS4では、座標検出部4は、m個の特徴点の座標p’iそれぞれの近傍に探索領域を設け、各探索領域内でプロファイルモデルに最も一致するプロファイルを有する画素(点)を探索する。なお、探索領域は例えば(5x5)の長方形などとされる。
ここで、プロファイルの類似性の尺度fpは、探索領域内の各点の輝度プロファイルg’m,iを用いて次式のように示される。
Figure 2018186363
そして、ステップS5において、座標検出部4は、特徴点の座標p’iを各探索領域内で尺度fpが最小となる座標に更新する。このようにして全ての特徴点の座標を更新した後、ステップS6において座標検出部4は、ステップS2において検出された顔領域の画像と形状モデルとの適合性を検査する。
このとき、次式(5)で算出される尺度fsが一定値より小さければステップS7へ進み、座標検出部4は座標p’iを特徴点として出力すると共に、そうでなければステップS8へ進み、座標検出部4は、特徴点としての座標p’iを推定できず検出不能であることを示すデータを出力する。
Figure 2018186363
以下では、図3に示されたステップS3において、変換パラメータ算出部5が投影変換パラメータを算出することにより座標変換関数fを推定する方法を具体的に説明する。なお、ここでは一例として、図3に示されたステップS2で検出された特徴点は2次元の基準マーカであり、モデル画像は被検体の3次元解剖学的画像である場合を説明する。
まず、被検体の頭部の3次元解剖学的画像を磁気共鳴画像(MRI)で取得する。本画像は被検体の脳や頭皮の表面を容易に識別できるものであればよく、一例としてT1強調画像が挙げられる。そして、ユーザは指定部7を用いて、MRIの輝度情報を基に仮想空間座標系を設定し、頭皮表面にある複数の解剖学的な基準点の座標pi(Xi,Yi,Zi)を指定する。
なお、この指定された基準点は、上記において図4を参照しつつ説明された2次元空間上で記録された特徴点に相当するものであり、予め決められた順序で記録される。
3次元頭部解剖学的画像上の任意の点xは、次式(6)によりビデオカメラで記録された2次元画像上の座標x”に投影することができる。
Figure 2018186363
ここで、sは拡大率、Aは投影面の中心座標と焦点距離で構成される(2x3)の行列であり、これらは2次元画像の撮像条件として与えられる既知なパラメータである。一方、R及びtは、それぞれ回転行列と変位ベクトルであり、投影変換パラメータとして任意性を持つ。しかし、3次元仮想空間の特徴点群の投影p”iが同画像空間で検出した特徴点群p’iに最もよく一致するように、この2次元画像内で照合させることにより、回転行列R及び変位ベクトルtを一意に決定することが可能である。
そのように決定された回転行列R及び変位ベクトルtを用いれば、式(6)を用いて仮想空間上の任意の点xは現実空間の2次元座標上の点x”に投影できる。なお、回転行列R及び変位ベクトルtの決定には、例えば線形計画法を用いることができる。
次に、図3に示されたステップS4において、座標変換部6が、算出された投影変換パラメータを用いて、装着された計測器の位置座標を式(6)により変換し、図3に示されたステップS5において、表示部8が変換された位置座標を表示する方法を具体的に説明する。なお、ここでは一例として、プローブの装着位置を動画映像に2次元投影して表示する場合を説明する。
ユーザは、3次元頭部解剖学的画像からの輝度情報を基に、指定部7を用いて測定対象にしたい脳領域の中心座標rbを指定し、座標変換部6は、例えばその直上に当たる頭皮位置の座標rを基準として次式(7)を用いて、プローブを装着すべき位置、すなわち2次元ビデオ画像上の座標r’を算出する。
Figure 2018186363
そして、表示部8は、式(7)を用いて算出された座標r’の位置を当該2次元ビデオ画像に重ね合わせて表示する。
なお、脳の表面は凹凸があるので、単純に中心座標rbにおける法線が直上の点を通るとは限らない。そこで、中心座標rbからユークリッド距離が最短となる頭皮上の点の座標rsを算出する。そして、このような方法で算出された座標rsを上記頭皮位置の座標rとして、この点がプローブの照射点と検出点の中心となるようにプローブを装着すれば良いことになる。
以上のような一連の処理を動画に対して実時間で実行すれば、被検体頭部の2次元動画像をモニターするに際して被検体の頭部や撮影者が動いていても、プローブを装着すべき位置を2次元動画像上でリアルタイムに確認することができる。
なお、以上のような計測器装着支援方法は、図2から図5に示された手順をコンピュータで実行可能なプログラムで表した上で、図6に示されるような計測器装着支援装置20のメモリ22に本プログラムを格納してCPU21に実行させることによっても実現することができる。
また、上記計測器装着支援方法は、図7に示されるような計測器装着支援装置によっても実現できる。ここで、図7に示された計測器装着支援装置は、共にインターネット回線101,102を介してネットワーク100に接続されたパーソナルコンピュータ(PC)30及び可搬端末40から構成される。
ここで、PC30は入出力端子2と、入出力端子2及びインターネット回線101に接続されたバス3と、それぞれバス3に接続された演算部31、記憶部32、及び入力部33を備える。また、可搬端末40は、インターネット回線102に接続されたバス3と、それぞれバス3に接続された演算部41、記憶部42、撮影部43、及び表示部44を備える。以下において、このような構成を有する計測器装着支援装置の動作を説明する。
まず、PC30は、事前にMRIにより取得された頭部解剖学的構造データを入出力端子2又はインターネット回線101、及びバス3を介して記憶部32に保存する。また同様に、PC30は、顔画像DBから顔画像とその特徴点を入出力端子2又はインターネット回線101、及びバス3を介して記憶部32に保存する。そして、演算部31は、記憶部32に保存された画像等を用いて予測モデルを作成する。
次に、ユーザが入力部33を用いて頭部解剖学的構造データ上の皮膚表面に複数の特徴点piを指定し、さらに、計測対象とする脳組織を指定すると、演算部31は上記脳組織の直上の皮膚表面のプローブ装着位置rを計算する。そして、演算部31で作成された予測モデルと算出されたプローブ装着位置rは、インターネット回線101,102とネットワーク100、及びバス3を介して可搬端末40の記憶部42に転送される。
可搬端末40では、演算部41が、撮影部43による撮影により得られた顔のビデオ動画で被検体の顔が写っている1フレームと記憶部42に格納された予測モデルに基づいて、仮想空間で設定した特徴点piに対応するビデオフレーム上の特徴点p’iを計算する。
さらに、演算部41は、特徴点piを特徴点p’iに変換する写像関数fを求め、特徴点piと同一空間にあるプローブ装着位置rをビデオフレーム座標系の位置r’に変換する。そして、表示部44は、ビデオフレームに位置r’を表示する。
これにより、可搬端末40が上記処理をリアルタイムに実行することで、ユーザは可搬端末40によって様々な角度から撮影されたビデオ動画において頭皮上のプローブ装着位置を確認できるため、被検体頭部におけるプローブ装着位置を3次元的に正確に把握することができる。
なお、図7に示された可搬端末40は、スマートフォンの他、図8に示されたタブレット型コンピュータ、ヘッドマウント型ディスプレイを有したコンピュータなど、動画の撮像や表示、及び演算処理を並列処理することができ、ユーザが携帯できるものにより実現される。
ここで、可搬端末40に含まれた表示部44は、例えば図8に示されるようなディスプレイ46により構成されるが、撮影部43を上記ディスプレイの背面側及び正面側に備えられたカメラにより構成することが考えられる。
この場合、上記背面側及び正面側に備えられたカメラは、ユーザにより一方が任意に選択されるようにすると良い。背面側のカメラが選択された場合には、オペレータが可搬端末40を保持して被検体の頭部を撮像し、正面側のカメラ45が選択された場合には、図8に示されるように被検体自身が自己の頭部を撮像するといった2通りの使い方を一台の可搬端末40で実現できるためである。
そして、正面側のカメラが選択された場合には、可搬端末40に含まれた演算部41が、上記カメラで撮像された画像を垂直軸に対して画像反転させて上記ディスプレイに表示させることにより、当該被検体は、図8に示されるように、自己の頭部を鏡のように見ることができるため、プローブPbを頭部へ装着すべき位置Prを直感的に把握することが容易になる。
一方、背面側のカメラが選択された場合には、例えば、オペレータは可搬端末40を片手で持ち、ディスプレイ46を視認しながら被検体の頭部を様々な角度から撮像しつつ、他方の手でプローブPbを所定の位置に置くといった方法でプローブPbを装着すべき位置Prを調整するということも可能になる。
以上より、本発明の実施の形態に係る計測器装着支援装置や計測器装着支援方法によれば、従来必要だった専用マーカや大掛かりな装置を用いることなく、所望の脳領域直上の頭表に精度よくプローブを装着するための支援を簡便に行うことができる。また、このように精度の高いプローブの装着が実現できるため、多数のプローブを装着する必要もない。
[実施の形態2]
図9は、本発明の実施の形態2に係る計測器装着支援装置の構成例を示すブロック図である。図9に示されるように、計測器装着支援装置10は、入出力端子2と、入出力端子2に接続されたバス3と、それぞれバス3に接続された座標検出部4、変換パラメータ算出部12、及び画像合成部13とを備える。
なお、計測器装着支援装置10は、実施の形態1に係る計測器装着支援装置と同様な動作を行うことから、共通する点については説明を省略し、以下においては相違点について説明する。
変換パラメータ算出部12は、予めMRI等により取得された被検体の脳表面形状画像における特徴点の座標を、座標検出部4による検出により得られた座標に変換するための投影変換パラメータを、図1に示された変換パラメータ算出部5により実行される上記計測器装着支援方法と同様な方法により算出する。
また、画像合成部13は、変換パラメータ算出部12により算出された投影変換パラメータを用いて、撮像画像と脳表面形状画像との間における対応点を求め、対応点同士を重ね合わせることによって上記脳表面形状画像と上記撮像画像を合成する。
なお、上記脳表面形状画像と上記撮像画像は、入出力端子2を介して計測器装着支援装置10の外部から取得される。ここで、撮像画像については、計測器装着支援装置10の内部に撮像部及び記憶部をさらに備え、撮像部により撮像された画像を記憶部に保存するようにしてもよい。
以上のような本発明の実施の形態2に係る計測器装着支援装置10によれば、実施の形態1に係る計測器装着支援装置と同様にリアルタイム処理を行うことによって、リアルタイムに撮像されたユーザの頭部画像に脳表面形状画像を重ねて表示することができるため、ユーザは予めプローブ装着位置を指定せずとも、脳領域を確認しながらプローブを装着することができる。
なお、上記において、解剖学的画像には、例えば脳の領域毎の区分やラベル、機能的磁気共鳴画像や脳波計などに基づく脳機能活動信号の分布画像、前回計測時に記録したプローブ位置等の情報を重ねて表示するようにしても良い。
また、データベースに予めプローブの形状を登録しておき、プローブの位置を表示する代わりに、現実空間における被検体頭部画像にこのプローブ形状を表示しても良い。
1,10,20 計測器装着支援装置
4 座標検出部
5,12 変換パラメータ算出部
6 座標変換部
7 指定部
8,44 表示部
13 画像合成部
21 中央演算処理装置(CPU)
22 メモリ
30 パーソナルコンピュータ(PC)
31,41 演算部
32,42 記憶部
33 入力部
40 可搬端末
45 カメラ
46 ディスプレイ

Claims (9)

  1. 被検体を撮像することにより得られた画像から予め定めた特徴点の座標を検出する座標検出手段と、
    モデル画像における前記特徴点の座標を前記検出により得られた座標に変換するための投影変換パラメータを算出する変換パラメータ算出手段と、
    前記被検体に装着させる計測器の位置を前記モデル画像において指定するための指定手段と、
    前記指定手段を用いて指定された前記位置の座標を、前記投影変換パラメータを用いて変換する座標変換手段と、
    前記座標変換手段による変換により得られた座標を前記撮像により得られた画像に表示する表示手段を備えた計測器装着支援装置。
  2. 前記撮像により得られた画像は動画像であり、
    前記座標検出手段は、前記予め定めた特徴点の座標をリアルタイムに検出し、
    前記変換パラメータ算出手段は、前記投影変換パラメータをリアルタイムに算出し、
    前記座標変換手段は、前記指定手段を用いて指定された前記位置の座標を、リアルタイムに算出された前記投影変換パラメータを用いてリアルタイムに変換し、
    前記表示手段は、前記座標変換手段による変換によりリアルタイムに得られた座標を、前記動画像にリアルタイムに表示する、請求項1に記載の計測器装着支援装置。
  3. 前記被検体を撮像する撮像手段をさらに備え、
    前記表示手段は、前記撮像手段により撮像された前記動画像を、垂直軸に対して左右反転させて表示する、請求項2に記載の計測器装着支援装置。
  4. 前記撮像により得られた画像は2次元画像であり、
    前記モデル画像は3次元画像である、請求項1又は2に記載の計測器装着支援装置。
  5. 被検体の外観を撮像することにより得られた画像から予め定めた特徴点の座標を検出する座標検出手段と、
    前記被検体の脳表面形状画像における前記特徴点の座標を前記検出により得られた座標に変換するための投影変換パラメータを算出する変換パラメータ算出手段と、
    前記投影変換パラメータを用いて、前記撮像により得られた画像と前記脳表面形状画像との間における対応点を求め、前記対応点同士を重ね合わせることによって前記脳表面形状画像と前記撮像により得られた画像を合成する画像合成手段を備えた計測器装着支援装置。
  6. 被検体を撮像することにより得られた画像から予め定めた特徴点の座標を検出する第一のステップと、
    モデル画像における前記特徴点の座標を前記検出により得られた座標に変換するための投影変換パラメータを算出する第二のステップと、
    前記モデル画像において指定された、前記被検体に装着される計測器の位置座標を、前記投影変換パラメータを用いて変換し、変換された座標を前記撮像により得られた画像に表示する第三のステップを含む計測器装着支援方法。
  7. 前記撮像により得られた画像は動画像であり、
    前記第一のステップでは、前記予め定めた特徴点の座標をリアルタイムに検出し、
    前記第二のステップでは、前記投影変換パラメータをリアルタイムに算出し、
    前記第三のステップでは、リアルタイムに前記投影変換パラメータを用いた変換を行って、変換された座標を前記動画像にリアルタイムに表示する、請求項6に記載の計測器装着支援方法。
  8. 前記第三のステップでは、前記撮像により得られた前記動画像を、垂直軸に対して左右反転させて表示する、請求項7に記載の計測器装着支援方法。
  9. 前記撮像により得られた画像は2次元画像であり、
    前記モデル画像は3次元画像である、請求項6又は7に記載の計測器装着支援方法。

JP2019511239A 2017-04-07 2018-04-02 計測器装着支援装置と計測器装着支援方法 Active JP6872817B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2017076815 2017-04-07
JP2017076815 2017-04-07
JP2017184998 2017-09-26
JP2017184998 2017-09-26
PCT/JP2018/014158 WO2018186363A1 (ja) 2017-04-07 2018-04-02 計測器装着支援装置と計測器装着支援方法

Publications (2)

Publication Number Publication Date
JPWO2018186363A1 true JPWO2018186363A1 (ja) 2020-02-20
JP6872817B2 JP6872817B2 (ja) 2021-05-19

Family

ID=63712504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019511239A Active JP6872817B2 (ja) 2017-04-07 2018-04-02 計測器装着支援装置と計測器装着支援方法

Country Status (4)

Country Link
US (1) US11399778B2 (ja)
JP (1) JP6872817B2 (ja)
CN (1) CN110520056B (ja)
WO (1) WO2018186363A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003088528A (ja) * 2001-09-18 2003-03-25 Hitachi Medical Corp 生体光計測装置
JP2006320425A (ja) * 2005-05-17 2006-11-30 Osamu Hiwaki 磁気刺激における刺激部位の特定あるいはターゲッティングを行うための装置
JP2014030621A (ja) * 2012-08-03 2014-02-20 Sony Corp 情報処理装置、プログラム及び生体信号測定セット
WO2014184904A1 (ja) * 2013-05-15 2014-11-20 株式会社島津製作所 ホルダ装着支援システム、ホルダ装着支援装置およびホルダ装着支援方法
JP2017038878A (ja) * 2015-08-21 2017-02-23 株式会社日立製作所 生体光計測装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08252227A (ja) * 1995-03-17 1996-10-01 Ono Taketoshi 立体形状の頭皮電位分布のカラー表示方法
US7233684B2 (en) * 2002-11-25 2007-06-19 Eastman Kodak Company Imaging method and system using affective information
JP4585471B2 (ja) * 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
EP1881453A3 (en) * 2006-07-18 2009-07-22 Kabushiki Kaisha Toshiba A medical image-processing apparatus and a method for processing medical images
WO2008032234A1 (en) * 2006-09-11 2008-03-20 Philips Intellectual Property & Standards Gmbh System and method for positioning electrodes on a patient body
JP4876808B2 (ja) * 2006-09-14 2012-02-15 株式会社島津製作所 脳機能データ制御装置
CN101375805A (zh) * 2007-12-29 2009-03-04 清华大学深圳研究生院 一种计算机辅助引导电子内窥镜操作的方法和系统
JP4968167B2 (ja) 2008-04-24 2012-07-04 株式会社島津製作所 光生体測定装置及びそれに用いられるホルダ配置支援システム
EP2189945A1 (en) * 2008-11-21 2010-05-26 A&P ip B.V. Method of and arrangement for linking image coordinates to coordinates of reference model
CN101499132B (zh) * 2009-03-12 2013-05-01 广东药学院 一种人脸图像中特征点提取的三维变换搜索方法
CA2769961A1 (en) * 2009-05-07 2010-11-11 J&M Shuler, Inc. Method and system for monitoring oxygenation levels of compartments and tissue
JP2010273021A (ja) * 2009-05-20 2010-12-02 Sony Corp 画像表示装置、画像表示方法
US8368771B2 (en) * 2009-12-21 2013-02-05 Olympus Imaging Corp. Generating a synthesized image from a plurality of images
US8774481B2 (en) * 2010-03-25 2014-07-08 Emory University Atlas-assisted synthetic computed tomography using deformable image registration
US9198624B2 (en) * 2010-07-06 2015-12-01 Hitachi Medical Corporation Biological photometric device and biological photometry method using same
WO2012121341A1 (ja) * 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
WO2013179427A1 (ja) * 2012-05-30 2013-12-05 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US8922788B2 (en) * 2012-12-22 2014-12-30 Covidien Lp Methods and systems for determining a probe-off condition in a medical device
AU2014237893B2 (en) * 2013-03-15 2018-11-08 Empi, Inc. Personalized image-based guidance for energy-based therapeutic devices
JP6079551B2 (ja) 2013-10-18 2017-02-15 株式会社島津製作所 ホルダ位置合わせ支援装置および脳機能計測装置
US9867561B2 (en) * 2014-01-27 2018-01-16 Covidien Lp Systems and methods for determining whether regional oximetry sensors are properly positioned
US20150243035A1 (en) * 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
US20160042557A1 (en) * 2014-08-08 2016-02-11 Asustek Computer Inc. Method of applying virtual makeup, virtual makeup electronic system, and electronic device having virtual makeup electronic system
US10154815B2 (en) * 2014-10-07 2018-12-18 Masimo Corporation Modular physiological sensors
JP6591229B2 (ja) * 2015-08-11 2019-10-16 東芝エネルギーシステムズ株式会社 患者の位置決め装置、装置の作動方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003088528A (ja) * 2001-09-18 2003-03-25 Hitachi Medical Corp 生体光計測装置
JP2006320425A (ja) * 2005-05-17 2006-11-30 Osamu Hiwaki 磁気刺激における刺激部位の特定あるいはターゲッティングを行うための装置
JP2014030621A (ja) * 2012-08-03 2014-02-20 Sony Corp 情報処理装置、プログラム及び生体信号測定セット
WO2014184904A1 (ja) * 2013-05-15 2014-11-20 株式会社島津製作所 ホルダ装着支援システム、ホルダ装着支援装置およびホルダ装着支援方法
JP2017038878A (ja) * 2015-08-21 2017-02-23 株式会社日立製作所 生体光計測装置

Also Published As

Publication number Publication date
CN110520056A (zh) 2019-11-29
US11399778B2 (en) 2022-08-02
WO2018186363A1 (ja) 2018-10-11
JP6872817B2 (ja) 2021-05-19
US20200196963A1 (en) 2020-06-25
CN110520056B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
US11576645B2 (en) Systems and methods for scanning a patient in an imaging system
US11253171B2 (en) System and method for patient positioning
US10507002B2 (en) X-ray system and method for standing subject
US11576578B2 (en) Systems and methods for scanning a patient in an imaging system
US8577439B2 (en) System and method for positioning electrodes on a patient body
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
US7848547B2 (en) Apparatus for detecting feature point and method of detecting feature point
JP6290723B2 (ja) 手術支援装置および手術支援システム
TW201944954A (zh) 手術導引系統
EP3086134A1 (en) Motion correction in magnetic resonance imaging
JP5995408B2 (ja) 情報処理装置、撮影システム、情報処理方法および情報処理をコンピュータに実行させるためのプログラム
JP2016202351A (ja) 医療支援システム、医療支援方法、画像処理装置およびその制御方法と制御プログラム
JP2019532728A (ja) 磁気共鳴イメージングのための知的モデルベースの患者ポジショニングシステム
JP6593673B2 (ja) 身体情報取得装置および身体情報取得方法
JP2012061019A (ja) 画像処理装置、方法およびプログラム
JP6872817B2 (ja) 計測器装着支援装置と計測器装着支援方法
JP2021078692A (ja) 放射線撮影システム、放射線撮影方法、画像処理装置およびプログラム
JP6155177B2 (ja) 画像診断支援装置に画像処理を実行させるためのコンピュータプログラム、装置及び方法
US10049480B2 (en) Image alignment device, method, and program
JP2010219645A (ja) 撮影補助装置、プログラムおよび撮影システム
JP7360243B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6358816B2 (ja) 医用画像診断装置およびそれに用いる画像処理方法
TW201742003A (zh) 測量裝置及測量方法
JP2024523447A (ja) Mriシステムでの3d位置決めデータの決定
WO2024033352A1 (en) Patient motion detection in diagnostic imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210413

R150 Certificate of patent or registration of utility model

Ref document number: 6872817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250