JP6968289B2 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP6968289B2 JP6968289B2 JP2020538234A JP2020538234A JP6968289B2 JP 6968289 B2 JP6968289 B2 JP 6968289B2 JP 2020538234 A JP2020538234 A JP 2020538234A JP 2020538234 A JP2020538234 A JP 2020538234A JP 6968289 B2 JP6968289 B2 JP 6968289B2
- Authority
- JP
- Japan
- Prior art keywords
- shape
- image
- unit
- insertion portion
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title description 4
- 238000003780 insertion Methods 0.000 claims description 121
- 230000037431 insertion Effects 0.000 claims description 121
- 238000001514 detection method Methods 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 description 52
- 239000002131 composite material Substances 0.000 description 28
- 238000001839 endoscopy Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000007689 inspection Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229910001353 gamma loop Inorganic materials 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/005—Flexible endoscopes
- A61B1/009—Flexible endoscopes with bending or curvature detection of the insertion part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Description
本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
従来、内視鏡による被検体の体内の検査(以下、「内視鏡検査」という)において、被検体の体内に挿入された内視鏡の挿入部の形状を検出して挿入部の形状を表す形状画像を表示部に表示させることにより、内視鏡検査を支援する場合がある。
例えば、特許文献1には、内視鏡により得られた内視鏡画像と、形状画像とを合成して、表示部に表示させる技術が記載されている。また例えば、特許文献2には、所定の視点方向から観察した場合の内視鏡の挿入部の形状と、その視点方向と90度異なる視点方向からの挿入部の形状とを表示部に表示させる技術が記載されている。
しかしながら、上記特許文献1及び特許文献2に記載の技術では、形状画像を表示させるものの、挿入部の形状として予め定められた形状、例えば、検査者が状態の観察を行いたい、いわゆるループ形状等の観察を行うための表示としては、不十分である場合があった。そのため、検査者が、内視鏡の挿入部の形状について、把握し難い場合があった。
本開示は、以上の事情を鑑みて成されたものであり、内視鏡の挿入部の形状の把握を容易にすることができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1の態様の画像処理装置は、内視鏡における被検体に挿入する挿入部の形状を取得する取得部と、予め定められた形状が記憶された記憶部と、挿入部の形状に記憶部に記憶された予め定められた形状が含まれるか否かを判定する判定部と、挿入部の形状に予め定められた形状が含まれないと判定した場合、第1の視点方向からの挿入部の形状を表す第1形状画像を表示部に表示させ、挿入部の形状に予め定められた形状が含まれると判定した場合、第1形状画像、及び第1の視点方向とは異なる第2の視点方向からの挿入部の予め定められた形状に対応する部分を含む第2形状画像を表示部に表示させる制御を行う表示制御部と、を備える。
本開示の第2の態様の画像処理装置は、第1の態様の画像処理装置において、判定部が挿入部の形状に予め定められた形状が含まれないと判定した場合に、第1の視点方向からの挿入部の形状を表す第1形状画像を生成し、判定部が挿入部の形状に予め定められた形状が含まれると判定した場合に、第1形状画像、及び第1の視点方向とは異なる第2の視点方向からの挿入部の予め定められた形状に対応する部分を含む第2形状画像を生成する生成部をさらに備えた。
また、本開示の第3の態様の画像処理装置は、第1の態様または第2の態様の画像処理装置において、予め定められた形状は、ループ形状である。
本開示の第4の態様の画像処理装置は、第3の態様の画像処理装置において、第2の視点方向は、挿入部のループ形状部分の交差する点からループ形状部分の中心点を結んだ方向である。
本開示の第5の態様の画像処理装置は、第3の態様の画像処理装置において、第2の視点方向は、挿入部のループ形状部分の交差状態を把握するための視点方向として予め定められた方向である。
本開示の第6の態様の画像処理装置は、第1の態様から第5の態様のいずれか1態様の画像処理装置において、表示制御部は、判定部が挿入部の形状に予め定められた形状が含まれると判定した場合、第2形状画像を、表示部における第1形状画像内の一部の領域に表示させる制御を行う。
本開示の第7の態様の画像処理装置は、第1の態様から第6の態様のいずれか1態様の画像処理装置において、表示制御部は、判定部が挿入部の形状に予め定められた形状が含まれると判定した場合、第2の視点方向が視認可能な情報を更に表示部に表示させる制御を行う。
本開示の第8の態様の画像処理装置は、第1の態様から第7の態様のいずれか1態様の画像処理装置において、表示制御部は、判定部が挿入部の形状に予め定められた形状が含まれると判定した場合、第2の視点方向を変化させた第2形状画像を、変化させた第2の視点方向毎に表示させる制御を行う。
本開示の第9の態様の画像処理装置は、第1の態様から第7の態様のいずれか1態様の画像処理装置において、表示制御部は、挿入部の形状に予め定められた形状が含まれる場合、挿入部の予め定められた形状に対応する部分を回転させた第2形状画像を、回転させた回転位置毎に表示させる制御を行う。
本開示の第10の態様の画像処理装置は、第1の態様から第9の態様のいずれか1態様の画像処理装置において、第1の視点方向は、挿入部の全体の形状を把握するための視点方向として予め定められた方向である。
本開示の第11の態様の画像処理装置は、第1の態様から第10の態様のいずれか1態様の画像処理装置において、表示制御部は、内視鏡により得られた内視鏡画像をさらに、表示部に表示させる制御を行う。
本開示の第12の態様の画像処理装置は、第1の態様から第11の態様のいずれか1態様の画像処理装置において、内視鏡における被検体に挿入する挿入部の形状を検出する検出部をさらに備え、取得部は、検出部から挿入部の形状を取得する。
本開示の第14の態様の画像処理プログラムは、内視鏡における被検体に挿入する挿入部の形状を取得し、記憶部に記憶された予め定められた形状を取得し、挿入部の形状が予め定められた形状に含まれるか否かを判定し、挿入部の形状に予め定められた形状が含まれない場合、第1の視点方向からの挿入部の形状を表す第1形状画像を表示部に表示させ、挿入部の形状に予め定められた形状が含まれる場合、第1形状画像、及び第1の視点方向とは異なる第2の視点方向からの挿入部の予め定められた形状に対応する部分を含む第2形状画像を表示部に表示させる制御を行う、処理をコンピュータに実行させるためのものである。
また、本開示の画像処理装置は、プロセッサを有する画像処理装置であって、プロセッサが、内視鏡における被検体に挿入する挿入部の形状を取得し、挿入部の形状に予め定められた形状が含まれない場合、第1の視点方向からの挿入部の形状を表す第1形状画像を表示部に表示させ、挿入部の形状に予め定められた形状が含まれる場合、第1形状画像、及び第1の視点方向とは異なる第2の視点方向からの挿入部の予め定められた形状に対応する部分を含む第2形状画像を表示部に表示させる制御を行う。
本開示によれば、内視鏡の挿入部の形状の把握を容易にすることができる。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
まず、図1を参照して本実施形態の内視鏡システム1の全体の構成について説明する。図1には、本実施形態の内視鏡システム1の構成の一例を示す構成図が示されている。
内視鏡システム1は、被検体Wの体内の画像(以下、「内視鏡画像」という)を撮像する内視鏡10、内視鏡検査装置12、及び位置検出装置14を備えている。
内視鏡10は、挿入部10A及び操作部10Bを備え、内視鏡検査を行う場合、検査者は、操作部10Bを操作して、挿入部10Aを被検体Wの体内に挿入し、被検体Wの体内の内視鏡画像を撮像する。ケーブル11により内視鏡10と接続された内視鏡検査装置12は、ビデオプロセッサ34、全体制御部40、画像処理部50、及び液晶ディスプレイ等の表示部52を備える。ビデオプロセッサ34は、内視鏡10による内視鏡画像の撮像の制御を行う。全体制御部40は、内視鏡システム1の全体を制御する。画像処理部50は、表示部52に表示する各種画像に対する画像処理を行う。本実施形態の画像処理部50が、本開示の画像処理装置の一例である。一方、位置検出装置14は、内視鏡検査装置12に設けられた送信部41(図2参照)と、内視鏡10の内部に設けられた受信部21(図2参照)と、を備え、送信部41で発生した磁界を受信部21で受信することにより、挿入部10Aの位置を検出する。
次に、図2を参照して、内視鏡10、内視鏡検査装置12、及び位置検出装置14の詳細な構成について説明する。また、図2には、本実施形態の内視鏡システム1の構成の一例を示すブロック図が示されている。
図2に示すように、内視鏡10は、CCD(Charge Coupled Device)イメージセンサ、及びCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等の撮像素子を含む画像センサ30を備えている。内視鏡10は、ビデオプロセッサ34の制御により光源36から出射された光を伝送路(図示省略)によって伝送し、挿入部10Aの先端に設けられた出射部(図示省略)から出射し、出射した光によって被検体Wの体内を照明する。この照明光による被検体Wからの反射光が対物レンズ(図示省略)によって画像センサ30に結像し、結像した光学像である内視鏡画像に応じた画像信号が、ケーブル11を介して内視鏡検査装置12のビデオプロセッサ34に出力される。ビデオプロセッサ34により、入力された画像信号に対して予め定められた画像処理が行われ、この画像処理によって得られた内視鏡画像の画像データは、画像処理部50に出力される。
図2に示すように、位置検出装置14のうち、内視鏡検査装置12の内部に設けられた送信部41は、送信制御ユニット42及び送信コイルユニット48を備える。送信コイルユニット48は、図3にも示すように、複数(本実施形態では、12個)の送信コイル49、具体的には、送信コイル491x、491Y、491Z、492x、492Y、492Z、493x、493Y、493Z、494x、494Y、及び494Zを備える。なお、本実施形態では、送信コイル49について、総称する場合は、単に「送信コイル49」といい、個々を区別する場合は、「送信コイル49」の後に個々を表す符号(1X・・・4Z)を付す。
図3に示すように、本実施形態の送信コイル49は軸が、X軸、Y軸、及びZ軸の各々の方向に向いた3つの送信コイル49を1組としており、送信コイルユニット48は、4組の送信コイル群を備える。具体的には、送信コイルユニット48は、X軸方向に向いた送信コイル491X、Y軸方向に向いた送信コイル491Y、及びZ軸方向に向いた送信コイル491Zの組と、X軸方向に向いた送信コイル492X、Y軸方向に向いた送信コイル492Y、及びZ軸方向に向いた送信コイル492Zの組と、を備える。また、送信コイルユニット48は、X軸方向に向いた送信コイル493X、Y軸方向に向いた送信コイル493Y、及びZ軸方向に向いた送信コイル493Zの組と、X軸方向に向いた送信コイル494X、Y軸方向に向いた送信コイル494Y、及びZ軸方向に向いた送信コイル494Zの組と、を備える。このように、本実施形態の送信コイルユニット48は、3軸コイルを4つ、送信コイル49として備えた状態と同等となっている。
また、送信制御ユニット42は、送信制御部44、及び送信コイル49に接続された送信回路46、具体的には、送信回路461x、461Y、461Z、462x、462Y、462Z、463x、463Y、463Z、464x、464Y、及び464Zを備える。なお、本実施形態では、送信回路46についても、送信コイル49と同様に、総称する場合は、単に「送信回路46」といい、個々を区別する場合は、「送信回路46」の後に個々を表す符号(1X・・・4Z)を付す。
送信回路46は、送信制御部44の制御に応じて、送信コイル49を駆動するための駆動信号を生成して、各々接続されている送信コイル49に出力する。各送信コイル49は駆動信号が印加されることで、磁界を伴う電磁波を周囲に放射する。なお、本実施形態の送信制御部44は、予め定められた時間間隔、例えば数十m秒間隔で、各送信回路46に駆動信号を生成させ、各送信コイル49を順次、駆動させる。
一方、図2に示すように、位置検出装置14のうち、内視鏡10の内部に設けられた受信部21は、受信制御部20、受信コイルユニット22、受信回路24(241〜2416)、ADC(Analog-to-Digital Converter)26(261〜2616)、及びI/F(Interface)29を備える。受信制御部20は、受信部21の全体を制御し、受信コイルユニット22の駆動を制御する。
受信コイルユニット22は、図3にも示すように、一例として16個(図3に図示したものは6個)の受信コイル23、具体的には、受信コイル231〜2316を備える。なお、本実施形態では、送信コイル49と同様に、受信コイル23、受信回路24、及びADC26の各々について、総称する場合は、単に「受信コイル23」、「受信回路24」、及び「ADC26」といい、個々を区別する場合は、「受信コイル23」、「受信回路24」、及び「ADC26」の後に個々を表す符号(1・・・16)を付す。
受信コイルユニット22の各受信コイル23は、内視鏡10の挿入部10Aに、被検体Wに挿入される方向に沿って配置されている。受信コイル23は、送信コイルユニット48の各送信コイル49で発生した磁界を検出する。各受信コイル23は、受信回路24に接続されており、検出した磁界に応じた検出信号を受信回路24に出力する。受信回路24は、LPF(Low Pass Filter)及び増幅器(いずれも図示省略)等を含み、LPFによって外乱ノイズが除去され、増幅器により増幅された検出信号をADC26に出力する。ADC26は、入力されたアナログの検出信号をデジタルの検出信号に変換して受信制御部20に出力する。受信制御部20は、各ADC26から入力された検出信号を、I/F29を介して、内視鏡検査装置12へ送信する。
内視鏡検査装置12に入力された検出信号は、I/F53を介して、画像処理部50に入力される。
画像処理部50は、入力した検出信号に基づいて、各受信コイル23の位置を検出する。すなわち、本実施形態の画像処理部50は、各送信コイル49で発生した磁界を受信コイル23で検出し、受信コイル23から出力された検出信号に基づいて、各受信コイル23の位置及び方向(向き)を検出する。画像処理部50が検出信号に基づいて受信コイル23の位置を検出する方法は、特に限定されず、例えば、特許第3432825号公報に記載されている技術を適用することができる。特許第3432825号公報に記載されている技術では、各送信コイル49によって発生された磁界の測定値、及び受信コイル23の方向の推定値から、特定の送信コイル49から受信コイル23までの距離の推定値を計算する。次に、各送信コイル49から受信コイル23までの距離の推定値と、送信コイル49の既知の位置とから受信コイル23の位置の推定値を計算する。次に、受信コイル23の推定された位置、及び受信コイル23の磁界の測定値から受信コイル23の方向の新しい推定値を計算する。そして、受信コイル23の方向の新しい推定値を用いて、上述した送信コイル49から受信コイル23までの距離の推定値の計算と、受信コイル23の位置の推定値の計算とを繰り返すことにより、受信コイル23の位置及び方向を導出する。
また、本実施形態の画像処理部50は、検出した各受信コイル23の位置及び方向に基づいて、内視鏡10の挿入部10Aの形状を検出する。図4には、本実施形態の画像処理部50の一例の機能ブロック図を示す。
図4に示すように、本実施形態の画像処理部50は、検出部60、取得部62、生成部64、合成部66、及び表示制御部68を備える。検出部60には、位置検出装置14から、具体的には、内視鏡10の受信制御部20から、I/F29及びI/F53を介して、上記検出信号が入力される。検出部60は、入力された検出信号に基づいて、各受信コイル23の位置及び方向を検出する。また、検出部60は、検出した受信コイル23の位置及び方向に基づいて、挿入部10Aの形状を検出し、検出した形状を表す情報と、各受信コイル23の位置及び方向とを取得部62へ出力する。取得部62は、検出部60から、挿入部10Aの形状を表す情報と各受信コイル23の位置及び方向とを取得し、生成部64へ出力する。
生成部64は、各受信コイル23の位置及び方向に基づいて、第1の視点方向(詳細後述)からの挿入部10Aの形状を表す第1形状画像(詳細後述)を生成し、第1形状画像の画像データを合成部66に出力する。また、生成部64は、挿入部10Aの形状を表す情報に基づき、挿入部10Aの形状に予め定められた形状(詳細後述)が含まれる場合はさらに、上記第1の視点方向とは異なる第2の視点方向(詳細後述)からの挿入部10Aの、予め定められた形状を含む第2形状画像(詳細後述)を生成し、第2形状画像の画像データを合成部66に出力する。
合成部66には、ビデオプロセッサ34から、内視鏡画像の画像データが入力される。また、生成部64から、第1形状画像の画像データ、または第1形状画像の画像データ及び第2形状画像の画像データが入力される。合成部66は、内視鏡画像の画像データに、入力した第1形状画像の画像データ及び第2形状画像の画像データの少なくとも一方を合成した合成画像の画像データを生成し、生成した画像データを表示制御部68に出力する。
表示制御部68は、合成部66から出力された画像データが表す画像を表示部52に表示させる制御を行う。すなわち、本実施形態の表示制御部68は、挿入部10Aの形状に予め定められた形状が含まれない場合、第1の視点方向からの挿入部10Aの形状を表す第1形状画像を表示部52に表示させる。また、挿入部10Aの形状に予め定められた形状が含まれる場合、第1形状画像及び第2形状画像を表示部52に表示させる制御を行う。
一例として本実施形態の画像処理部50は、図5に示したハードウェアを含んで構成されるマイクロコンピュータ等により実現される。図5に示すように、画像処理部50は、CPU(Central Processing Unit)70、ROM(Read Only Memory)72、RAM(Random Access Memory)74、及びHDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の不揮発性の記憶部76を備えている。CPU70、ROM72,RAM74、及び記憶部76は、互いに通信が可能にバス79に、接続されている。記憶部76には、詳細を後述する画像処理を実行するための画像処理プログラム78が記憶されている。CPU70は、記憶部76から画像処理プログラム78を読み出してからRAM74に展開し、展開した画像処理プログラム78を実行する。CPU70が、画像処理プログラム78を実行することで、上記検出部60、取得部62、生成部64、合成部66、及び表示制御部68の各々として機能する。
なお、本実施形態の内視鏡システム1では、受信制御部20、全体制御部40、及び送信制御部44も、画像処理部50と同様のハードウェア(図5参照)により実現される。
次に、本実施形態の画像処理部50の作用を説明する。図6は、画像処理部50のCPU70によって実行される画像処理の流れの一例を示すフローチャートである。一例として、本実施形態の内視鏡システム1では、図示を省略した操作ボタン等が操作されることにより、検査者から内視鏡検査の開始の指示を受け付けた場合に、CPU70が、画像処理プログラム78を実行することにより、図6に示した画像処理が実行される。
ステップS100で検出部60は、挿入部10Aの形状を解析する。本実施形態では、検出部60は、まず、上述したように、位置検出装置14から入力された検出信号に基づいて、各受信コイル23の位置及び方向を検出する。そして、検出した受信コイル23の位置及び方向に基づいて、挿入部10Aの形状を解析し、挿入部10Aの形状に、予め定められた形状の一例として、ループ形状の検出を行う。なお、本実施形態では、ループ形状の一例として、いわゆるαループ形状及び逆αループ形状を検出する。検出部60が、ループ形状を検出する方法は特に限定されず、例えば、特開2004−358095号公報に記載された技術や、特開2008−119259号公報に記載された技術を適用することができる。
取得部62は、検出部60から、挿入部10Aの形状を表す情報と各受信コイル23の位置及び方向とを取得し、生成部64へ出力する。
次のステップS102で生成部64は、検出部60によってループ形状が検出されたか否か、換言すると、挿入部10Aの形状に、ループ形状が含まれるか否かを判定する。ループ形状が検出されていない場合、ステップS102の判定が否定判定となり、ステップS104へ移行する。本実施形態の生成部64が、本開示の判定部の一例である。生成部64が、ループ形状等の予め定められた形状が記憶された記憶部76から予め定められた形状を取得し、検出部60によって検出された形状に予め定められた形状が含まれるか否かを判定することができる。また、検出部60を判定部の一例とすることも出来る。この場合、検出部60が、記憶部76から予め定められた形状を取得し、挿入部10Aの形状より予め定められた形状を検出することで、挿入部10Aの形状に予め定められた形状が含まれるか否かを判定すればよい。
ステップS104で生成部64は、上述したように、各受信コイル23の位置及び方向に基づいて、第1の視点方向からの挿入部10Aの形状を表す第1形状画像を生成し、第1形状画像の画像データを合成部66に出力する。一例として、本実施形態における第1の視点方向とは、挿入部10Aの全体の形状を把握するための視点方向として予め定められた方向である。このような第1の視点方向の具体例としては、図3に示した送信コイルユニット48におけるX軸方向であり、本実施形態では、検査者が被検体Wを正面視する方向(顔側の面を視認する方向)が挙げられる。この場合、第1の視点方向からの挿入部10Aの形状を表す第1形状画像90A、90Bは、図7に示されるように、Y軸及びZ軸により表される2次元の画像となる。なお、図7に示した第1形状画像90Aは、ループ形状を含まない場合の第1形状画像であり、第1形状画像90Bは、ループ形状を含む場合の第1形状画像である。以下では、第1形状画像90A及び第1形状画像90Bを総称する場合は、単に「第1形状画像90」といい、個々を区別する場合は、「第1形状画像90」の後に、個々を表す符号(A、B)を付す。尚、第1の視点方向は、別の具体例としては、挿入部がループ状の形状をとる場合において、挿入部が環状となること(閉じた曲線を形成すること)を視認できる方向である。
次のステップS106で合成部66は、第1形状画像90Aと、内視鏡画像とを合成した画像を生成し、第1形状画像90Aと内視鏡画像とを含む合成画像の画像データを表示制御部68に出力する。次のステップS114で表示制御部68は、合成画像を表示部52に表示させる。図8には、表示部52に表示された合成画像100の一例を示す。図8に示した合成画像100には、第1形状画像90A及び内視鏡画像94が含まれている。なお、本実施形態では、第1形状画像90Aと内視鏡画像94とを並べた状態で合成した画像を合成画像100としているが、第1形状画像90A及び内視鏡画像94の合成の方法は本実施形態に限定されない。合成画像100における第1形状画像90A及び内視鏡画像94の重畳程度、及び各画像の大きさ等は、内視鏡検査において、検査者が所望する画像が適切に表示された状態であればよい。例えば、合成画像100は、第1形状画像90Aと内視鏡画像94との少なくとも一部が重畳する状態で合成した画像であってもよい。また、合成画像100は、表示部52の大きさ等によって、第1形状画像90Aと内視鏡画像94との重畳程度、及び各画像の大きさを制御する形態としてもよい。
一方、ループ形状が検出された場合、ステップ102の判定が肯定判定となり、ステップS108へ移行する。ステップS108で、生成部64は、上記ステップS104で第1形状画像90Aを生成したのと同様に、第1形状画像90Bを生成する。
次のステップS110で生成部64は、各受信コイル23の位置及び方向に基づいて、第2の視点方向からの挿入部10Aの形状を表す第2形状画像を生成する。一例として、本実施形態における第2の視点方向を、ループ形状部分の交差状態を把握するための視点方向として予め定められた方向としている。このような方向の具体例として、本実施形態では、図9に示すように、ループ形状の交差する点95から、ループ形状の中心点96を結んだ方向を第2の視点方向98としている。この場合、第2の視点方向98からの挿入部10Aの形状を表す第2形状画像92は、図10に示されるように、Y軸及びX軸により表される2次元の画像となる。このように第2の視点方向を、第2の視点方向98とすることにより、ループ形状の奥行き方向の形状(状態)について把握し易くすることができる。
なお、一例として本実施形態では、第2形状画像92は、挿入部10Aの全体の形状を表す画像ではなく、図10に示したように、主にループ形状部分のみを表す画像としている。なお、図10に示した第2形状画像92に限定されず、第1形状画像90と同様に、挿入部10Aの全体の形状を表す画像としてもよいが、本実施形態のように、主にループ形状部分のみを表す画像とすることにより、ループ形状、特に、ループ形状の交差部分の状態の把握が容易になる。また、本実施形態の第2形状画像92は、ループ形状の大きさが、第1形状画像90におけるループ形状の大きさよりも大きい画像としている。例えば、第2形状画像92におけるループ形状の画像の大きさを、第1形状画像90におけるループ形状の画像の大きさよりも4倍の面積(矩形の各辺が2倍)としている。このように、第2形状画像92を、主にループ形状のみを表す画像とすることにより、第2形状画像92の全体の大きさが大きくなるのを抑制しつつ、ループ形状を把握し易い状態の画像とすることができる。
このようにして生成された第1形状画像90Bの画像データ及び第2形状画像92の画像データは、合成部66に出力される。
次のステップS112で合成部66は、第1形状画像90Bと、第2形状画像92と、内視鏡画像とを合成した画像を生成し、第1形状画像90B、第2形状画像92、及び内視鏡画像を含む合成画像100の画像データを表示制御部68に出力する。次のステップS114で表示制御部68は、合成画像を表示部52に表示させる。
図11には、表示部52に表示された合成画像100の一例を示す。図11に示した合成画像100には、第1形状画像90B、第2形状画像92、及び内視鏡画像94が含まれている。なお、本実施形態では、第1形状画像90B内の一部の領域に第2形状画像92を重畳させた状態で合成し、さらに内視鏡画像94と並べた状態で合成した画像を合成画像100としているが、第1形状画像90B、第2形状画像92、及び内視鏡画像94の合成の方法は本実施形態に限定されない。合成画像100における第1形状画像90B、第2形状画像92、及び内視鏡画像94の重畳程度、及び各画像の大きさ等は、内視鏡検査において、検査者が所望する画像が適切に表示された状態であればよい。例えば、合成画像100は、第1形状画像90Bと第2形状画像92とを並べた状態で合成した画像であってもよい。また例えば、合成画像100は、第1形状画像90B及び第2形状画像92と、内視鏡画像94との少なくとも一部が重畳する状態で合成した画像であってもよい。また、合成画像100は、表示部52の大きさ等によって、第1形状画像90B、第2形状画像92、及び内視鏡画像94の重畳程度、及び各画像の大きさを制御する形態としてもよい。
なお、図12に示すように、生成部64は、第2の視点方向98が視認可能な情報として、視点情報99も生成し、表示制御部68により表示部52に表示させることが好ましい。なお、視点情報99の表示について、表示位置や、形状、及び大きさ等は特に限定されないが、図12に示した一例のように、視点方向を表す矢印の形状とした視点情報99を、第1形状画像90Bに重畳させて表示させた形態とすることにより、視点方向を、より把握し易くすることができる。
また、生成部64は、第2形状画像92として、第2の視点方向を変化させた第2形状画像92を、変化させた第2の視点方向毎に生成し、生成した第2形状画像92を、表示制御部68により表示部52に表示させてもよい。また例えば、第2形状画像92を、ループ形状を回転させた状態の第2形状画像92としてもよい。この場合、生成部64は、予め定められた時間毎、例えば、時計回りまたは反時計回りに、1回転あたりの回転速度を4秒〜10秒とし、1回転あたり、2画像〜6画像等の予め定められ数の第2形状画像92を、回転位置毎に生成し、静止した第2形状画像92を表示制御部68により表示部52に表示させてもよい。図13には、この場合に表示部52に表示された合成画像100の一例を示す。この場合、表示部52に表示される第2形状画像92は時間経過に伴い変化し、例えば、図11に示した第2形状画像92から、図13に示した第2形状画像92へ等と変化する。尚、予め定められた形状毎に第2形状画像の回転の向き(時計回り、反時計回り)、回転速度(1回転辺りに要する時間)、1回転あたりの画像の数等の回転表示情報を記憶部76に記憶させ、生成部64は記憶部76より取得した回転表示情報に基づいて第2形状画像92を生成し、生成した第2形状画像92を、表示制御部68により表示部52に表示させてもよい。
次のステップS116で表示制御部68は、内視鏡検査を終了するか否かを判定する。本実施形態の内視鏡システム1では、図示を省略した操作ボタン等が操作されることにより、検査者から内視鏡検査の終了の指示を受け付けるまで、ステップS116の判定が否定判定となり、ステップS100に戻り、ステップS102〜S114の各処理を繰り返す。一方、内視鏡検査の終了の指示を受け付けた場合、ステップS116の判定が肯定判定となり、本画像処理を終了する。
以上説明したように、本実施形態の画像処理部50は、取得部62及び表示制御部68を備える。取得部62は、内視鏡10における被検体Wに挿入する挿入部10Aの形状を取得する。表示制御部68は、挿入部10Aの形状に予め定められた形状であるループ形状が含まれない場合、第1の視点方向からの挿入部10Aの形状を表す第1形状画像90Aを表示部52に表示させる制御を行う。また、表示制御部68は、挿入部10Aの形状に予め定められた形状が含まれる場合、第1形状画像90B、及び第1の視点方向とは異なる第2の視点方向からの挿入部10Aの予め定められた形状に対応する部分を含む第2形状画像92を表示部52に表示させる制御を行う。
このように、本実施形態の画像処理部50では、ループ形状が含まれる場合に、第1形状画像90B及び第2形状画像92を表示する。第2形状画像92は、第1の視点方向と異なる、第2の視点方向からの挿入部10Aの形状であるため、ループ形状、本実施形態では、特にループの重なり(交差)状態の把握を容易にすることができる。また、本実施形態の画像処理部50によれば、ループ形状を含まない場合、第1形状画像90Aのみを表示させるため、第1形状画像90Aにより、挿入部10Aの形状をより把握し易くすることができる。
従って、本実施形態の画像処理部50によれば、内視鏡10の挿入部10Aの形状の把握を容易にすることができる。
また、本実施形態の画像処理部50によれば、内視鏡画像94と、第1形状画像90B及び第2形状画像92とを表示部52に表示させた場合でも、第2形状画像92により、挿入部10Aのループ形状を把握し易くすることができる。さらに、本実施形態の画像処理部50によれば、第1形状画像90Bに含まれるループ形状の画像よりも、第2形状画像92におけるループ形状の画像が大きいため、ループ形状をより把握し易くすることができる。
なお、本実施形態では、予め定められた形状の一例としてループ形状、特にαループ及び逆αループ形状を用いたが、予め定められた形状は、これらの形状に限定されず、検査者が、挿入部10Aの形状の状態を詳細に確認したいと所望する形状であればよい。例えば、Nループ形状及びγループ形状等のその他のループ形状であってもよいし、また、検査者個人の設定等に応じた形状であってもよい。
なお、本実施形態の位置検出装置14を、内視鏡検査装置12に磁界を発生する送信コイルユニット48を含む送信部41を配置し、内視鏡10に磁界を検出する受信コイルユニット22を含む受信部21を配置した形態としたが、位置検出装置14は、本実施形態の形態に限定されない。例えば、スピントルク発振素子等の送信コイルユニット48(送信コイル49)以外の磁界を発生する素子を用いてもよい。また例えば、ホール素子やMR(Magneto Resistive)素子等の受信コイルユニット22(受信コイル23)以外の磁界を検出する素子を用いてもよい。
また、位置検出装置14は、内視鏡検査装置12に受信部21を配置し、内視鏡10に送信部41を配置した形態としてもよい。また、位置検出装置14は、磁界以外を用いて、挿入部10Aの形状を検出する装置であってもよい。例えば、位置検出装置14は、FBG(Fiber Bragg Grating)が配置された光ケーブル等を用い、FBGにより、挿入部10Aの形状を検出する装置であってもよい。
また、本実施形態では、画像処理部50が、検出部60、取得部62、生成部64、合成部66、及び表示制御部68の機能を備える形態について説明したが、これらの機能のうち一部の機能を他の一つの装置、または複数の装置が備える形態としてもよい。例えば、検出部60、及び生成部64の一方を、画像処理部50の外部の装置が備える形態としてもよい。
また、本実施形態では、合成部66が、第1形状画像90と内視鏡画像94とを合成した合成画像100を生成する形態について説明したが、本実施形態に限定されず、第1形状画像90と内視鏡画像94とを合成せずに、別々の画像として、表示部52に表示させてもよい。また、内視鏡画像94、第1形状画像90、及び第2形状画像92の各々は、同一の表示部52に限定されず、例えば、各々、別々の表示装置に表示される形態であってもよいし、内視鏡画像94を表示する表示装置と、第1形状画像90及び第2形状画像92を表示する表示装置が異なる形態であってもよい。
本実施形態において、例えば検出部60、取得部62、生成部64、合成部66、及び表示制御部68といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。
上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態が挙げられる。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態が挙げられる。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記実施形態では、画像処理プログラム78が記憶部76に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム78は、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、画像処理プログラム78は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
1 内視鏡システム
10 内視鏡、10A 挿入部、10B 操作部
11 ケーブル
12 内視鏡検査装置
14 位置検出装置
20 受信制御部
21 受信部
22 受信コイルユニット
231〜2316 受信コイル
241〜2416 受信回路
261〜2616 ADC29 I/F30 画像センサ
34 ビデオプロセッサ
36 光源
40 全体制御部
41 送信部
42 送信制御ユニット
44 送信制御部
461X、461Y、461Z〜464X、464Y、464Z 送信回路
48 送信コイルユニット
491X、491Y、491Z〜494X、494Y、494Z 送信コイル
50 画像処理部
52 表示部
53 I/F60 検出部
62 取得部
64 生成部
66 合成部
68 表示制御部
70 CPU72 ROM74 RAM76 記憶部
78 画像処理プログラム
79 バス
90、90A、90B 第1形状画像
92 第2形状画像
94 内視鏡画像
95 交差する点
96 中心点
98 第2の視点方向
99 視点情報
100 合成画像
Claims (14)
- 内視鏡における被検体に挿入する挿入部の形状を取得する取得部と、
予め定められた形状が記憶された記憶部と、
前記挿入部の形状に前記記憶部に記憶された予め定められた形状が含まれるか否かを判定する判定部と、
前記判定部が前記挿入部の形状に前記予め定められた形状が含まれないと判定した場合、第1の視点方向からの前記挿入部の形状を表す第1形状画像を表示部に表示させ、前記判定部が前記挿入部の形状に前記予め定められた形状が含まれると判定した場合、前記第1形状画像、及び前記第1の視点方向とは異なる第2の視点方向からの前記挿入部の前記予め定められた形状に対応する部分を含む第2形状画像を前記表示部に表示させる制御を行う表示制御部と、
を備えた画像処理装置。 - 前記判定部が前記挿入部の形状に前記予め定められた形状が含まれないと判定した場合に、第1の視点方向からの前記挿入部の形状を表す第1形状画像を生成し、前記判定部が前記挿入部の形状に前記予め定められた形状が含まれると判定した場合に、前記第1形状画像、及び前記第1の視点方向とは異なる第2の視点方向からの前記挿入部の前記予め定められた形状に対応する部分を含む第2形状画像を生成する生成部をさらに備えた、
請求項1に記載の画像処理装置。 - 前記予め定められた形状は、ループ形状である
請求項1または請求項2に記載の画像処理装置。 - 前記第2の視点方向は、前記挿入部のループ形状部分の交差する点から前記ループ形状部分の中心点を結んだ方向である、
請求項3に記載の画像処理装置。 - 前記第2の視点方向は、前記挿入部のループ形状部分の交差状態を把握するための視点方向として予め定められた方向である、
請求項3に記載の画像処理装置。 - 前記表示制御部は、前記判定部が前記挿入部の形状に前記予め定められた形状が含まれると判定した場合、前記第2形状画像を、前記表示部における前記第1形状画像内の一部の領域に表示させる制御を行う、
請求項1から請求項5のいずれか1項に記載の画像処理装置。 - 前記表示制御部は、前記判定部が前記挿入部の形状に前記予め定められた形状が含まれると判定した場合、前記第2の視点方向が視認可能な情報を更に前記表示部に表示させる制御を行う、
請求項1から請求項6のいずれか1項に記載の画像処理装置。 - 前記表示制御部は、前記判定部が前記挿入部の形状に前記予め定められた形状が含まれると判定した場合、前記第2の視点方向を変化させた前記第2形状画像を、変化させた前記第2の視点方向毎に表示させる制御を行う
請求項1から請求項7の何れか1項に記載の画像処理装置。 - 前記表示制御部は、前記挿入部の形状に前記予め定められた形状が含まれる場合、前記挿入部の予め定められた形状に対応する部分を回転させた前記第2形状画像を、回転させた回転位置毎に表示させる制御を行う
請求項1から請求項7の何れか1項に記載の画像処理装置。 - 前記第1の視点方向は、前記挿入部の全体の形状を把握するための視点方向として予め定められた方向である、
請求項1から請求項9のいずれか1項に記載の画像処理装置。 - 前記表示制御部は、前記内視鏡により得られた内視鏡画像をさらに、前記表示部に表示させる制御を行う、
請求項1から請求項10のいずれか1項に記載の画像処理装置。 - 内視鏡における被検体に挿入する挿入部の形状を検出する検出部をさらに備え、
前記取得部は、前記検出部から前記挿入部の形状を取得する、
請求項1から請求項11のいずれか1項に記載の画像処理装置。 - 内視鏡における被検体に挿入する挿入部の形状を取得し、
記憶部に記憶された予め定められた形状を取得し、
前記挿入部の形状が前記予め定められた形状に含まれるか否かを判定し、
前記挿入部の形状に予め定められた形状が含まれないと判定した場合、第1の視点方向
からの前記挿入部の形状を表す第1形状画像を表示部に表示させ、前記挿入部の形状に前記予め定められた形状が含まれると判定した場合、前記第1形状画像、及び前記第1の視点方向とは異なる第2の視点方向からの前記挿入部の前記予め定められた形状に対応する部分を含む第2形状画像を前記表示部に表示させる制御を行う、
工程からなる画像処理装置の作動方法。 - 内視鏡における被検体に挿入する挿入部の形状を取得し、
記憶部に記憶された予め定められた形状を取得し、
前記挿入部の形状が前記予め定められた形状に含まれるか否かを判定し、
前記挿入部の形状に予め定められた形状が含まれないと判定した場合、第1の視点方向からの前記挿入部の形状を表す第1形状画像を表示部に表示させ、前記挿入部の形状に前記予め定められた形状が含まれると判定した場合、前記第1形状画像、及び前記第1の視点方向とは異なる第2の視点方向からの前記挿入部の前記予め定められた形状に対応する部分を含む第2形状画像を前記表示部に表示させる制御を行う、
処理をコンピュータに実行させるための画像処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157428 | 2018-08-24 | ||
JP2018157428 | 2018-08-24 | ||
PCT/JP2019/028074 WO2020039800A1 (ja) | 2018-08-24 | 2019-07-17 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020039800A1 JPWO2020039800A1 (ja) | 2021-06-03 |
JP6968289B2 true JP6968289B2 (ja) | 2021-11-17 |
Family
ID=69592603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020538234A Active JP6968289B2 (ja) | 2018-08-24 | 2019-07-17 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3841952A4 (ja) |
JP (1) | JP6968289B2 (ja) |
WO (1) | WO2020039800A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4133988A4 (en) * | 2020-04-09 | 2024-04-17 | NEC Corporation | ENDOSCOPE INSERTION ASSISTANCE DEVICE, METHOD, AND NON-TEMPORARY COMPUTER-READABLE MEDIUM ON WHICH A PROGRAM IS STORED |
FR3110079A1 (fr) | 2020-05-12 | 2021-11-19 | Vectans Pharma | Comprimé mucoadhésif pour le traitement des infections fongiques oropharyngées |
JP7547164B2 (ja) | 2020-10-28 | 2024-09-09 | 富士フイルム株式会社 | 内視鏡システム及び内視鏡装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3432825B2 (ja) | 1992-08-14 | 2003-08-04 | ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | 位置決定システム |
JPH08107875A (ja) * | 1994-08-18 | 1996-04-30 | Olympus Optical Co Ltd | 内視鏡形状検出装置 |
JP3458060B2 (ja) | 1998-09-04 | 2003-10-20 | オリンパス光学工業株式会社 | 内視鏡形状検出装置及び内視鏡形状表示制御方法 |
JP3365981B2 (ja) * | 1999-08-05 | 2003-01-14 | オリンパス光学工業株式会社 | 内視鏡形状検出装置 |
US8211010B2 (en) * | 2002-10-29 | 2012-07-03 | Olympus Corporation | Endoscope information processor and processing method |
JP4274854B2 (ja) | 2003-06-06 | 2009-06-10 | オリンパス株式会社 | 内視鏡挿入形状解析装置 |
JP4914574B2 (ja) | 2005-04-18 | 2012-04-11 | オリンパスメディカルシステムズ株式会社 | 内視鏡形状検出装置 |
JP4855901B2 (ja) | 2006-11-13 | 2012-01-18 | オリンパスメディカルシステムズ株式会社 | 内視鏡挿入形状解析システム |
JP5931528B2 (ja) * | 2012-03-21 | 2016-06-08 | オリンパス株式会社 | 手術用映像システムおよび手術用映像システムの作動方法 |
JP6464110B2 (ja) * | 2016-03-24 | 2019-02-06 | Hoya株式会社 | 内視鏡形状把握システム |
CN107438390B (zh) * | 2016-03-31 | 2019-07-30 | Hoya株式会社 | 内窥镜形状把握系统 |
JP6360644B1 (ja) * | 2016-12-19 | 2018-07-18 | オリンパス株式会社 | 内視鏡挿入形状観測装置 |
WO2018135041A1 (ja) * | 2017-01-17 | 2018-07-26 | オリンパス株式会社 | 内視鏡挿入形状観測装置 |
-
2019
- 2019-07-17 EP EP19851041.4A patent/EP3841952A4/en active Pending
- 2019-07-17 WO PCT/JP2019/028074 patent/WO2020039800A1/ja unknown
- 2019-07-17 JP JP2020538234A patent/JP6968289B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2020039800A1 (ja) | 2020-02-27 |
JPWO2020039800A1 (ja) | 2021-06-03 |
EP3841952A1 (en) | 2021-06-30 |
EP3841952A4 (en) | 2022-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6968289B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
US20170296032A1 (en) | Branching structure determination apparatus, method, and program | |
JP6242543B2 (ja) | 画像処理装置及び画像処理方法 | |
JP3710398B2 (ja) | 医用画像撮像装置 | |
US20080027329A1 (en) | System, apparatus and method for measurement of motion parameters of an in-vivo device | |
KR101999829B1 (ko) | 독립형 초음파 스캐너 | |
JP6018411B2 (ja) | 画像ガイド下手技のための超音波撮像システム | |
EP3318173A1 (en) | Image processing device, ranging system, and endoscope system | |
FR2915565A1 (fr) | Agencement de bobines pour un procede et un systeme de tracage electromagnetique | |
JP2022062231A (ja) | 内視鏡装置及び内視鏡検査の方法 | |
CN103908298A (zh) | 超声成像系统和方法 | |
JP2019521778A5 (ja) | ||
JPWO2019220916A1 (ja) | 医療画像処理装置、医療画像処理方法及び内視鏡システム | |
US20200029789A1 (en) | Examination support device, examination support method, and examination support program | |
JP2021101900A (ja) | 学習データ作成装置、方法及びプログラム並びに医療画像認識装置 | |
US8923555B2 (en) | Image measuring device, image measuring method, and computer program | |
CN106456107B (zh) | 用于使用超声进行成像的系统和方法 | |
KR100875620B1 (ko) | 초음파 영상 시스템 및 방법 | |
JP7078494B2 (ja) | 表示制御装置、内視鏡システム、表示制御方法、及び表示制御プログラム | |
US20150164328A1 (en) | Ultrasound diagnostic apparatus | |
JP2009022369A (ja) | 医用画像撮影装置、医用画像処理装置および医用画像処理プログラム | |
JPWO2020039773A1 (ja) | 検出装置、内視鏡システム、検出方法、及び検出プログラム | |
JP7083993B2 (ja) | 超音波映像システム及び超音波映像装置 | |
JP7023368B2 (ja) | 内視鏡システム及び内視鏡検査装置の作動方法 | |
US20230404381A1 (en) | Endoscopic device, frame image extraction method, computer-readable medium, and endoscopic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6968289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |