JPWO2017109997A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JPWO2017109997A1
JPWO2017109997A1 JP2017557666A JP2017557666A JPWO2017109997A1 JP WO2017109997 A1 JPWO2017109997 A1 JP WO2017109997A1 JP 2017557666 A JP2017557666 A JP 2017557666A JP 2017557666 A JP2017557666 A JP 2017557666A JP WO2017109997 A1 JPWO2017109997 A1 JP WO2017109997A1
Authority
JP
Japan
Prior art keywords
image
unit
imaging
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017557666A
Other languages
English (en)
Other versions
JP6698699B2 (ja
Inventor
大和 神田
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2017109997A1 publication Critical patent/JPWO2017109997A1/ja
Application granted granted Critical
Publication of JP6698699B2 publication Critical patent/JP6698699B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)

Abstract

管腔内の状態を適切に反映した学習サンプルを生成することができる画像処理装置、画像処理方法およびプログラムを提供する。画像処理装置1は、生体の管腔内画像に映る対象の表面形状を推定する表面形状推定部10と、表面形状に対する撮像視点を変更する撮像視点変更部11と、変更後の撮像視点から撮像した場合の対象の仮想画像を生成する画像生成部12と、を備える。

Description

本発明は、生体の管腔内を撮像することによって取得された画像に対して画像処理を行う画像処理装置、画像処理方法およびプログラムに関する。
従来、内視鏡等の医療用観察装置を用いて生体の管腔内(消化管内)を撮像した管腔内画像に対し、認識基準を用いて異常領域等の特定領域を認識する技術が知られている。この際に用いられる認識基準は、通常、学習サンプルとして管腔内画像から抽出された様々なバリエーションの正常粘膜領域または異常領域の画像をもとに作成される。
画像の認識に関する技術として、例えば特許文献1には、学習サンプルとして取得した画像に対し、任意の注目領域の位置、大きさ、向きを変更する処理を行うことにより新たな画像を生成する技術、および新たな画像および元の画像から特徴量を算出して認識基準を作成する技術が開示されている。
米国特許第8903167号明細書
しかしながら、学習サンプルに映る対象を、実際に異なる撮像視点から撮像した場合の画像は、撮像系の特性による像の歪みや、撮像距離の変化に伴う画素値の変化、また対象の表面形状によるオクルージョンの発生、等が生じるため、上述した特許文献1に開示された技術を適用しても、これらの管腔内の状態を適切に反映した学習サンプルを生成することが困難である。
本発明は、上記に鑑みてなされたものであって、管腔内の状態を適切に反映した学習サンプルを生成することができる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、生体の管腔内画像に映る対象の表面形状を推定する表面形状推定部と、前記表面形状に対する撮像視点を変更する撮像視点変更部と、変更後の前記撮像視点から撮像した場合の前記対象の仮想画像を生成する画像生成部と、を備えることを特徴とする。
また、本発明に係る画像処理方法は、生体の管腔内画像に映る対象の表面形状を推定する表面形状推定ステップと、前記表面形状に対する撮像視点を変更する撮像視点変更ステップと、変更後の撮像視点から撮像した場合の前記対象の仮想画像を生成する画像生成ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、生体の管腔内画像に映る対象の表面形状を推定する表面形状推定ステップと、前記表面形状に対する撮像視点を変更する撮像視点変更ステップと、変更後の撮像視点から撮像した場合の前記対象の仮想画像を生成する画像生成ステップと、を画像処理装置に実行させることを特徴とする。
本発明によれば、管腔内の状態を適切に反映した学習サンプルを生成することができるという効果を奏する。
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。 図2は、本発明の実施の形態1に係る画像処理装置が実行する処理の概要を示すフローチャートである。 図3は、管腔内画像の一例を示す図である。 図4は、図2の表面形状推定処理の概要を示すフローチャートである。 図5は、撮像距離推定部による表面座標の推定方法を模式的に説明する図である。 図6は、図2の撮像視点変更処理の概要を示すフローチャートである。 図7は、相対角度変更部による相対角度の変更方法を模式的に説明する図である。 図8は、図2の画像生成処理の概要を示すフローチャートである。 図9は、仮想画像の一例を示す図である。 図10は、仮想画像の別の一例を示す図である。 図11は、本発明の実施の形態1の変形例1に係る表面形状推定部の構成を示すブロック図である。 図12は、本発明の実施の形態1の変形例1に係る表面形状推定部が実行する表面形状推定処理の概要を示すフローチャートである。 図13は、本発明の実施の形態1の変形例2に係る画像生成部の構成を示すブロック図である。 図14は、本発明の実施の形態1の変形例2に係る画像生成部が実行する画像生成処理の概要を示すフローチャートである。 図15は、本発明の実施の形態2に掛かる撮像視点変更部の構成を示すブロック図である。 図16は、本発明の実施の形態3に係る演算部の構成を示すブロック図である。
以下、本発明の実施の形態に係る画像処理装置、画像処理方法およびプログラムについて、図面を参照しながら説明する。なお、これらの実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一の部分には同一の符号を付して示している。
(実施の形態1)
〔画像処理装置の構成〕
図1は、本発明の実施の形態1に係る画像処理装置の構成を示すブロック図である。本実施の形態1に係る画像処理装置1は、一例として、内視鏡(軟性内視鏡や硬性内視鏡等の内視鏡スコープ)またはカプセル型内視鏡(以下、これらをまとめて単に「内視鏡」という)によって、生体の管腔を撮像することにより取得された管腔内画像に映る対象の表面形状に基づいて、もとの管腔内画像とは異なる撮像視点の新たな画像(仮想画像)を生成する画像処理を実行する装置である。管腔内画像は、通常、各画素位置において、R(赤)、G(緑)、B(青)の波長成分に対する画素レベル(画素値)を持つカラー画像である。
図1に示す画像処理装置1は、内視鏡によって撮像された管腔内画像に対応する画像データを内視鏡または外部から取得する画像取得部2と、外部からの操作によって入力された入力信号を受け付ける入力部3と、管腔内画像や各種表示を行う表示部4と、画像取得部2によって取得された画像データや各種のプログラムを記録する記録部5と、画像処理装置1全体の動作を制御する制御部6と、画像データに対して所定の画像処理を行う演算部7と、を備える。
画像取得部2は、内視鏡を含むシステムの態様に応じて適宜構成される。例えば、画像取得部2は、内視鏡との間の画像データの受け渡しに可搬型の記録媒体が使用される場合、この記録媒体を着脱自在に装着し、記録された画像データを読み出すリーダ装置として構成される。また、画像取得部2は、内視鏡によって撮像された画像データを記録するサーバを用いる場合、このサーバと双方向に通信可能な通信装置等で構成され、サーバとデータ通信を行うことによって画像データを取得する。さらにまた、画像取得部2は、内視鏡からケーブルを介して画像データが入力されるインターフェース装置等で構成してもよい。
入力部3は、例えばキーボードやマウス、タッチパネル、各種スイッチ等の入力デバイスによって実現され、外部からの操作に応じて受け付けた入力信号を制御部6へ出力する。
表示部4は、液晶や有機EL(Electro Luminescence)の表示パネル等の表示装置によって実現され、制御部6の制御のもと、管腔内画像を含む各種画面を表示する。
記録部5は、フラッシュメモリ、ROM(Read Only Memory)およびRAM(Random Access Memory)といった各種ICメモリ、および内蔵若しくはデータ通信端子で接続されたハードディスク等によって実現される。記録部5は、画像取得部2によって取得された画像データの他、画像処理装置1を動作させるとともに、種々の機能を画像処理装置1に実行させるためのプログラム、このプログラムの実行中に使用されるデータ等を記録する。例えば、記録部5は、管腔内画像に対して撮像視点を変えた新たな仮想画像(学習サンプル)を生成する画像処理プログラム51、および、このプログラムの実行中に使用される種々の情報等を記録する。
制御部6は、CPU(Central Processing Unit)等を用いて実現され、記録部5に記録された各種プログラムを読み込むことにより、画像取得部2から入力される画像データや入力部3から入力される入力信号等に従って、画像処理装置1を構成する各部への指示やデータの転送等を行い、画像処理装置1全体の動作を統括的に制御する。
演算部7は、CPU等によって実現され、記録部5が記録する画像処理プログラム51を読み込むことによって管腔内画像に映る対象に対し、撮像視点から異なる仮想画像を生成する画像処理を実行する。
〔演算部の詳細な構成〕
次に、演算部7の詳細な構成について説明する。
演算部7は、表面形状推定部10と、撮像視点変更部11と、画像生成部12と、を備える。
表面形状推定部10は、生体の管腔内画像に映る対象の表面形状を推定する。表面形状推定部10は、撮像距離推定部20を有する。
撮像距離推定部20は、管腔内画像の各画素に映る対象までの撮像距離を推定する。撮像距離推定部20は、低吸収波長成分選択部201を有する。
低吸収波長成分選択部201は、管腔内画像において、生体内での吸収・散乱の度合いが低い低吸収波長成分を選択する。
撮像視点変更部11は、表面形状推定部10が推定した表面形状に対する撮像視点を変更する。撮像視点変更部11は、相対角度変更部30と、相対位置変更部31と、を有する。
相対角度変更部30は、表面形状推定部10が推定した表面形状と撮像視点の相対角度を変更する。相対角度変更部30は、内視鏡の撮像方向に対してロール、ヨーおよびピッチのいずれかの回転を行う回転部300を有する。
相対位置変更部31は、表面形状推定部10が推定した表面形状と撮像視点の相対位置を変更する。相対位置変更部31は、表面形状と撮像視点との水平位置および/または垂直位置を変更する水平垂直位置変更部311と、表面形状から撮像視点までの撮像距離を変更する撮像距離変更部312と、を有する。
画像生成部12は、変更後の撮像視点から撮像した場合の対象の仮想画像を生成する。画像生成部12は、撮像視点の変更に伴い、仮想画像上に投影される管腔内画像の画素の画素値を基に、仮想画像の各画素の画素値を推定する画素値推定部40と、仮想画像の画素の画素値に欠落が生じている場合、欠落が生じている画素の周辺の画素から該画素の画素値を補間する欠落画素値補間部41と、を有する。
画素値推定部40は、撮像視点の変更に伴い、仮想画像の各画素周辺に投影される管腔内画像の画素を探索する探索部401と、仮想画像の各画素の画素値を、探索部401によって探索された管腔内画像の画素における画素値を基に補間する画素値補間部402と、仮想画像上に投影される管腔内画像の各画素の中で、仮想画像における遮蔽領域となる画素を除外する遮蔽領域除外部403と、表面形状から撮像視点までの撮像距離に基づいて、仮想画像の各画素の画素値を補正する距離対応画素値補正部404と、を有する。
〔画像処理装置の処理〕
このように構成された画像処理装置1が実行する画像処理方法について説明する。図2は、画像処理装置1が実行する処理の概要を示すフローチャートである。
図2に示すように、まず、画像処理装置1は、画像取得部2を介して外部から内視鏡等によって撮像された画像データに対応する管腔内画像を取得し、取得した管腔内画像を記録部5に記録する(ステップS101)。図3に画像取得部2を介して外部から内視鏡等によって撮像された管腔内画像W1の一例を示す。
続いて、表面形状推定部10は、記録部5に記録された管腔内画像の画像データを取得し、取得した管腔内画像に映る対象の表面形状を推定する表面形状推定処理を実行する(ステップS102)。
図4は、図2のステップS102における表面形状推定処理の概要を示すフローチャートである。
図4に示すように、低吸収波長成分選択部201は、生体内における低吸収・低散乱波長成分を選択する(ステップS201)。具体的には、生体内での吸収・散乱の度合いが最も低いR成分を選択する。これは、粘膜表面に映る血管等による画素値低下を抑えた最も粘膜表面との撮像距離に相関する画素値情報を得ることで、後段の撮像距離推定の精度を向上するためである。
続いて、撮像距離推定部20は、管腔内画像の各画素に映る対象の撮像距離αを推定する(ステップS202)。具体的には、低吸収波長成分の画素値に基づいて、均等拡散面を仮定した撮像距離を(式1)に従って推定する。
Figure 2017109997

ここで、α(x,y)は、座標(x,y)に映る対象の撮像距離を示し、Iは、光源の放射強度(事前に測定)を示し、Kは、粘膜表面の拡散反射係数(平均的な値を事前に測定)を示し、θは、粘膜表面の法線ベクトルと該表面から光源までのベクトルのなす角(内視鏡先端の光源と粘膜表面の位置関係により決まる値だが、平均的な値を事前設定)を示し、L(x,y)は、座標(x,y)の画素の低吸収波長成分(R成分)の画素値を示す。
その後、表面形状推定部10は、管腔内画像の各画素に映る対象の表面座標を推定する(ステップS203)。画像W1内の座標(x,y)(原点は画像中心)と、その座標に映る対象の表面座標(Xi,Yi,Zi)の間には、図5に示す関係がある。ここで、XYZは、画像W1のxy軸と平行なXY軸と、画像中心を通るZ軸からなる表面座標系である。また。fは、センサーの画素ピッチや撮像系の特性等から決定される値である。αは、撮像距離推定部20により推定された撮像距離である。
図5の関係から以下の式(2)、式(3)が成り立つ。
Figure 2017109997
従って、式(2)および式(3)より、以下の式(4)が成り立つ。
Figure 2017109997
このように、表面形状推定部10は、管腔内画像W1の各画素に映る対象までの撮像距離および該画素の座標を基に、表面座標系への変換を行うことによって、各画素に映る対象(被写体)の表面座標(表面形状)を推定する。ステップS203の後、画像処理装置1は、図2のメインルーチンへ戻る。
図2に戻り、ステップS103以降の説明を続ける。
ステップS103において、撮像視点変更部11は、表面形状に対する撮像視点を変更、例えば第1の撮像視点から第2の撮像視点に変更する撮像視点変更処理を実行する。
図6は、図2のステップS103における撮像視点変更処理の概要を示すフローチャートである。
図6に示すように、相対角度変更部30は、表面形状と撮像視点の相対角度(内視鏡の撮像方向に対するロール、ヨーおよびピッチいずれかの角度)を変更する(ステップS301)。具体的には、図7に示すように、表面形状Q1と撮像視点P1の相対角度を変更する。より具体的には、回転部300は、以下の式(5)によって、表面座標系XYZから、表面形状の重心を原点とする重心座標系X0Y0Z0への変換を行う。
Figure 2017109997
ここで、(X,Y,Z)は、表面形状の重心座標である。
さらに、回転部300は、以下の式(6)によって、表面形状と撮像視点の相対角度を、X軸回転(ピッチ)、Y軸回転(ヨー)およびZ軸回転(ロール)によって変更する。図7の表面形状Q1に対し、上記変更を行った場合の表面形状をT1に示す。
Figure 2017109997
ここで、θxは、X軸に対する回転角を示し、θyは、Y軸に対する回転角を示し、θzは、Z軸に対する回転角を示す。
続いて、相対位置変更部31は、水平垂直位置変更部311が表面形状と撮像視点の相対位置(水平・垂直位置)を変更し(ステップS302)、撮像距離変更部312は、表面形状から撮像視点までの撮像距離を変更する(ステップS303)。具体的には、以下の式(7)によって、水平垂直位置変更部311は、表面形状と撮像視点の水平・垂直位置を変更し、式(8)によって、撮像距離変更部312は、表面形状から撮像視点までの撮像距離を変更する。そして、式(9)によって、重心座標系X0Y0Z0から表面座標系XYZへの変換を行う。図7の表面形状T1に対し、上記変更を行った場合の表面形状T2に示す。
Figure 2017109997
ここで、Xは、X方向(水平方向)の位置変更量を示し、Yは、Y方向(垂直方向)の位置変更量を示し、Zは、Z方向の位置変更量(撮像距離の変更量)を示す。ステップS303の後、画像処理装置1は、図2のメインルーチンへ戻る。
図2に戻り、ステップS104以降の説明を続ける。
ステップS104において、画像生成部12は、変更後の撮像視点から撮像した場合の対象の仮想画像を生成する画像生成処理を実行する。
図8は、図2のステップS104における画像生成処理の概要を示すフローチャートである。
図8に示すように、まず、画素値推定部40は、撮像視点変更後の撮像面に投影される管腔内画像(元画像)の各画素の座標を算出する(ステップS401)。具体的には、以下の式(10)によって、撮像視点変更後の撮像面(仮想画像)に投影される元画像の各画素の座標(x’’,y’’)を算出する。
Figure 2017109997
続いて、探索部401は、仮想画像の各画素周辺に投影される元画像の画素を探索する(ステップS402)。xy座標系における整数座標が、仮想画像の各画素位置に相当する。
その後、遮蔽領域除外部403は、仮想画像上に投影される元画像の各画素の中で、仮想画像におけるオクルージョン(遮蔽部)となるデータ(画素)を検出して除外する(ステップS403)。具体的には、仮想画像の各画素周辺に投影される元画像の画素の撮像距離を基に、遮蔽部を判定し、除外する。
続いて、画素値補間部402は、仮想画像の各画素の値を、探索部401によって探索された画素を基に補間して算出する(ステップS404)。
その後、距離対応画素値補正部404は、表面形状から撮像視点までの撮像距離に基づいて、仮想画像の各画素の画素値を補正する(ステップS405)。具体的には、撮像視点変更後の撮像距離が近い画素ほど画素値を高く、遠い画素ほど画素値を低く補正する。これにより、図9に示す仮想画像W2や図10に示す仮想画像W3のように撮像視点を変更した画像を生成することができる。
続いて、仮想画像の画素の画素値に欠落が生じている場合(ステップS406:Yes)、欠落画素値補間部41は、欠落が生じている画素の周辺の画素から該画素の画素値を補間する(ステップS407)。ステップS406の後、画像処理装置1は、図2のメインルーチンへ戻り、本処理を終了する。これに対して、仮想画像の画素の画素値に欠落が生じていない場合(ステップS406:No)、画像処理装置1は、図2のメインルーチンへ戻り、本処理を終了する。
また、本発明の実施の形態1によれば、管腔内画像に映る対象を、実際と異なる撮像視点から撮像した場合の仮想画像を生成した場合において、内視鏡の撮像系の特性による像の歪みや、撮像距離の変化に伴う画素値の変化、または対象の表面形状によるオクルージョン(遮蔽部)の発生等が生じるときであっても、これらの管腔内の状態を適切に反映した仮想画像(学習サンプル)を生成することができる。
(変形例1)
次に、本実施の形態1に係る変形例1について説明する。本実施の形態1に係る変形例1は、表面形状推定部の構成が異なるうえ、実行する処理が異なる。以下においては、本実施の形態1の変形例1に係る表面形状推定部の構成を説明後、本実施の形態1の変形例1に係る表面形状推定部が実行する処理について説明する。なお、上述した実施の形態1に係る画像処理装置1と同一の構成には同一の符号を付して説明を省略する。
図11は、本実施の形態1の変形例1に係る表面形状推定部の構成を示すブロック図である。図11に示す表面形状推定部10aは、上述した実施の形態1に係る撮像距離推定部20に換えて、撮像距離推定部20aを有する。
撮像距離推定部20aは、低吸収波長成分選択部201の構成に加えて、空間周波数の低い低空間周波数成分を算出する低空間周波数成分算出部202をさらに有する。
次に、表面形状推定部10aが実行する表面形状推定処理について説明する。図12は、表面形状推定部10aが実行する表面形状推定処理の概要を示すフローチャートである。なお、本実施の形態1の変形例1では、表面形状推定部10aが実行する表面形状推定処理以外は、上述した実施の形態1に係る画像処理装置1が実行する処理(図2を参照)と同様のため、説明を省略する。また、図12において、ステップS501、ステップS503およびステップS504は、上述した図4のステップS201、ステップS202およびステップS203それぞれに対応するため、説明を省略する。
ステップS502において、低空間周波数成分算出部202は、空間周波数の低い低空間周波数成分を算出する。具体的には、公知の平滑化処理等を用いて、空間周波数の低い低空間周波数成分を算出することによって、ノイズ成分を除去する。ステップS502の後、画像処理装置1は、ステップS503へ移行する。
以上説明した本発明の実施の形態1の変形例1によれば、ノイズ成分の少ない表面形状を推定することができ、それを基に管腔内の状態を適切に反映した学習サンプルを生成することができる。
(変形例2)
次に、本実施の形態1の変形例2について説明する。本実施の形態1の変形例2は、画像生成部の構成が異なるうえ、実行する処理が異なる。以下においては、本実施の形態1の変形例2に係る画像生成部の構成を説明後、本実施の形態1の変形例2に係る画像生成部が実行する処理について説明する。なお、上述した実施の形態1に係る画像処理装置1と同一の構成には同一の符号を付して説明を省略する。
図13は、本実施の形態1の変形例2に係る画像生成部の構成を示すブロック図である。図13に示す画像生成部12aは、上述した実施の形態1に係る画素値推定部40に換えて、画素値推定部40aを有する。
画素値推定部40aは、上述した実施の形態1に係る探索部401および画素値補間部402に換えて、撮像視点の変更に伴い、仮想画像上に投影される管腔内画像の各画素と、仮想画像の各画素の距離に応じた重みで、管腔内画像の各画素の画素値を加算することにより、仮想画像の各画素の画素値を求める重み加算部406と、を有する。さらに、重み加算部406は、仮想画像上に投影される管腔内画像の画素の粗密情報に基づいて、仮想画像の各画素の距離に応じた重みを調整する重み調整部406aを有する。
次に、画像生成部12aが実行する画像生成処理について説明する。図14は、画像生成部12aが実行する画像生成処理の概要を示すフローチャートである。なお、本実施の形態1の変形例2では、画像生成部12aが実行する画像生成処理以外は、上述した実施の形態1に係る画像処理装置1が実行する処理(図2を参照)と同様のため、説明を省略する。また、図14において、ステップS601、ステップS603およびステップS605は、上述した図8のステップS401、ステップS403およびステップS405それぞれに対応する。
ステップS602において、重み調整部406aは、仮想画像の各画素周辺の元画像の画素の粗密情報を基に、重み加算部406で用いられる重みを調整する。この重みは、仮想画像上に投影される管腔内画像(元画像)の各画素と、仮想画像の各画素の距離に応じて設定されるもので、具体的には、距離が近いほど大きく、遠いほど小さくなるように、ガウス関数などを用いて設定される。重み調整部406aは、ガウス関数の広がり具合、つまり距離に応じた重みの変化具合を調整する。より具体的には、重み加算により画素値を求める対象の仮想画像の画素周辺の元画像の画素が粗な状態の場合には、ガウス関数の広がりが大きくなるように、密の状態の場合には、ガウス関数の広がりが小さくなるように、調整する。ステップS602の後、画像処理装置1は、ステップS603へ移行する。
ステップS604において、重み加算部406は、仮想画像の各画素の値を、仮想画像上に投影される元画像の各画素と仮想画像の各画素の距離と、重み調整部406aによって調整された重みを基に、元画像の各画素を加算して算出する。ステップS604の後、画像処理装置1は、ステップS605へ移行する。
以上説明した本発明の実施の形態1の変形例2によれば、管腔内の状態を適切に反映した学習サンプルを生成することができる。
(実施の形態2)
次に、本発明の実施の形態2について説明する。本実施の形態2に係る画像処理装置は、上述した実施の形態1に係る画像処理装置1における撮像視点変更部11の構成が異なる。以下においては、本実施の形態2に係る撮像視点変更部の構成について説明する。なお、上述した実施の形態1に係る画像処理装置1と同一の構成には同一の符号を付して説明を省略する。
図15は、本実施の形態2に係る撮像視点変更の構成を示すブロック図である。図15に示す撮像視点変更部11aは、上述した実施の形態1に係る撮像視点変更部11の構成に加えて、変更量制御部32を備える。
変更量制御部32は、上述した画像生成部12が生成する仮想画像において、データ欠落が生じないように撮像視点の変更量を制御する。具体的には、上述した画素値推定部40と同様の処理を行い、元画像における遮蔽部(データ欠落部)が仮想画像に映らないように、相対角度変更部30が変更する相対角度の変更量および相対位置変更部31の変更量を制御する。
以上説明した本発明の実施の形態2によれば、変更量制御部32が画像生成部12によって生成される仮想画像において、データ欠落が生じないように撮像視点の変更量を制御するので、管腔内の状態を適切に反映した学習サンプルを生成することができる。
(実施の形態3)
次に、本発明の実施の形態3について説明する。本実施の形態3に係る画像処理装置は、上述した実施の形態1に係る画像処理装置1における演算部7の構成が異なる。以下においては、本実施の形態3に係る演算部の構成について説明する。なお、上述した実施の形態1に係る画像処理装置1と同一の構成には同一の符号を付して説明を省略する。
図16は、本実施の形態3に係る演算部の構成を示すブロック図である。図16に示す演算部7aは、上述した実施の形態1に係る演算部7の構成に加えて、画像生成頻度制御部13と、学習部14と、認識部15と、をさらに備える。
画像生成頻度制御部13は、実際の管腔内画像の撮像において発生し易い撮像視点からの仮想画像の生成頻度が高くなるように複数の仮想画像の生成を制御する。ここで、実際の管腔内画像の撮像において発生し易い撮像視点とは、撮影距離が近い管手前の粘膜面から撮影距離が遠い管深部の粘膜面までが映るとともに、管腔壁が管腔内画像の下側に映るような撮像視点等である。具体的には、画像生成頻度制御部13は、画像生成部12が生成した画像情報を基に、撮像視点変更部11を制御することによって、実際の管腔内画像の撮像において発生し易い撮像視点からの仮想画像の生成頻度を高くする。
学習部14は、仮想画像に基づいて、管腔内画像の認識に用いるパラメータを学習する。
認識部15は、学習部14が学習したパラメータに基づいて、管腔内画像の認識を行う。
以上説明した本発明の実施の形態3によれば、実際の管腔内画像の撮像において発生し易い撮像視点からの学習サンプルを多く生成することができる。これにより、状態を適切に反映した学習サンプルを用いて認識部15のパラメータ(例えばパラメータとしては、色、輪郭(エッジ)、画素値面形状(画素値勾配)、テクスチャ等に対する認識基準等)を適切に学習することができる。この結果、適切に学習されたパラメータを用いて認識部15の精度を向上することができる。
(その他の実施の形態)
本発明では、記録装置に記録された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータシステムで実行することによって実現することができる。また、このようなコンピュータシステムを、ローカルエリアネットワーク(LAN)、広域エリアネットワーク(WAN)、または、インターネット等の公衆回線を介して、他のコンピュータシステムやサーバ等の機器に接続して使用しても良い。この場合、実施の形態1〜3およびこれらの変形例に係る画像処理装置は、これらのネットワークを介して管腔内画像の画像データを取得したり、これらのネットワークを介して接続されたビュアーやプリンタ等の種々の出力機器に画像処理結果を出力したり、これらのネットワークを介して接続された記憶装置、例えばネットワークに接続された読取装置によって読み取り可能な記録媒体等に画像処理結果を格納するようにしても良い。
なお、本発明は、実施の形態1〜3およびこれらの変形例に限定されるものではなく、各実施の形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成できる。例えば、各実施の形態や変形例に示される全構成要素からいくつかの構成要素を除外して形成しても良いし、異なる実施の形態や変形例に示した構成要素を適宜組み合わせて形成しても良い。
1 画像処理装置
2 画像取得部
3 入力部
4 表示部
5 記録部
6 制御部
7,7c 演算部
10,10a 表面形状推定部
11,11a 撮像視点変更部
12,12a 画像生成部
13 画像生成頻度制御部
14 学習部
15 認識部
20,20a 撮像距離推定部
30 相対角度変更部
31 相対位置変更部
32 変更量制御部
40,40a 画素値推定部
41 欠落画素値補間部
51 画像処理プログラム
201 低吸収波長成分選択部
202 低空間周波数成分算出部
300 回転部
311 水平垂直位置変更部
312 撮像距離変更部
401 探索部
402 画素値補間部
403 遮蔽領域除外部
404 距離対応画素値補正部
406 重み加算部
406a 重み調整部

Claims (22)

  1. 生体の管腔内画像に映る対象の表面形状を推定する表面形状推定部と、
    前記表面形状に対する撮像視点を、推定時の撮像視点から変更する撮像視点変更部と、
    変更後の前記撮像視点から撮像した場合の前記対象の仮想画像を生成する画像生成部と、
    を備えることを特徴とする画像処理装置。
  2. 前記仮想画像に基づいて、管腔内画像の認識に用いるパラメータを学習する学習部をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記パラメータに基づいて、管腔内画像の認識を行う認識部をさらに備えることを特徴とする請求項2に記載の画像処理装置。
  4. 前記撮像視点変更部は、前記表面形状と撮像視点の相対位置を変更する相対位置変更部を有することを特徴とする請求項1に記載の画像処理装置。
  5. 前記相対位置変更部は、前記表面形状と撮像視点との水平位置および/または垂直位置を変更する水平垂直位置変更部を有することを特徴とする請求項4に記載の画像処理装置。
  6. 前記相対位置変更部は、前記表面形状から撮像視点までの撮像距離を変更する撮像距離変更部を有することを特徴とする請求項4に記載の画像処理装置。
  7. 前記撮像視点変更部は、前記表面形状と撮像視点の相対角度を変更する相対角度変更部を有することを特徴とする請求項1に記載の画像処理装置。
  8. 前記相対角度変更部は、撮像方向に対してロール、ヨーおよびピッチのいずれかの回転を行う回転部を有することを特徴とする請求項7に記載の画像処理装置。
  9. 前記撮像視点変更部は、
    前記画像生成部が生成する前記仮想画像において、データ欠落が生じないように撮像視点の変更量を制御する変更量制御部を有することを特徴とする請求項1に記載の画像処理装置。
  10. 前記画像生成部は、
    撮像視点の変更に伴い、前記仮想画像上に投影される前記管腔内画像の画素の画素値を基に、前記仮想画像の各画素の画素値を推定する画素値推定部を有することを特徴とする請求項1に記載の画像処理装置。
  11. 前記画素値推定部は、
    撮像視点の変更に伴い、前記仮想画像の各画素周辺に投影される前記管腔内画像の画素を探索する探索部と、
    前記仮想画像の各画素の画素値を、前記探索部によって探索された前記管腔内画像の画素における画素値を基に補間する画素値補間部と、
    を有することを特徴とする請求項10に記載の画像処理装置。
  12. 前記画素値推定部は、
    撮像視点の変更に伴い、前記仮想画像上に投影される前記管腔内画像の各画素と、前記仮想画像の各画素の距離に応じた重みで、前記管腔内画像の各画素の画素値を加算することにより、前記仮想画像の各画素の画素値を求める重み加算部を有することを特徴とする請求項10に記載の画像処理装置。
  13. 前記重み加算部は、前記仮想画像上に投影される前記管腔内画像の画素の粗密情報に基づいて、前記距離に応じた重みを調整する重み調整部を有することを特徴とする請求項12に記載の画像処理装置。
  14. 前記画素値推定部は、
    前記仮想画像上に投影される前記管腔内画像の各画素の中で、前記仮想画像における遮蔽領域となる画素を除外する遮蔽領域除外部をさらに有することを特徴とする請求項10に記載の画像処理装置。
  15. 前記画素値推定部は、
    前記表面形状から前記撮像視点までの撮像距離に基づいて、前記仮想画像の各画素の画素値を補正する距離対応画素値補正部をさらに有することを特徴とする請求項10に記載の画像処理装置。
  16. 前記画像生成部は、
    前記仮想画像の画素の画素値に欠落が生じている場合、欠落が生じている画素の周辺の画素から該画素の画素値を補間する欠落画素値補間部をさらに備えることを特徴とする請求項10に記載の画像処理装置。
  17. 実際の管腔内画像の撮像において発生し易い撮像視点からの仮想画像の生成頻度が高くなるように複数の仮想画像の生成を制御する画像生成頻度制御部をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  18. 前記表面形状推定部は、
    前記管腔内画像の各画素に映る対象までの撮像距離を推定する撮像距離推定部を有することを特徴とする請求項1に記載の画像処理装置。
  19. 前記撮像距離推定部は、
    前記管腔内画像において、生体内での吸収・散乱の度合いが低い低吸収波長成分を選択する低吸収波長成分選択部を有することを特徴とする請求項18に記載の画像処理装置。
  20. 前記撮像距離推定部は、
    前記管腔内画像において、空間周波数の低い低空間周波数成分を算出する低空間周波数成分算出部を有することを特徴とする請求項18に記載の画像処理装置。
  21. 生体の管腔内画像に映る対象の表面形状を推定する表面形状推定ステップと、
    前記表面形状に対する撮像視点を変更する撮像視点変更ステップと、
    変更後の撮像視点から撮像した場合の前記対象の仮想画像を生成する画像生成ステップと、
    を含むことを特徴とする画像処理方法。
  22. 生体の管腔内画像に映る対象の表面形状を推定する表面形状推定ステップと、
    前記表面形状に対する撮像視点を変更する撮像視点変更ステップと、
    変更後の撮像視点から撮像した場合の前記対象の仮想画像を生成する画像生成ステップと、
    を画像処理装置に実行させることを特徴とするプログラム。
JP2017557666A 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム Active JP6698699B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/086425 WO2017109997A1 (ja) 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017109997A1 true JPWO2017109997A1 (ja) 2018-10-11
JP6698699B2 JP6698699B2 (ja) 2020-05-27

Family

ID=59089901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017557666A Active JP6698699B2 (ja) 2015-12-25 2015-12-25 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US10765297B2 (ja)
EP (1) EP3395229A4 (ja)
JP (1) JP6698699B2 (ja)
CN (1) CN108430302B (ja)
WO (1) WO2017109997A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190118075A (ko) * 2018-04-09 2019-10-17 삼성전자주식회사 단층 촬영 장치 및 그에 따른 단층 영상 처리 방법
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS558539A (en) * 1978-07-05 1980-01-22 Nippon Kokan Kk Method of stamping electric furnace lining
JP4899068B2 (ja) * 2006-05-02 2012-03-21 国立大学法人名古屋大学 医療画像観察支援装置
WO2011005865A2 (en) * 2009-07-07 2011-01-13 The Johns Hopkins University A system and method for automated disease assessment in capsule endoscopy
JP5377153B2 (ja) * 2009-08-18 2013-12-25 株式会社東芝 画像処理装置、画像処理プログラムおよび医用診断システム
JP5624336B2 (ja) * 2010-02-24 2014-11-12 株式会社東芝 医用画像処理装置、及び医用画像処理プログラム
JP5421828B2 (ja) * 2010-03-17 2014-02-19 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
US8903167B2 (en) * 2011-05-12 2014-12-02 Microsoft Corporation Synthesizing training samples for object recognition
WO2014156378A1 (ja) 2013-03-27 2014-10-02 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP6189240B2 (ja) * 2014-03-26 2017-08-30 株式会社東芝 画像処理装置、治療システム及び画像処理方法

Also Published As

Publication number Publication date
EP3395229A1 (en) 2018-10-31
JP6698699B2 (ja) 2020-05-27
WO2017109997A1 (ja) 2017-06-29
US20180317744A1 (en) 2018-11-08
US10765297B2 (en) 2020-09-08
CN108430302A (zh) 2018-08-21
EP3395229A4 (en) 2019-09-04
CN108430302B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
JP6125100B2 (ja) 点特徴と線特徴とを使用する堅牢な追跡
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
EP2992508B1 (en) Diminished and mediated reality effects from reconstruction
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
KR102169492B1 (ko) 평면의 자연스러운 특성 타겟들의 인시츄 생성
WO2012114639A1 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP6478136B1 (ja) 内視鏡システム、内視鏡システムの作動方法
WO2014200625A1 (en) Systems and methods for feature-based tracking
US8531505B2 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium
US20100166280A1 (en) Three-dimensional shape data processing apparatus and three-dimensionalshape data processing method
JP2014106732A (ja) 情報処理装置および情報処理方法
JPWO2018139461A1 (ja) 移動物体検出装置、移動物体検出方法及び記憶媒体
CN109247068A (zh) 用于滚动快门补偿的方法和设备
JP2004235934A (ja) キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
WO2012029658A1 (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2017092756A (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
KR20170029365A (ko) 깊이 지도 생성 장치 및 방법
WO2017109997A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2009237846A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4887491B2 (ja) 医用画像処理方法及びその装置、プログラム
JP2011045675A (ja) 画像解析装置、その計測方法及びプログラム
JP5728399B2 (ja) 計測装置、方法及びプログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2006065472A (ja) 3次元モデル生成装置および方法
JP4775221B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200428

R151 Written notification of patent or utility model registration

Ref document number: 6698699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250