JPWO2017104002A1 - Image processing apparatus, optical scanning observation system, and image processing method - Google Patents
Image processing apparatus, optical scanning observation system, and image processing method Download PDFInfo
- Publication number
- JPWO2017104002A1 JPWO2017104002A1 JP2017555909A JP2017555909A JPWO2017104002A1 JP WO2017104002 A1 JPWO2017104002 A1 JP WO2017104002A1 JP 2017555909 A JP2017555909 A JP 2017555909A JP 2017555909 A JP2017555909 A JP 2017555909A JP WO2017104002 A1 JPWO2017104002 A1 JP WO2017104002A1
- Authority
- JP
- Japan
- Prior art keywords
- detection
- pixel
- unit
- calculation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/26—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
Abstract
画像処理装置(2)は、観察光の検出値および検出位置を対応付けたデータを記憶する記憶部(14)と、画像内の注目画素に対応する被写体における画素領域を含み、かつ、少なくとも1つの検出位置を含む計算領域を設定する計算領域設定部(15)と、計算領域内の検出位置と対応付けられている検出値をデータから取得する検出値取得部(16)と、取得された検出値に基づいて注目画素の画素値を算出する画素値算出部(18)と、画素値を注目画素に割り当てて画像を形成する画像形成部(20)とを備える。The image processing apparatus (2) includes a storage unit (14) for storing data in which a detection value and a detection position of observation light are associated with each other, a pixel region in a subject corresponding to a target pixel in the image, and at least one A calculation region setting unit (15) for setting a calculation region including two detection positions, a detection value acquisition unit (16) for acquiring a detection value associated with the detection position in the calculation region from the data, and A pixel value calculation unit (18) that calculates the pixel value of the target pixel based on the detection value, and an image formation unit (20) that forms an image by assigning the pixel value to the target pixel.
Description
本発明は、画像処理装置、光走査型観察システムおよび画像処理方法に関するものである。 The present invention relates to an image processing apparatus, an optical scanning observation system, and an image processing method.
従来、照明光を渦巻状の軌跡に沿って被写体上でスパイラル走査する光走査型内視鏡が知られている(例えば、特許文献1参照。)。光走査型内視鏡は、照明光の照射によって被写体において生じる観察光(例えば、反射光または蛍光)を検出し、観察光の検出値と、観察光が検出された時刻における照明光の照射位置(検出位置)とを対応付けることによって、画像を形成する。被写体上の検出位置の配列と画像内の画素の配列とは互いに異なり、1つの画素に対応する被写体上の画素領域内に複数の検出位置が含まれ得る。特許文献1では、1つの画素領域内に含まれる複数の検出位置における検出値の平均値を、対応する画素の画素値として算出している。
2. Description of the Related Art Conventionally, there is known an optical scanning endoscope that spirally scans illumination light on a subject along a spiral trajectory (see, for example, Patent Document 1). The optical scanning endoscope detects observation light (for example, reflected light or fluorescence) generated in a subject by irradiation of illumination light, and the detection value of the observation light and the irradiation position of the illumination light at the time when the observation light is detected An image is formed by associating with (detection position). The array of detection positions on the subject and the array of pixels in the image are different from each other, and a plurality of detection positions can be included in a pixel area on the subject corresponding to one pixel. In
照明光を等角速度で走査するスパイラル走査において、走査軌跡の外周側において検出位置の密度が小さくなる。検出位置の密度が画素領域の密度よりも小さい場合には、検出位置を含まない画素領域が生じる。同様に、モニタ表示画像の走査線に平行でない走査軌跡の撮影や、走査速度が一定でない走査の撮影においても、上記のように検出位置を含まない画素領域を生じる可能性がある。特許文献1の場合、検出位置を含まない画素領域に対応する画素の画素値はゼロと算出される。このような画素値が欠損した欠損画素の画素値を、周囲の画素値から推定して補間する補間処理が知られている。
In spiral scanning in which illumination light is scanned at a constant angular velocity, the density of detection positions is reduced on the outer peripheral side of the scanning locus. When the density of the detection positions is smaller than the density of the pixel area, a pixel area that does not include the detection positions is generated. Similarly, even when shooting a scanning locus that is not parallel to the scanning line of the monitor display image or when scanning is performed at a scanning speed that is not constant, there is a possibility that a pixel area that does not include the detection position is generated as described above. In the case of
CCD等のイメージセンサを用いて取得される画像においては、欠損画素がまばらに生じるため、補間処理によって欠損画素の画素値を補間することができる。しかしながら、スパイラル走査方式の画像においては、欠損画素の数が多くなるため、補間処理で欠損画素の画素値を補間することが難しいという問題がある。 In an image acquired using an image sensor such as a CCD, missing pixels are sparsely generated, so that pixel values of the missing pixels can be interpolated by interpolation processing. However, the spiral scanning image has a problem that it is difficult to interpolate the pixel value of the defective pixel by the interpolation process because the number of the defective pixels is large.
本発明は、上述した事情に鑑みてなされたものであって、欠損画素の無い画像を得ることができる画像処理装置、光走査型観察システムおよび画像処理方法を提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image processing apparatus, an optical scanning observation system, and an image processing method capable of obtaining an image without missing pixels.
上記目的を達成するため、本発明は以下の手段を提供する。
本発明の第1の態様は、照明光の照射によって被写体において生じた観察光の検出値および検出位置を対応付けたデータから前記被写体の画像を形成する画像処理装置であって、前記データを記憶する記憶部と、前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定部と、該計算領域設定部によって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得部と、該検出値取得部によって取得された前記検出値に基づいて前記注目画素の画素値を算出する画素値算出部と、該画素値算出部によって算出された画素値を前記注目画素に割り当てて前記画像を形成する画像形成部とを備え、前記計算領域設定部が、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理装置である。In order to achieve the above object, the present invention provides the following means.
According to a first aspect of the present invention, there is provided an image processing apparatus for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other, and storing the data A calculation area setting section for setting a calculation area including a pixel area in the subject corresponding to the target pixel in the image, and the detection included in the calculation area set by the calculation area setting section A detection value acquisition unit that selects a position and acquires the detection value associated with the selected detection position from the data, and the pixel of interest based on the detection value acquired by the detection value acquisition unit A pixel value calculation unit that calculates a pixel value of the image, and an image forming unit that allocates the pixel value calculated by the pixel value calculation unit to the target pixel and forms the image. Region setting unit, an image processing apparatus for setting the computational domain so as to include at least one of the detection positions in the calculated area.
本発明によれば、被写体上の画素領域を含む計算領域が計算領域設定部によって設定され、計算領域内に含まれる検出位置における観察光の検出値が検出値取得部によって記憶部内のデータから取得され、取得された検出値から画像を構成する注目画素の画素値が画素値算出部によって算出される。画像内の各画素を注目画素として画素値が算出され、算出された画素値が画像形成部によって対応する画素に割り当てられることによって、画像が形成される。 According to the present invention, the calculation region including the pixel region on the subject is set by the calculation region setting unit, and the detection value of the observation light at the detection position included in the calculation region is acquired from the data in the storage unit by the detection value acquisition unit. Then, the pixel value calculation unit calculates the pixel value of the target pixel constituting the image from the acquired detection value. A pixel value is calculated using each pixel in the image as a target pixel, and the calculated pixel value is assigned to a corresponding pixel by the image forming unit, thereby forming an image.
この場合に、少なくとも1つの検出位置が計算領域内に含まれるように、画素領域を含む領域が計算領域として計算領域設定部によって設定されるので、検出位置を含む画素領域に対応する画素の画素値のみならず、検出位置を含まない画素領域に対応する画素の画素値も算出される。これにより、欠損画素の無い画像を得ることができる。 In this case, the region including the pixel region is set as the calculation region by the calculation region setting unit so that at least one detection position is included in the calculation region. Therefore, the pixel of the pixel corresponding to the pixel region including the detection position Not only the value but also the pixel value of the pixel corresponding to the pixel region not including the detection position is calculated. As a result, an image without missing pixels can be obtained.
本発明の第2の態様は、照明光の照射によって被写体において生じた観察光の検出値および検出位置を対応付けたデータから前記被写体の画像を形成する画像処理装置であって、前記データを記憶する記憶部と、前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定部と、該計算領域設定部によって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得部と、該検出値取得部によって取得された前記検出値に重みを付ける重み付け部と、該重み付け部によって重みを付けられた前記検出値に基づいて前記注目画素の画素値を算出する画素値算出部と、該画素値算出部によって算出された画素値を前記注目画素に割り当てて前記画像を形成する画像形成部とを備え、前記計算領域設定部が、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理装置である。 According to a second aspect of the present invention, there is provided an image processing apparatus for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other, and storing the data A calculation area setting section for setting a calculation area including a pixel area in the subject corresponding to the target pixel in the image, and the detection included in the calculation area set by the calculation area setting section A detection value acquisition unit that selects a position and acquires the detection value associated with the selected detection position from the data, and a weighting unit that weights the detection value acquired by the detection value acquisition unit A pixel value calculation unit that calculates a pixel value of the target pixel based on the detection value weighted by the weighting unit, and an image calculated by the pixel value calculation unit. An image forming unit that assigns a value to the target pixel to form the image, and the calculation region setting unit sets the calculation region so that at least one detection position is included in the calculation region. It is a processing device.
上記第2の態様においては、前記重み付け部が、前記画素領域の中心により近い検出位置に対して、より大きな重みを付けてもよい。
このようにすることで、画素領域の中心により近い検出位置における検出値が、計算領域の中心からより遠い検出位置における検出値よりも強く画素値に反映される。これにより、画素領域の中心位置における観察光の検出値を画素値として算出することができる。In the second aspect, the weighting unit may give a greater weight to a detection position closer to the center of the pixel region.
By doing in this way, the detection value at the detection position closer to the center of the pixel area is reflected in the pixel value more strongly than the detection value at the detection position farther from the center of the calculation area. Thereby, the detection value of the observation light at the center position of the pixel region can be calculated as the pixel value.
上記第2の態様においては、前記画素値算出部が、前記重み付け部によって重みが付けられた前記検出値の和および前記検出値に付けられた重みの和を算出し、前記検出値の和を前記重みの和で除算することによって、前記注目画素の画素値を算出してもよい。
計算領域内に含まれる検出位置の数は一定ではないため、画素値の算出に使用される検出値の数も一定ではない。したがって、重みを付けた検出値の和は、検出値の数によって大きくばらつく。そこで、重みを付けた検出値の和を、検出値に付けた重みの和で除算することによって、規格化された画素値を得ることができる。In the second aspect, the pixel value calculation unit calculates the sum of the detection values weighted by the weighting unit and the sum of the weights attached to the detection values, and calculates the sum of the detection values. The pixel value of the target pixel may be calculated by dividing by the sum of the weights.
Since the number of detection positions included in the calculation area is not constant, the number of detection values used for calculating the pixel value is not constant. Therefore, the sum of the weighted detection values varies greatly depending on the number of detection values. Therefore, a normalized pixel value can be obtained by dividing the sum of the weighted detection values by the weight sum added to the detection values.
上記第1および第2の態様においては、前記計算領域設定部が、前記画素領域よりも広い前記計算領域を設定してもよい。
上記第1および第2の態様においては、前記データにおける前記検出位置の空間分解能が、前記被写体における前記画素領域の空間分解能よりも高くてもよい。
このようにすることで、画素値の計算精度を向上することができる。In the first and second aspects, the calculation area setting unit may set the calculation area wider than the pixel area.
In the first and second aspects, the spatial resolution of the detection position in the data may be higher than the spatial resolution of the pixel area in the subject.
By doing in this way, the calculation accuracy of a pixel value can be improved.
上記第1および第2の態様においては、前記計算領域設定部が、前記計算領域内に含まれる前記検出位置の数に応じて前記計算領域の寸法を変更可能であってもよい。
このようにすることで、画素領域および該画素領域の周辺における検出位置の数が少ない場合には、より広い計算領域を設定して、画素値の計算精度を向上することができる。一方、画素領域および該画素領域の周辺における検出位置の数が多い場合には、より狭い計算領域を設定して、画像の解像度の低下を防ぐことができる。In the first and second aspects, the calculation region setting unit may be able to change the size of the calculation region in accordance with the number of the detection positions included in the calculation region.
In this way, when the number of pixel areas and the number of detection positions around the pixel area is small, it is possible to set a wider calculation area and improve the calculation accuracy of the pixel value. On the other hand, when the number of pixel areas and the number of detection positions around the pixel area is large, a narrower calculation area can be set to prevent a reduction in image resolution.
本発明の第3の態様は、照明光を走査しながら被写体に向かって射出する光走査部と、
前記照明光の照射によって前記被写体において発生した観察光を検出し、該観察光の検出値を得る光検出部と、上記いずれかに記載の画像処理装置とを備える光走査型観察システムである。According to a third aspect of the present invention, an optical scanning unit that emits light toward an object while scanning illumination light;
An optical scanning observation system comprising: a light detection unit that detects observation light generated in the subject by irradiation of the illumination light and obtains a detection value of the observation light; and the image processing apparatus according to any one of the above.
本発明の第4の態様は、照明光の照射によって被写体において生じた観察光の検出値および検出位置を対応付けたデータから前記被写体の画像を形成する画像処理方法であって、前記データを記憶する記憶ステップと、前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定ステップと、該計算領域設定ステップによって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得ステップと、該検出値取得ステップによって取得された前記検出値に基づいて前記注目画素の画素値を算出する画素値算出ステップと、該画素値算出ステップによって算出された画素値を前記注目画素に割り当てて前記画像を形成する画像形成ステップとを含み、前記計算領域設定ステップにおいて、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理方法である。 According to a fourth aspect of the present invention, there is provided an image processing method for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other, and storing the data Storage step, a calculation region setting step for setting a calculation region including a pixel region in the subject corresponding to the target pixel in the image, and the detection included in the calculation region set by the calculation region setting step A detection value acquisition step of selecting a position and acquiring the detection value associated with the selected detection position from the data, and the pixel of interest based on the detection value acquired by the detection value acquisition step A pixel value calculating step for calculating a pixel value of the pixel, and assigning the pixel value calculated by the pixel value calculating step to the target pixel And a image forming step of forming an image, in the calculation region setting step, an image processing method for setting the computational domain so as to include at least one of the detection positions in the calculated area.
本発明の第5の態様は、照明光の照射によって被写体において生じた観察光の検出値および検出位置を対応付けたデータから前記被写体の画像を形成する画像処理方法であって、前記データを記憶する記憶ステップと、前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定ステップと、該計算領域設定ステップによって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得ステップと、該検出値取得ステップによって取得された前記検出値に重みを付ける重み付けステップと、該重み付けステップによって重みを付けられた前記検出値に基づいて前記注目画素の画素値を算出する画素値算出ステップと、該画素値算出ステップによって算出された画素値を前記注目領域に割り当てて前記画像を形成する画像形成ステップとを含み、前記計算領域設定ステップにおいて、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理方法である。 According to a fifth aspect of the present invention, there is provided an image processing method for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other, and storing the data Storage step, a calculation region setting step for setting a calculation region including a pixel region in the subject corresponding to the target pixel in the image, and the detection included in the calculation region set by the calculation region setting step A detection value acquisition step of selecting a position and acquiring the detection value associated with the selected detection position from the data, and a weighting step of weighting the detection value acquired by the detection value acquisition step And a pixel value calculation for calculating a pixel value of the target pixel based on the detection value weighted by the weighting step. And an image forming step of forming the image by assigning the pixel value calculated by the pixel value calculating step to the region of interest, and in the calculation region setting step, at least one of the detections in the calculation region In this image processing method, the calculation area is set so that a position is included.
本発明によれば、欠損画素の無い画像を得ることができるという効果を奏する。 According to the present invention, there is an effect that an image without missing pixels can be obtained.
以下に、本発明の一実施形態に係る光走査型観察システム100について図面を参照して説明する。
本実施形態に係る光走査型観察システム100は、図1に示されるように、光走査型内視鏡装置1と、該光走査型内視鏡装置1に接続された画像処理装置2と、該画像処理装置2に接続された表示装置3とを備えている。Hereinafter, an optical
As shown in FIG. 1, an optical
光走査型内視鏡装置1は、レーザ光(照明光)Lを走査しながら被写体Aに向かって射出する光走査部4と、被写体Aからの観察光L’を検出する光検出部5と、光走査部4および光検出部5を制御する制御部6とを備えている。符号7は、体内に挿入される細長い挿入部を示し、符号8は、挿入部7の基端に接続された筐体を示している。
The optical
光走査部4は、筐体8内に設けれレーザ光Lを出力する光源9と、挿入部7内に設けられた照射用の光ファイバ10およびアクチュエータ11とを備えている。
光ファイバ10は、挿入部7内に長手方向に沿って配置されている。光ファイバ10は、光源9から供給されたレーザ光Lを導光し、先端から射出するようになっている。The optical scanning unit 4 includes a
The
アクチュエータ11は、例えば、圧電素子を備える圧電アクチュエータであり、光ファイバ10の先端部に取り付けられている。アクチュエータ11は、制御部6から供給される駆動信号に従って、光ファイバ10の先端を該光ファイバ10の長手方向に直交する略平面内において渦巻状の軌跡に沿って振動させる。これにより、挿入部7の先端から射出されたレーザ光Lが、被写体A上において渦巻状の走査軌跡Bに沿って走査されるようになっている。なお、走査軌跡は、渦巻状に限定されるものではなく、他の形状、例えばラスタ状またはリサージュ状であってもよい。
The
光検出部5は、挿入部7内に配置された受光用の光ファイバ12の基端と接続されている。光ファイバ12の先端は挿入部7の先端面に配置されている。レーザ光Lの照射によって被写体Aにおいて発生した観察光L’(例えば、レーザ光Lの反射光またはレーザ光Lによって励起された蛍光)は、光ファイバ12の先端面において受光されて、光ファイバ12によって光検出部5まで導光される。図1には光ファイバ12が1本のみ図示されているが、複数本の光ファイバ12が挿入部7内に設けられていてもよい。
The
光検出部5は、光ファイバ12を介して受光した観察光L’を光電変換し、生成された電気信号を、制御部6から一定の時間間隔で送信されてくるサンプリング信号に応答してサンプリングしてデジタル値に変換することによって、観察光L’の強度を示す検出値を得る。検出値は、画像処理装置2内の検出値用フレームメモリ14に送信される。
The
制御部6は、アクチュエータ11を駆動させるための駆動信号を発生し、該駆動信号をアクチュエータ11に送信する。また、制御部6は、一定の時間間隔でサンプリング信号を発生し、該サンプリング信号を光検出部5に送信する。制御部6は、駆動信号およびサンプリング信号を画像処理装置2内の検出位置算出部13にも送信する。
The
画像処理装置2は、図2に示されるように、駆動信号およびサンプリング信号に基づいて観察光L’の検出位置を算出する検出位置算出部13と、検出位置と検出値とを対応付けたデータを記憶する検出値用フレームメモリ(記憶部)14と、画素値の算出に用いられる計算領域Eを設定する計算領域設定部15と、計算領域E内に含まれる検出位置と対応する検出値を検出値用フレームメモリ14内のデータから取得する検出値取得部16と、データから取得された検出値に重みを付ける重み付け部17と、重みが付けられた検出値から画素値を算出する画素値算出部18と、画素値を記憶する画素値用フレームメモリ19と、画像を形成する画像形成部20とを備えている。
As shown in FIG. 2, the
観察光L’の検出位置は、観察光L’の電気信号が光検出部5によってサンプリングされた時刻における、レーザ光Lの被写体A上の照射位置を表す座標(X,Y)である。光ファイバ10の振動振幅は、駆動信号の振幅に対応しているので、駆動信号の振幅からレーザ光Lの照射位置を計算することができる。検出位置算出部13は、制御部6から駆動信号およびサンプリング信号を受信し、サンプリング信号の出力時刻におけるレーザ光Lの照射位置を駆動信号から演算する。次に、検出位置算出部13は、算出された照射位置を2次元的な位置座標(X,Y)に変換し、座標(X,Y)を検出位置として検出値用フレームメモリ14に送信する。
The detection position of the observation light L ′ is coordinates (X, Y) representing the irradiation position on the subject A of the laser light L at the time when the electrical signal of the observation light L ′ is sampled by the
検出値用フレームメモリ14は、光検出部5から観察光L’の検出値を受信し、検出位置算出部13から観察光L’の検出位置(X,Y)を受信し、観察光L’の検出値を、該検出値がサンプリングされたときの検出位置(X,Y)と対応付けて記憶する。これにより、検出値用フレームメモリ14には、図3に示されるように、検出位置(X,Y)を各検出値のアドレスとするデータが生成される。
The detection
図4は、データを2次元画像化したものである。図4に示されるように、データは、X方向(横方向)およびY方向(縦方向)に配列する区画Cからなる2次元データであり、各座標は1つの区画Cに対応する。図4において、検出値を有する区画Cは黒で表し、検出値を有しない区画Cは白で表している。 FIG. 4 is a two-dimensional image of the data. As shown in FIG. 4, the data is two-dimensional data composed of sections C arranged in the X direction (horizontal direction) and the Y direction (vertical direction), and each coordinate corresponds to one section C. In FIG. 4, a section C having a detection value is represented in black, and a section C having no detection value is represented in white.
計算領域設定部15は、画像の画素の内の1つを注目画素に設定し、画素領域Dを含む計算領域Eを設定する。画素領域Dとは、図5に示されるように、注目画素に対応する被写体A上の領域である。図5において、黒丸は、検出値のサンプリング時刻における照明光の照射位置を示している。計算領域Eの寸法は、図6に示されるように、画素領域Dの寸法よりも大きく設定されている。また、計算領域Eの寸法は、走査軌跡Bにおける検出位置の最小の密度に基づいて、少なくとも1つの検出位置が計算領域Eに含まれるように設定されている。走査軌跡Bにおける検出位置の密度は、後述するように走査軌跡B内の位置に応じて異なり、光走査型内視鏡装置1の設計値から計算で求めることができる。
The calculation
ここで、検出位置算出部13は、検出位置である座標(X,Y)の空間分解能が、画素領域Dの空間分解能よりも高くなるように、検出位置(X,Y)を算出する。したがって、1つの画素領域D内には複数の区画Cが含まれる。図6に示される例においては、座標(X,Y)の空間分解能が画素領域Dの空間分解能の3倍であり、1つの画素領域D内に3×3の区画Cが含まれている。
計算領域設定部15は、画素領域D内の中心に位置する区画Cを中心とする所定の数の区画Cからなる領域を計算領域Eに設定するようになっている。図6に示される例においては、計算領域Eは、7×7の区画Cからなる。Here, the detection
The calculation
検出値取得部16は、計算領域設定部15によって設定された計算領域E内に含まれる検出位置(X,Y)を検出値用フレームメモリ14内のデータの中から選択し、選択された検出位置(X,Y)に対応する検出値である検出値セットI0,I1,…,I10をデータから取得する。図7は、取得された検出値セットI0,I1,…,I10を2次元画像化した一例を表している。検出値取得部16は、取得された検出値セットを重み付け部17および画素値算出部18に送信する。The detection
重み付け部17は、図8に示される重み付けフィルタを有している。重み付けフィルタは、計算領域E内の区画Cの配列と同一の配列を有する重み係数Wij(i=0,1,2,…,n、j=0,1,2,…,m)からなる。図8に示される例においては、n=m=6である。重み付け部17は、検出値I0,I1,…,I10に対して、重み付けフィルタを用いて畳み込み演算を行う。畳み込み演算は、下式で表される。下式において、Iijは、計算領域E内の位置(i,j)における検出値を表している。例えば、図7に示される例において、I0は、I07と表される。The
ここで、重み付けフィルタにおいて、中心から外側に向かって重み係数Wijが順番に小さくなるように、重み係数Wijが設定されている。したがって、画素領域Dの中心により近い検出値に対して、より大きな重みが付けられるようになっている。Here, in the weighting filter, the weighting coefficients W ij from the center toward the outside so as to be smaller in order, the weight coefficient W ij is set. Therefore, a greater weight is assigned to the detection value closer to the center of the pixel region D.
畳み込み演算により、重みWijがそれぞれ付けられた検出値I0,I1,…,I10の和Siが算出される。すなわち、図7および図8の例において、
Si=I0×W06+I1×W12+I2×W15+I3×W21+I4×W24+I5×W42
+I6×W45+I7×W51+I8×W54+I9×W60+I10×W66
である。重み付け部17は、算出された和Siの値を画素値算出部18に送信する。By the convolution operation, the sum Si of the detected values I 0 , I 1 ,..., I 10 to which the weights W ij are attached is calculated. That is, in the example of FIG. 7 and FIG.
Si = I 0 × W 06 + I 1 × W 12 + I 2 × W 15 + I 3 × W 21 + I 4 × W 24 + I 5 × W 42
+ I 6 × W 45 + I 7 × W 51 + I 8 × W 54 + I 9 × W 60 + I 10 × W 66
It is. The
画素値算出部18は、検出値取得部16から、計算領域E内に含まれる検出位置(X,Y)を受信する。次に、画素値算出部18は、受信した検出位置(X,Y)に基づいて、図9に示される検出値有無セットを生成する。検出値有無セットは、計算領域E内の区画Cの配列と同一の配列を有する「0」および「1」の値からなる。画素値算出部18は、検出値有無セットにおいて、検出位置(X,Y)に対応する位置には「1」を割り当て、それ以外の位置には「0」を割り当てる。
The pixel
次に、画素値算出部18は、検出値有無セットに、重み付けフィルタを用いて畳み込み演算を行う。ここでの畳み込み演算で使用される重み付けフィルタは、重み付け部17で使用される重み付けフィルタと同一である。畳み込み演算により、検出値I0,I1,…,I10に付けられた重み係数と同一の重み係数の和Swが算出される。すなわち、図8および図9の例において、
Sw=W06+W12+W15+W21+W24+W42+W45+W51+W54+W60+W66
である。Next, the pixel
Sw = W 06 + W 12 + W 15 + W 21 + W 24 + W 42 + W 45 + W 51 + W 54 + W 60 + W 66
It is.
次に、画素値算出部18は、重み付け部17から受信した和Siを、和Swで除算することによって、注目画素の画素値Si/Swを算出する。画素値算出部18は、算出された画素値を画素値用フレームメモリ19に送信する。
Next, the pixel
画素値用フレームメモリ19は、画素値算出部18から受信した画素値を、注目画素の番号Nと対応付けて記憶することによって、画像データを生成する。ここで、計算領域設定部15は、画像内の全ての画素を順番に注目画素に設定する。これにより、全ての画素に対して検出値取得部16、重み付け部17および画素値算出部18による上述した処理が実行され、画素値用フレームメモリ19には、全ての画素の画素値が記憶される。
The pixel
画像形成部20は、画素値用フレームメモリ19から画像データを読み出し、画像データに基づき、各画素に対応する画素値を割り当てることによって画像を形成する。画像形成部20は、形成した画像を表示装置3に送信し、該表示装置3に表示させる。
The
画像処理装置2は、例えば、中央演算処理装置(CPU)と、RAMのような主記憶装置と、補助記憶装置とを備える汎用または専用のコンピュータからなる。補助記憶装置は、ハードディスクまたは各種のメモリのような非一時的な記憶媒体であり、上述した処理をCPUに実行させるための画像処理プログラムを格納している。画像処理プログラムが、補助記憶装置から主記憶装置にロードされて起動されることによって、CPUが、画像処理プログラムに従って、検出位置算出部13、計算領域設定部15、検出値取得部16、重み付け部17、画素値算出部18および画像形成部20の上述した処理を実行するようになっている。
あるいは、画像処理装置2は、CPUではなく、フィールド・プログラマブル・ゲート・アレイ(FPGA)等の集積回路を用いて構成されていてもよい。The
Alternatively, the
次に、このように構成された光走査型観察システム100の作用について説明する。
本実施形態に係る光走査型観察システム100において、制御部6からアクチュエータ11および光検出部5へ駆動信号およびサンプリング信号の送信がそれぞれ開始されると、光源9から出力されたレーザ光Lが、光ファイバ10を介して被写体Aへ照射され、被写体A上においてスパイラル状の走査軌跡Bに沿って走査される。レーザ光Lの照射位置において発生した観察光L’は、光ファイバ12によって受光され、光検出部5によって検出され、観察光L’の検出値が画像処理装置2に送信される。一方、駆動信号およびサンプリング信号も、制御部6から画像処理装置2へ送信される。Next, the operation of the optical
In the optical
図10および図11は、画像処理装置2内で実行される画像処理プロセスを示している。
画像処理装置2内において、まず、図10に示されるように、観察光L’の検出値と検出位置とを対応付けたデータが検出用フレームメモリ14内に生成および記憶される(記憶ステップS1)。すなわち、検出位置算出部13において、制御部6からの駆動信号およびサンプリング信号が受信され、駆動信号から検出値のサンプリング時刻におけるレーザ光Lの照射位置が算出され、さらに照射位置を表す座標(X,Y)が検出位置として算出され、座標(X,Y)が、光検出部5からの検出値と対応付けて検出用フレームメモリ14に記憶される。10 and 11 show an image processing process executed in the
In the
次に、検出用フレームメモリ14内のデータを用いて各画素の画素値が演算される(ステップS2)。すなわち、図11に示されるように、まず、計算領域設定部15において、注目画素が設定され(ステップS21)、注目画素に対応する画素領域Dを含み該画素領域Dよりも広い計算領域Eが設定される(計算領域設定ステップS22)。
Next, the pixel value of each pixel is calculated using the data in the detection frame memory 14 (step S2). That is, as shown in FIG. 11, first, the calculation
次に、検出値取得部16において、計算領域E内に含まれる検出位置が選択され(ステップS23)、選択された検出位置に対応する検出値セットI0,I1,…,I10が検出用フレームメモリ14内のデータから読み出される(検出値取得ステップS24)。
次に、重み付け部17において、読み出された検出値セットI0,I1,…,I10が、重み付けフィルタを用いて畳み込み演算される(重み付けステップS25)。これにより、画素領域Dの中心により近い検出位置における検出値にはより大きな重みが付けられるとともに、重みが付けられた検出値の和Siが算出される。Next, the detection
Next, in the
次に、画素値算出部18において、読み出された検出値セットI0,I1,…,I10から検出値有無セットが生成され(ステップS26)、検出値有無セットが、ステップS25において用いた重み付けフィルタと同一の重み付けフィルタを用いて畳み込み演算される(ステップS27)。これにより、検出値に付けられた重みの和Swが算出される。次に、和Siを和Swで除算することによって、注目画素の画素値Si/Swが算出される(画素値算出ステップS28)。算出された画素値は、注目画素の番号と対応付けて画素値用フレームメモリ19に記憶される(ステップS29)。Next, the pixel
次に、他の画素を注目画素に設定して、画像内の全ての画素が注目画素に設定されるまで(ステップS30のNO、ステップS31)、ステップS21〜S29が繰り返される。全ての画素に対する画素値が画素値用フレームメモリ19に記憶されると(ステップS30のYES)、画像形成部20によって、画素値用フレームメモリ19から画像データを読み出され、画像データ内の番号に基づいて画素値が対応する画素に割り当てられることによって、画像が形成される(画像形成ステップS3)。形成された画像は、表示装置3に表示される。
Next, another pixel is set as the target pixel, and steps S21 to S29 are repeated until all the pixels in the image are set as the target pixel (NO in step S30, step S31). When the pixel values for all the pixels are stored in the pixel value frame memory 19 (YES in step S30), the
この場合に、レーザ光Lをスパイラル走査する光走査内視鏡装置1において、レーザ光Lは光走査部4によって等角速度で走査され、かつ、観察光L’は光検出部5によって一定の時間間隔で検出される。したがって、走査軌跡Bのうち、中心側において検出位置の密度が高くなり、外周側において検出位置の密度が低くなる。その結果、走査軌跡Bの外周側において、検出位置を含まない画素領域Dが生じ得る。
In this case, in the optical
本実施形態によれば、少なくとも1つの検出位置を含むように計算領域Eが設定され、計算領域E内に含まれる検出位置の検出値から、対応する画素の画素値が算出される。これにより、画素値が存在しない欠損画素が生じることがなく、全ての画素が画素値を有する画像を形成することができるという利点がある。 According to the present embodiment, the calculation area E is set so as to include at least one detection position, and the pixel value of the corresponding pixel is calculated from the detection value of the detection position included in the calculation area E. Accordingly, there is an advantage that an image in which all pixels have a pixel value can be formed without a defective pixel having no pixel value.
さらに、計算領域E内において、検出位置が画素領域Dの中心に位置するとは限らず、検出位置の分布が画素領域D内で偏り得る。各画素の正確な画素値を得るためには、計算領域E内における検出値の分布を考慮し、画素領域Dの中心における観察光L’の検出値を算出する必要がある。計算領域E内に含まれる検出位置の検出値の平均を画素値として算出した場合、画素領域Dの中心から外れた位置における観察光L’の検出値に相当する値が算出され、このような画素値を画像の形成に用いた場合には、画像内にモアレが生じる等、画質の低下を招く。 Furthermore, in the calculation area E, the detection position is not necessarily located at the center of the pixel area D, and the distribution of detection positions may be biased in the pixel area D. In order to obtain an accurate pixel value of each pixel, it is necessary to calculate the detection value of the observation light L ′ at the center of the pixel region D in consideration of the distribution of detection values in the calculation region E. When the average of the detection values of the detection positions included in the calculation area E is calculated as the pixel value, a value corresponding to the detection value of the observation light L ′ at a position deviating from the center of the pixel area D is calculated. When the pixel value is used for forming an image, the image quality is deteriorated, for example, moire occurs in the image.
本実施形態によれば、画素値の計算において、画素領域Dの中心に近い検出位置の検出値に対してより大きな重みが付される。これにより、各画素の正確な画素値を算出することができ、質の高い画像を得ることができるという利点がある。 According to the present embodiment, in the calculation of the pixel value, a greater weight is given to the detection value at the detection position close to the center of the pixel region D. Thereby, there is an advantage that an accurate pixel value of each pixel can be calculated and a high-quality image can be obtained.
さらに、図7および図8に示されるように、一部の重み係数Wijには、対応する検出値が存在しない。このように部分的に検出値が存在しない検出値セットに対して重み付けフィルタを適用する際に、検出値セット内の検出値の数に応じて畳み込み演算結果Siが大きくばらつく。本実施形態によれば、この畳み込み演算結果Siが、検出値有無セットと重み付けフィルタとの畳み込み演算結果Swで除算されることによって、規格化される。これにより、重み付けフィルタを用いて検出値の重み付けを適切に行うことができるという利点がある。Furthermore, as shown in FIG. 7 and FIG. 8, there is no corresponding detection value for some weighting factors W ij . When the weighting filter is applied to the detection value set in which the detection value does not partially exist in this way, the convolution calculation result Si greatly varies depending on the number of detection values in the detection value set. According to the present embodiment, the convolution calculation result Si is normalized by being divided by the convolution calculation result Sw of the detection value presence / absence set and the weighting filter. Thereby, there exists an advantage that weighting of a detected value can be performed appropriately using a weighting filter.
本実施形態においては、重み付け部17によって検出値に重みを付け、その後に画素値算出部18によって規格化することにより画素値を算出することとしたが、これに代えて、検出値の重み付けを行わず、画素値算出部18が、検出値セットI0,I1,…,I10の加算平均を画素値として算出してもよい。これは、重み付け部17および画素値算出部18において、全ての重み係数Wijの値を1にすることと同義である。
このようにしても、部分的に検出値が存在しない検出値セットに対して、画素値の演算結果のばらつきを排除することができる。In this embodiment, the
Even in this case, it is possible to eliminate variation in the calculation result of the pixel value with respect to the detection value set in which the detection value does not partially exist.
本実施形態においては、計算領域設定部15が、固定の寸法の計算領域Eを設定することとしたが、これに代えて、検出位置の数に応じて計算領域Eの寸法を変更可能であってもよい。
例えば、計算領域設定部15は、最初に小さな寸法(例えば、画素領域Dと等しい寸法)の計算領域Eを設定し、該計算領域E内に含まれる検出位置の数が所定の数以上である場合には、この小さな寸法の計算領域Eを適用する。一方、小さな寸法の計算領域E内に含まれる検出位置の数が所定の数未満である場合には、計算領域E内に含まれる検出位置の数が所定の数以上となるまで、計算領域Eの寸法を段階的に拡大する。In the present embodiment, the calculation
For example, the calculation
計算領域Eの寸法が大きい程、画像の解像度は低下する。したがって、計算領域Eの寸法を、欠損画素の発生を防ぐことができる最小限の寸法に抑えることによって、画像の解像度の低下を防ぐことができる。 The larger the size of the calculation area E, the lower the resolution of the image. Therefore, by reducing the size of the calculation region E to the minimum size that can prevent the occurrence of defective pixels, it is possible to prevent a reduction in the resolution of the image.
1 光走査型内視鏡装置
2 画像処理装置
3 表示装置
4 光走査部
5 光検出部
6 制御部
7 挿入部
8 筐体
9 光源
10,12 光ファイバ
11 アクチュエータ
13 検出位置算出部
14 検出値用フレームメモリ(記憶部)
15 計算領域設定部
16 検出値取得部
17 重み付け部
18 画素値算出部
19 画素値用フレームメモリ
20 画像形成部
100 光走査型観察システム
A 被写体
B 走査軌跡
C 区画
D 画素領域
E 計算領域
L レーザ光(照明光)
L’ 観察光DESCRIPTION OF
DESCRIPTION OF
L 'Observation light
Claims (10)
前記データを記憶する記憶部と、
前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定部と、
該計算領域設定部によって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得部と、
該検出値取得部によって取得された前記検出値に基づいて前記注目画素の画素値を算出する画素値算出部と、
該画素値算出部によって算出された画素値を前記注目画素に割り当てて前記画像を形成する画像形成部とを備え、
前記計算領域設定部が、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理装置。An image processing apparatus for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other,
A storage unit for storing the data;
A calculation area setting unit for setting a calculation area including a pixel area in the subject corresponding to the target pixel in the image;
A detection value acquisition unit that selects the detection position included in the calculation region set by the calculation region setting unit, and acquires the detection value associated with the selected detection position from the data;
A pixel value calculation unit that calculates a pixel value of the target pixel based on the detection value acquired by the detection value acquisition unit;
An image forming unit that forms the image by allocating the pixel value calculated by the pixel value calculating unit to the target pixel;
The image processing apparatus, wherein the calculation area setting unit sets the calculation area so that at least one detection position is included in the calculation area.
前記データを記憶する記憶部と、
前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定部と、
該計算領域設定部によって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得部と、
該検出値取得部によって取得された前記検出値に重みを付ける重み付け部と、
該重み付け部によって重みを付けられた前記検出値に基づいて前記注目画素の画素値を算出する画素値算出部と、
該画素値算出部によって算出された画素値を前記注目画素に割り当てて前記画像を形成する画像形成部とを備え、
前記計算領域設定部が、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理装置。An image processing apparatus for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other,
A storage unit for storing the data;
A calculation area setting unit for setting a calculation area including a pixel area in the subject corresponding to the target pixel in the image;
A detection value acquisition unit that selects the detection position included in the calculation region set by the calculation region setting unit and acquires the detection value associated with the selected detection position from the data;
A weighting unit for weighting the detection value acquired by the detection value acquisition unit;
A pixel value calculation unit that calculates a pixel value of the target pixel based on the detection value weighted by the weighting unit;
An image forming unit that forms the image by allocating the pixel value calculated by the pixel value calculating unit to the target pixel;
The image processing apparatus, wherein the calculation area setting unit sets the calculation area so that at least one detection position is included in the calculation area.
前記照明光の照射によって前記被写体において発生した観察光を検出し、該観察光の検出値を得る光検出部と、
請求項1から請求項7のいずれかに記載の画像処理装置とを備える光走査型観察システム。A light scanning unit that emits light toward the subject while scanning illumination light;
A light detection unit that detects observation light generated in the subject by irradiation of the illumination light and obtains a detection value of the observation light;
An optical scanning observation system comprising the image processing apparatus according to claim 1.
前記データを記憶する記憶ステップと、
前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定ステップと、
該計算領域設定ステップによって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得ステップと、
該検出値取得ステップによって取得された前記検出値に基づいて前記注目画素の画素値を算出する画素値算出ステップと、
該画素値算出ステップによって算出された画素値を前記注目画素に割り当てて前記画像を形成する画像形成ステップとを含み、
前記計算領域設定ステップにおいて、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理方法。An image processing method for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other,
A storage step for storing the data;
A calculation area setting step for setting a calculation area including a pixel area in the subject corresponding to the target pixel in the image;
A detection value acquisition step of selecting the detection position included in the calculation area set by the calculation area setting step, and acquiring the detection value associated with the selected detection position from the data;
A pixel value calculation step for calculating a pixel value of the target pixel based on the detection value acquired by the detection value acquisition step;
An image forming step of forming the image by assigning the pixel value calculated by the pixel value calculating step to the target pixel,
An image processing method for setting the calculation area so that at least one of the detection positions is included in the calculation area in the calculation area setting step.
前記データを記憶する記憶ステップと、
前記画像内の注目画素に対応する前記被写体における画素領域を含む計算領域を設定する計算領域設定ステップと、
該計算領域設定ステップによって設定された前記計算領域内に含まれる前記検出位置を選択し、選択された前記検出位置と対応付けられている前記検出値を前記データから取得する検出値取得ステップと、
該検出値取得ステップによって取得された前記検出値に重みを付ける重み付けステップと、
該重み付けステップによって重みを付けられた前記検出値に基づいて前記注目画素の画素値を算出する画素値算出ステップと、
該画素値算出ステップによって算出された画素値を前記注目領域に割り当てて前記画像を形成する画像形成ステップとを含み、
前記計算領域設定ステップにおいて、前記計算領域内に少なくとも1つの前記検出位置が含まれるように前記計算領域を設定する画像処理方法。An image processing method for forming an image of a subject from data in which a detection value and a detection position of observation light generated in the subject by illumination light irradiation are associated with each other,
A storage step for storing the data;
A calculation area setting step for setting a calculation area including a pixel area in the subject corresponding to the target pixel in the image;
A detection value acquisition step of selecting the detection position included in the calculation area set by the calculation area setting step, and acquiring the detection value associated with the selected detection position from the data;
A weighting step of weighting the detection value acquired by the detection value acquisition step;
A pixel value calculating step for calculating a pixel value of the target pixel based on the detection value weighted by the weighting step;
An image forming step of forming the image by assigning the pixel value calculated by the pixel value calculating step to the region of interest,
An image processing method for setting the calculation area so that at least one of the detection positions is included in the calculation area in the calculation area setting step.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/085106 WO2017104002A1 (en) | 2015-12-15 | 2015-12-15 | Image processing apparatus, optical scanning type observation system, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2017104002A1 true JPWO2017104002A1 (en) | 2018-10-04 |
Family
ID=59056207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017555909A Pending JPWO2017104002A1 (en) | 2015-12-15 | 2015-12-15 | Image processing apparatus, optical scanning observation system, and image processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2017104002A1 (en) |
WO (1) | WO2017104002A1 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015145826A1 (en) * | 2014-03-28 | 2015-10-01 | オリンパス株式会社 | Scanning endoscopic device |
-
2015
- 2015-12-15 JP JP2017555909A patent/JPWO2017104002A1/en active Pending
- 2015-12-15 WO PCT/JP2015/085106 patent/WO2017104002A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2017104002A1 (en) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6587185B2 (en) | Distance image generating apparatus and distance image generating method | |
JP6137847B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP5679702B2 (en) | Video processing apparatus and method | |
JP6556445B2 (en) | Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method | |
US10379329B2 (en) | Microscope system and setting value calculation method | |
JP2010115391A (en) | Endoscope apparatus | |
JP6736670B2 (en) | Endoscope system | |
JP6203109B2 (en) | Optical scanning image forming apparatus and optical scanning image forming method | |
US20180172830A1 (en) | Distance image processing device, distance image processing method, distance image processing program, and recording medium | |
JP5638890B2 (en) | Imaging apparatus, imaging method, and program | |
JP6776692B2 (en) | Parallax calculation system, mobiles and programs | |
JP6626117B2 (en) | Optical scanning device and optical scanning device control method | |
JP6630432B2 (en) | Range image processing device, range image acquisition device, and range image processing method | |
WO2017104002A1 (en) | Image processing apparatus, optical scanning type observation system, and image processing method | |
JP2016151524A (en) | Speckle imaging device, speckle imaging system, and speckle imaging method | |
WO2018135005A1 (en) | Signal processing device, photoacoustic wave imaging device, and signal processing method | |
JP2010131112A (en) | Endoscope system | |
JP5829198B2 (en) | Ultrasonic inspection apparatus, signal processing method and program for ultrasonic inspection apparatus | |
WO2023276326A1 (en) | Optical image processing method, machine learning method, trained model, machine learning preprocessing method, optical image processing module, optical image processing program, and optical image processing system | |
JP2017068302A (en) | Image creation device and image creation method | |
WO2014050889A1 (en) | Ultrasonic inspection device, signal processing method for ultrasonic inspection device, and program | |
JP2008046484A (en) | Automatic focus detecting device and method | |
WO2021014799A1 (en) | Signal processing device and signal processing method | |
JP2011239304A5 (en) | ||
JPWO2017037781A1 (en) | Scanning observation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180302 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200107 |