JP2009273655A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2009273655A
JP2009273655A JP2008127725A JP2008127725A JP2009273655A JP 2009273655 A JP2009273655 A JP 2009273655A JP 2008127725 A JP2008127725 A JP 2008127725A JP 2008127725 A JP2008127725 A JP 2008127725A JP 2009273655 A JP2009273655 A JP 2009273655A
Authority
JP
Japan
Prior art keywords
image
light
irradiation
shape
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008127725A
Other languages
Japanese (ja)
Inventor
Kiyohiro Maeda
青広 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008127725A priority Critical patent/JP2009273655A/en
Publication of JP2009273655A publication Critical patent/JP2009273655A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system capable of specifying the shape of an object surface. <P>SOLUTION: This image processing system is provided with a light illumination section for illuminating an illumination light to an object, an image acquisition section for acquiring a surface image, or the image of the surface of the object where the illumination light is illuminated, an illumination direction calculation section for calculating the illumination direction of the illumination light, and a shape calculation section calculating the shape of the surface of the object where the illumination light is illuminated, based on the image content of the surface image and the illumination direction of the illumination light calculated by the illumination direction calculation section. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理システムに関する。本発明は、特に、画像を処理する画像処理システムに関する。   The present invention relates to an image processing system. The present invention particularly relates to an image processing system for processing an image.

観察部位の吸光特性が異なる二つの波長の光による二つの映像信号の差を検出することにより、照明光の反射光成分を除去した画像信号を生成する技術が考案されている(例えば、特許文献1参照。)。
特許第2643941号公報
A technique has been devised for generating an image signal from which the reflected light component of illumination light is removed by detecting the difference between two video signals due to light of two wavelengths having different light absorption characteristics of the observation site (for example, Patent Documents). 1).
Japanese Patent No. 2643941

しかしながら、上記特許文献に記載の技術では、物体表面の形状に関する情報が失われてしまう。   However, in the technique described in the above patent document, information on the shape of the object surface is lost.

上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射部と、照射光の照射方向を算出する照射方向算出部と、照射光が照射された物体の表面の画像である表面画像を取得する画像取得部と、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、物体の表面の形状を算出する形状算出部とを備える。   In order to solve the above problem, according to a first embodiment of the present invention, in an image processing system, a light irradiation unit that irradiates an object with irradiation light whose luminance changes spatially with a predetermined luminance change pattern; An irradiation direction calculation unit that calculates the irradiation direction of the irradiation light, an image acquisition unit that acquires a surface image that is an image of the surface of the object irradiated with the irradiation light, a difference in the luminance pattern in the surface image with respect to the luminance change pattern, and A shape calculating unit that calculates the shape of the surface of the object based on the irradiation direction.

また、本発明の第2の形態によると、画像処理方法であって、空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射段階と、照射光の照射方向を算出する照射方向算出段階と、照射光が照射された物体の表面の画像である表面画像を取得する画像取得段階と、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、物体の表面の形状を算出する形状算出段階とを備える。   According to a second aspect of the present invention, there is provided an image processing method comprising: a light irradiation stage for irradiating an object with irradiation light whose luminance changes spatially in a predetermined luminance change pattern; and an irradiation direction of the irradiation light. Based on the irradiation direction calculation stage to calculate, the image acquisition stage to acquire the surface image that is the image of the surface of the object irradiated with the irradiation light, the difference of the luminance pattern in the surface image with respect to the luminance change pattern, and the irradiation direction, A shape calculating step of calculating the shape of the surface of the object.

また、本発明の第3の形態によると、画像処理システム用のプログラムであって、コンピュータを、空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射部、照射光の照射方向を算出する照射方向算出部、照射光が照射された物体の表面の画像である表面画像を取得する画像取得部、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、物体の表面の形状を算出する形状算出部として機能させる。   According to a third aspect of the present invention, there is provided a program for an image processing system, wherein a computer irradiates an object with irradiation light whose luminance changes spatially with a predetermined luminance change pattern, and irradiation An irradiation direction calculation unit that calculates an irradiation direction of light, an image acquisition unit that acquires a surface image that is an image of the surface of an object irradiated with irradiation light, a difference in luminance pattern in a surface image with respect to a luminance change pattern, and an irradiation direction Based on this, it is made to function as a shape calculation unit for calculating the shape of the surface of the object.

本発明の第4の形態によると、画像処理システムであって、照射光を物体に照射する光照射部と、光照射部が照射する照射光の照射方向と略同一の方向から、照射光が照射された物体を撮像することにより、物体の表面の画像である表面画像を撮像する撮像部と、表面画像における輝度値に基づいて、照射光を正反射した物体の表面上の位置である正反射位置を算出する正反射位置算出部と、正反射位置における物体の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における物体の表面の形状を算出する形状算出部とを備える。   According to the fourth aspect of the present invention, in the image processing system, the irradiation light is irradiated from a light irradiation unit that irradiates the object with irradiation light, and a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit. An imaging unit that captures a surface image that is an image of the surface of the object by imaging the irradiated object, and a positive position that is a position on the surface of the object that regularly reflects the irradiation light based on the luminance value in the surface image. The object at the specular reflection position is obtained by setting the normal direction of the surface in contact with the surface of the object at the specular reflection position to be the irradiation direction of the irradiation light irradiated at the specular reflection position. And a shape calculating unit for calculating the shape of the surface of the surface.

本発明の第5の形態によると、画像処理方法であって、照射光を物体に照射する光照射段階と、照射光の照射方向と略同一の方向から、照射光が照射された物体を撮像することにより、物体の表面の画像である表面画像を撮像する撮像段階と、表面画像における輝度値に基づいて、照射光を正反射した物体の表面上の位置である正反射位置を算出する正反射位置算出段階と、正反射位置における物体の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における物体の表面の形状を算出する形状算出段階とを備える。   According to a fifth aspect of the present invention, there is provided an image processing method for imaging an object irradiated with irradiation light from a light irradiation step of irradiating the object with irradiation light and a direction substantially the same as the irradiation direction of the irradiation light. Thus, based on the imaging stage for capturing a surface image, which is an image of the surface of the object, and a normal reflection position that is a position on the surface of the object that regularly reflected the irradiation light based on the luminance value in the surface image, Calculates the shape of the surface of the object at the specular reflection position by calculating the reflection position and setting the normal direction of the surface in contact with the surface of the object at the specular reflection position as the irradiation direction of the irradiation light irradiated at the specular reflection position. A shape calculating step.

本発明の第6の形態によると、画像処理ステム用のプログラムであって、コンピュータを、照射光を物体に照射する光照射部、光照射部が照射する照射光の照射方向と略同一の方向から、照射光が照射された物体を撮像することにより、物体の表面の画像である表面画像を撮像する撮像部、表面画像における輝度値に基づいて、照射光を正反射した物体の表面上の位置である正反射位置を算出する正反射位置算出部、正反射位置における物体の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における物体の表面の形状を算出する形状算出部として機能させる。   According to the sixth aspect of the present invention, there is provided a program for an image processing stem, wherein the computer has a light irradiation unit that irradiates an object with irradiation light, and a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit From the imaging unit that captures a surface image that is an image of the surface of the object by imaging the object irradiated with the irradiation light, on the surface of the object that regularly reflects the irradiation light based on the luminance value in the surface image Regular reflection position calculation unit for calculating the regular reflection position, which is the position, the normal direction of the surface in contact with the surface of the object at the regular reflection position is set as the irradiation direction of the irradiation light irradiated to the regular reflection position. It functions as a shape calculation unit for calculating the shape of the surface of the object at the position.

本発明の第7の形態によると、画像処理システムであって、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射部と、光照射部から照射された第1照射光が物体の表面で反射した光、および光照射部から照射された第2照射光が物体の表面で反射した光により、物体の表面の画像である表面画像を撮像する撮像部と、表面画像から、影の領域である影領域を特定する影領域特定部と、第2照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて、第1照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて算出した物体の表面の形状の空間分解能より高い空間分解能で、物体の表面の形状を算出する形状算出部とを備える。   According to a seventh aspect of the present invention, in the image processing system, the first irradiation light that is light in the first wavelength region and the second irradiation light that is light in the second wavelength region shorter than the first wavelength region are provided. A light irradiating unit for irradiating the object, a light reflected from the surface of the object by the first irradiating light irradiated from the light irradiating unit, and a light reflected from the surface of the object by the second irradiating light irradiated from the light irradiating unit The imaging unit that captures the surface image that is the image of the surface of the object, the shadow region specifying unit that specifies the shadow region that is the shadow region from the surface image, and the light that the second irradiation light reflects on the surface of the object The object calculated based on the position and irradiation direction of the shadow area specified from the surface image by the light reflected from the surface of the object based on the position and irradiation direction of the shadow area specified from the surface image by Higher spatial resolution than the surface resolution of the surface , And a shape calculation section that calculates the shape of the surface of the object.

本発明の第8の形態によると、画像処理方法であって、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射段階と、光照射段階において照射された第1照射光が物体の表面で反射した光、および光照射段階において照射された第2照射光が物体の表面で反射した光により、物体の表面の画像である表面画像を撮像する撮像段階と、表面画像から、影の領域である影領域を特定する影領域特定段階と、第2照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて、第1照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて算出した物体の表面の形状の空間分解能より高い空間分解能で、物体の表面の形状を算出する形状算出段階とを備える。   According to an eighth aspect of the present invention, there is provided an image processing method comprising: first irradiation light that is light in a first wavelength region; and second irradiation light that is light in a second wavelength region shorter than the first wavelength region. The light irradiation stage for irradiating the object, the light reflected from the surface of the object by the first irradiation light irradiated in the light irradiation stage, and the light reflected from the surface of the object by the second irradiation light irradiated in the light irradiation stage The imaging step of capturing a surface image that is an image of the surface of the object, the shadow region specifying step of specifying the shadow region that is the shadow region from the surface image, and the light that the second irradiation light reflects on the surface of the object The object calculated based on the position and irradiation direction of the shadow area specified from the surface image by the light reflected from the surface of the object based on the position and irradiation direction of the shadow area specified from the surface image by Than the spatial resolution of the surface shape In There spatial resolution, and a shape calculation step of calculating the shape of the surface of the object.

本発明の第9の形態によると、画像処理システム用のプログラムであって、コンピュータを、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射部、光照射部から照射された第1照射光が物体の表面で反射した光、および光照射部から照射された第2照射光が物体の表面で反射した光により、物体の表面の画像である表面画像を撮像する撮像部、表面画像から、影の領域である影領域を特定する影領域特定部、第2照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて、第1照射光が物体の表面で反射した光による表面画像から特定された影領域の位置および照射方向に基づいて算出した物体の表面の形状の空間分解能より高い空間分解能で、物体の表面の形状を算出する形状算出部として機能させる。   According to a ninth aspect of the present invention, there is provided a program for an image processing system, wherein a computer is irradiated with first irradiation light that is light in a first wavelength region and light in a second wavelength region that is shorter than the first wavelength region. A light irradiation unit that irradiates an object with a certain second irradiation light, a light that is reflected from the surface of the object by the first irradiation light irradiated from the light irradiation unit, and a second irradiation light that is irradiated from the light irradiation unit An imaging unit that captures a surface image that is an image of the surface of the object by light reflected from the surface, a shadow region specifying unit that specifies a shadow region that is a shadow region from the surface image, and the second irradiation light on the surface of the object Based on the position and irradiation direction of the shadow area specified from the surface image by the light reflected from the surface of the object based on the position and irradiation direction of the shadow area specified from the surface image by the reflected light Calculated object surface shape space With high spatial resolution than resolution, to function as a shape calculation section that calculates the shape of the surface of the object.

本発明の第10の形態によると、画像処理システムであって、異なる位置からそれぞれ撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得部と、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における、表面画像を撮像した撮像部と物体との間の位置関係を特定する位置関係特定部と、複数の表面画像の画像内容、および位置関係特定部が特定した位置関係に基づいて、表面の形状を算出する形状算出部とを備える。   According to the tenth aspect of the present invention, the image processing system is a plurality of surface images that are images of the surface of an object captured from different positions, and the peripheral images in the surface image from the central image region. An image acquisition unit that acquires a plurality of surface images with reduced image quality in a region, and an imaging unit that images the surface images when each of the plurality of surface images is captured based on the image contents of the plurality of surface images; A positional relationship identifying unit that identifies a positional relationship with the object; and a shape calculating unit that calculates the shape of the surface based on the image contents of the plurality of surface images and the positional relationship identified by the positional relationship identifying unit. .

本発明の第11の形態によると、画像処理方法であって、異なる位置からそれぞれ撮像部により撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得段階と、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における撮像部と物体との間の位置関係を特定する位置関係特定段階と、複数の表面画像の画像内容、および位置関係特定段階において特定された位置関係に基づいて、表面の形状を算出する形状算出段階とを備える。   According to an eleventh aspect of the present invention, there is provided an image processing method, which is a plurality of surface images that are images of the surface of an object each captured by an imaging unit from different positions, and in the surface image from a central image region. An image acquisition stage for acquiring a plurality of surface images with reduced image quality in a peripheral image region, and an imaging unit and an object when each of the plurality of surface images is captured based on the image contents of the plurality of surface images A positional relationship specifying step of specifying a positional relationship between the images, and a shape calculating step of calculating the shape of the surface based on the image contents of the plurality of surface images and the positional relationship specified in the positional relationship specifying step.

本発明の第12の形態によると、画像処理システム用のプログラムであって、コンピュータを、異なる位置からそれぞれ撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得部、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における、表面画像を撮像した撮像部と物体との間の位置関係を特定する位置関係特定部、複数の表面画像の画像内容、および位置関係特定部が特定した位置関係に基づいて、表面の形状を算出する形状算出部として機能させる。   According to a twelfth aspect of the present invention, there is provided a program for an image processing system, wherein a computer is a plurality of surface images each of which is an image of a surface of an object imaged from different positions. An image acquisition unit that acquires a plurality of surface images with reduced image quality in a peripheral image region of the surface image, and the surface image when each of the plurality of surface images is captured based on the image contents of the plurality of surface images. Shape calculation that calculates the shape of the surface based on the positional relationship specifying unit that specifies the positional relationship between the imaged imaging unit and the object, the image contents of the plurality of surface images, and the positional relationship specified by the positional relationship specifying unit Function as a part.

本発明の第13の形態によると、画像処理システムであって、物体の表面の画像である表面画像を取得する画像取得部と、表面画像における、物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、物体の表面の形状を算出する形状算出部とを備える。   According to a thirteenth aspect of the present invention, in the image processing system, an image acquisition unit that acquires a surface image that is an image of the surface of an object, and a specific subject that is distributed in a predetermined pattern on the surface of the object in the surface image And a shape calculation unit that calculates the shape of the surface of the object based on the distribution of the specific object imaged.

本発明の第14の形態によると、画像処理方法であって、物体の表面の画像である表面画像を取得する画像取得段階と、表面画像における、物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、物体の表面の形状を算出する形状算出段階とを備える。   According to a fourteenth aspect of the present invention, there is provided an image processing method for acquiring a surface image that is an image of the surface of an object, and a specific subject distributed in a predetermined pattern on the surface of the object in the surface image And a shape calculating step of calculating the shape of the surface of the object based on the distribution of the specific object imaged.

本発明の第15の形態によると、画像処理システム用のプログラムであって、コンピュータを、物体の表面の画像である表面画像を取得する画像取得部、表面画像における、物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、物体の表面の形状を算出する形状算出部として機能させる。   According to a fifteenth aspect of the present invention, there is provided a program for an image processing system, wherein the computer has an image acquisition unit that acquires a surface image that is an image of the surface of the object, and a predetermined pattern on the surface of the object in the surface image Based on the distribution of the specific object obtained by imaging the specific subject distributed in (2), it is made to function as a shape calculation unit that calculates the shape of the surface of the object.

なお、上記の発明の概要は、この発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じてこの発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, although this invention is demonstrated through embodiment of invention, the following embodiment does not limit the invention concerning a claim. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態に係わる内視鏡システム10の構成の一例を、生体190とともに示す。内視鏡システム10は、生体190を撮像して得られた生体190の表面の画像である表面画像から、表面の形状を特定する。また、内視鏡システム10は、特定した表面の形状に基づいて、表面の形状を強調した出力画像を生成する。また、内視鏡システム10は、特定した表面の形状に基づいて、生体190における癌、腫瘍などの異常組織の部位を特定する。   FIG. 1 shows an example of the configuration of an endoscope system 10 according to an embodiment, together with a living body 190. The endoscope system 10 identifies the shape of the surface from a surface image that is an image of the surface of the living body 190 obtained by imaging the living body 190. Further, the endoscope system 10 generates an output image in which the surface shape is emphasized based on the identified surface shape. Further, the endoscope system 10 specifies a site of an abnormal tissue such as cancer or tumor in the living body 190 based on the specified surface shape.

内視鏡システム10は、内視鏡の一部としてのスコープ100、鉗子135、画像処理部140、制御部105、光照射部120、操作部160、および出力部150を備える。なお、図1において、A部は、スコープ100の先端部102を拡大して示す。なお、内視鏡システム10は、以下に説明するように、撮像システムあるいは画像処理システムとして機能することができる。また、生体190は、この発明における物体の一例であってよい。   The endoscope system 10 includes a scope 100 as a part of an endoscope, forceps 135, an image processing unit 140, a control unit 105, a light irradiation unit 120, an operation unit 160, and an output unit 150. In FIG. 1, an A portion shows an enlarged view of the distal end portion 102 of the scope 100. The endoscope system 10 can function as an imaging system or an image processing system, as will be described below. The living body 190 may be an example of an object in the present invention.

スコープ100は、撮像部110および鉗子口130を有しており、光照射部120の一部としてのライトガイド124を内蔵する。スコープ100の先端部102は、ノズル138、撮像部110の一部としてのレンズ112、およびライトガイド124の一部としての出射口128を有する。なお、スコープ100が内蔵するライトガイド124および出射口128は、スコープ100の外部に設けられた発光部122とともに、光照射部120として機能する。なお、スコープ100は、発光部122を内蔵することもできる。   The scope 100 has an imaging unit 110 and a forceps port 130 and incorporates a light guide 124 as a part of the light irradiation unit 120. The distal end portion 102 of the scope 100 includes a nozzle 138, a lens 112 as a part of the imaging unit 110, and an emission port 128 as a part of the light guide 124. The light guide 124 and the emission port 128 built in the scope 100 function as the light irradiation unit 120 together with the light emitting unit 122 provided outside the scope 100. The scope 100 can also incorporate a light emitting unit 122.

鉗子口130には鉗子135が挿入され、鉗子口130は鉗子135を先端部102にガイドする。なお、鉗子135は、各種の先端形状を備えてよい。なお、鉗子口130には、鉗子の他に、生体190を処置する種々の処置具が挿入されてよい。ノズル138は、水あるいは空気を生体190に送出する。   A forceps 135 is inserted into the forceps port 130, and the forceps port 130 guides the forceps 135 to the distal end portion 102. Note that the forceps 135 may have various tip shapes. In addition to the forceps, various treatment tools for treating the living body 190 may be inserted into the forceps port 130. The nozzle 138 sends water or air to the living body 190.

発光部122は、出射口128から生体190に向けて照射される光を発生する。発光部122は、赤成分、緑成分、および青成分の光を含む可視光を発生してよい。発光部122は、ハロゲンランプであってよい。また、発光部122は、赤外光などの不可視光を発生してもよい。また、発光部122は、可視光および不可視光を含む光を発生してもよい。   The light emitting unit 122 generates light that is emitted from the emission port 128 toward the living body 190. The light emitting unit 122 may generate visible light including light of a red component, a green component, and a blue component. The light emitting unit 122 may be a halogen lamp. In addition, the light emitting unit 122 may generate invisible light such as infrared light. Further, the light emitting unit 122 may generate light including visible light and invisible light.

ライトガイド124は、一例として光ファイバで形成される。ライトガイド124は、発光部122が発生した光をスコープ100の先端部102の出射口128にガイドする。発光部122で発生して出射口128から出射した光は、照射光として生体190に照射される。なお、照射光は、後に説明するように、生体190の表面の形状を算出するために照射する光として機能することができる。また、照射光は、生体190を照明する照明光としても機能することができる。   The light guide 124 is formed of an optical fiber as an example. The light guide 124 guides the light generated by the light emitting unit 122 to the emission port 128 of the distal end portion 102 of the scope 100. The light generated by the light emitting unit 122 and emitted from the emission port 128 is applied to the living body 190 as irradiation light. In addition, irradiation light can function as light irradiated in order to calculate the shape of the surface of the biological body 190 so that it may demonstrate later. Further, the irradiation light can also function as illumination light for illuminating the living body 190.

なお、スコープ100は、一例として生物の内部に挿入される。そして、撮像部110は、生物内部の生体190を照射光により撮像する。具体的には、撮像部110は、照射光が照射された生体190からの光により、生体190の表面192の画像である表面画像を撮像する。具体的には、撮像部110は、照射光が生体190で反射した光である反射光を受光して、生体190の画像を撮像する。なお、生体190としては、胃の粘膜、腸の消化器の粘膜等のような、生物の消化器の粘膜を例示することができる。   Note that the scope 100 is inserted into an organism as an example. And the imaging part 110 images the biological body 190 inside a living organism with irradiation light. Specifically, the imaging unit 110 captures a surface image that is an image of the surface 192 of the living body 190 with the light from the living body 190 irradiated with the irradiation light. Specifically, the imaging unit 110 receives reflected light that is light reflected by the living body 190 and captures an image of the living body 190. The living body 190 can be exemplified by the digestive mucosa of a living organism such as the mucous membrane of the stomach and the digestive tract of the intestine.

画像処理部140は、撮像部110により得られた表面画像を処理する。例えば、画像処理部140は、表面画像の画像内容を解析して、解析結果を生成する。例えば、画像処理部140は、表面画像の画像内容を解析して、生体190の表面形状を示す解析結果を生成する。具体的には、画像処理部140は、表面画像を解析することにより、表面192に含まれる凹部196aおよび凸部194aおよび凸部194b、ならびに表面192に含まれる凹部196aおよび凹部196bの位置を特定することにより、表面192の形状を示す解析結果を生成する。   The image processing unit 140 processes the surface image obtained by the imaging unit 110. For example, the image processing unit 140 analyzes the image content of the surface image and generates an analysis result. For example, the image processing unit 140 analyzes the image content of the surface image and generates an analysis result indicating the surface shape of the living body 190. Specifically, the image processing unit 140 analyzes the surface image to identify the positions of the recesses 196a and the projections 194a and 194b included in the surface 192, and the recesses 196a and 196b included in the surface 192. By doing so, an analysis result indicating the shape of the surface 192 is generated.

なお、凸部194aおよび凹部196aは、生体190に異常組織が発生している場合に期待される空間スケールの凹凸であってよい。また、凸部194bおよび凹部196bは、生体190の正常組織が元々有する空間スケールの凹凸であってよい。   In addition, the convex part 194a and the concave part 196a may be an unevenness of a space scale expected when an abnormal tissue is generated in the living body 190. Further, the convex portion 194b and the concave portion 196b may be irregularities on a space scale that the normal tissue of the living body 190 originally has.

また、画像処理部140は、当該表面形状に基づいて表面画像に画像処理を施して出力画像を生成してよい。例えば、画像処理部140は、表面画像における凸部194aおよび凹部196aを示す画像領域を、表面画像における凸部194bおよび凹部196bを示す画像領域より強調した出力画像を生成してよい。そして、画像処理部140は、解析結果または出力画像の少なくとも一方を出力部150に供給する。   The image processing unit 140 may generate an output image by performing image processing on the surface image based on the surface shape. For example, the image processing unit 140 may generate an output image in which an image region indicating the convex portion 194a and the concave portion 196a in the surface image is emphasized from an image region indicating the convex portion 194b and the concave portion 196b in the surface image. Then, the image processing unit 140 supplies at least one of the analysis result or the output image to the output unit 150.

出力部150は、画像処理部140から供給された解析結果または出力画像を出力する。例えば、出力部150は、出力画像を不揮発性メモリ等の記録媒体に記録してよい。また、出力部150は、出力画像を表示してもよい。また、出力部150は、解析結果を表示したり、解析結果を記録媒体に記録してよい。   The output unit 150 outputs the analysis result or the output image supplied from the image processing unit 140. For example, the output unit 150 may record the output image on a recording medium such as a nonvolatile memory. The output unit 150 may display an output image. The output unit 150 may display the analysis result or record the analysis result on a recording medium.

なお、操作部160は、ユーザから操作指示を取得する。具体的には、操作部160は、スコープ100を制御する制御内容を含む指示を、ユーザから取得する。例えば、操作部160は、スコープ100の先端部102を駆動する駆動量を含む指示を、ユーザから取得する。一例として、操作部160は、スコープ100の先端部102のアングルを変化させる場合にユーザが回転させるアングル制御ノブを有しており、アングル制御ノブがユーザによって回転させられた回転量を含む指示を、スコープ100の先端部102を駆動する駆動量を含む指示としてユーザから取得してよい。   Note that the operation unit 160 acquires an operation instruction from the user. Specifically, the operation unit 160 acquires an instruction including control content for controlling the scope 100 from the user. For example, the operation unit 160 acquires an instruction including a driving amount for driving the distal end portion 102 of the scope 100 from the user. As an example, the operation unit 160 has an angle control knob that is rotated by the user when the angle of the distal end portion 102 of the scope 100 is changed, and an instruction including the amount of rotation that the angle control knob is rotated by the user. Alternatively, an instruction including a drive amount for driving the distal end portion 102 of the scope 100 may be acquired from the user.

制御部105は、操作部160がユーザから取得した指示に基づいて、スコープ100を制御する。例えば、制御部105は、当該指示に基づいて、スコープ100を駆動してよい。例えば、制御部105は、操作部160が取得した回転量に応じた量だけ、スコープ100の先端部102のアングルを変化させてよい。   The control unit 105 controls the scope 100 based on the instruction acquired by the operation unit 160 from the user. For example, the control unit 105 may drive the scope 100 based on the instruction. For example, the control unit 105 may change the angle of the distal end portion 102 of the scope 100 by an amount corresponding to the rotation amount acquired by the operation unit 160.

他にも、制御部105は、発光部122による光の発生を制御してよい。例えば、制御部105は、発光部122が発生する光の波長を制御してよい。具体的には、制御部105は、発光部122が可視光または不可視光の少なくとも一方を発生するタイミングを制御してよい。なお、制御部105は、操作部160が取得した指示に基づいて、発光部122による光の発生を制御してよい。   In addition, the control unit 105 may control the generation of light by the light emitting unit 122. For example, the control unit 105 may control the wavelength of light generated by the light emitting unit 122. Specifically, the control unit 105 may control the timing at which the light emitting unit 122 generates at least one of visible light and invisible light. Note that the control unit 105 may control the generation of light by the light emitting unit 122 based on the instruction acquired by the operation unit 160.

また、制御部105は、画像処理部140による画像処理の内容を制御してよい。例えば、制御部105は、表面形状を強調する強調処理の種類を、操作部160が取得したユーザからの指示に基づいて決定してよい。そして、画像処理部140は、制御部105が決定した種類の強調処理を表面画像に施すことによって、出力画像を生成してよい。   Further, the control unit 105 may control the contents of image processing performed by the image processing unit 140. For example, the control unit 105 may determine the type of enhancement processing for emphasizing the surface shape based on an instruction from the user acquired by the operation unit 160. Then, the image processing unit 140 may generate an output image by performing the type of enhancement processing determined by the control unit 105 on the surface image.

このように、内視鏡システム10によると、生体190の表面192の形状を特定することができる。そして、内視鏡システム10によると、表面192の形状に応じて適切な画像処理がなされた出力画像を提供することができる。   Thus, according to the endoscope system 10, the shape of the surface 192 of the living body 190 can be specified. The endoscope system 10 can provide an output image that has been subjected to appropriate image processing according to the shape of the surface 192.

図2は、画像処理部140のブロック構成の一例を示す。画像処理部140は、画像取得部210、正反射位置算出部240、影領域特定部250、位置関係特定部270、形状算出部200、および出力画像生成部290を備える。位置関係特定部270は、速度算出部242、制御量取得部244、および位置関係算出部260を有する。また、位置関係算出部260は、撮像方向算出部220および照射方向算出部230を含む。   FIG. 2 shows an example of a block configuration of the image processing unit 140. The image processing unit 140 includes an image acquisition unit 210, a regular reflection position calculation unit 240, a shadow region specification unit 250, a positional relationship specification unit 270, a shape calculation unit 200, and an output image generation unit 290. The positional relationship specifying unit 270 includes a speed calculation unit 242, a control amount acquisition unit 244, and a positional relationship calculation unit 260. Further, the positional relationship calculation unit 260 includes an imaging direction calculation unit 220 and an irradiation direction calculation unit 230.

画像取得部210は、生体190の表面の画像である表面画像を取得する。具体的には、画像取得部210は、撮像部110が撮像した表面画像を取得する。より具体的には、画像取得部210は、照射光が照射された生体190の表面の画像である表面画像を取得する。   The image acquisition unit 210 acquires a surface image that is an image of the surface of the living body 190. Specifically, the image acquisition unit 210 acquires a surface image captured by the imaging unit 110. More specifically, the image acquisition unit 210 acquires a surface image that is an image of the surface of the living body 190 irradiated with the irradiation light.

そして、形状算出部200は、表面画像の画像内容に基づいて、生体190の表面の形状を算出する。具体的には、形状算出部200は、表面画像の画像内容に基づいて、照射光が照射された生体190の表面の形状を算出する。例えば、形状算出部200は、後に説明するように、表面画像の輝度値に基づいて、生体190の表面の形状を算出する。   Then, the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the image content of the surface image. Specifically, the shape calculation unit 200 calculates the shape of the surface of the living body 190 irradiated with the irradiation light based on the image content of the surface image. For example, as will be described later, the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the luminance value of the surface image.

より具体的には、形状算出部200は、表面画像の輝度値に基づいて、表面画像が有する特定のオブジェクトの位置、特定のオブジェクトの間の間隔、および特定のオブジェクトの大きさの少なくともいずれかを特定して、特定した特定のオブジェクトの位置、特定のオブジェクトの間の間隔、および特定のオブジェクトの大きさに基づいて、生体190の表面の形状を算出してよい。なお、特定のオブジェクトは、後述するように、特定の輝度パターンの照明光を表面192に照射した場合に表面192に現れる輝度パターン像、表面192に現れているピット像、表面画像におけるスペキュラ像、表面画像に含まれる影の像を含む。   More specifically, the shape calculation unit 200 based on the luminance value of the surface image, at least one of the position of the specific object that the surface image has, the interval between the specific objects, and the size of the specific object And the shape of the surface of the living body 190 may be calculated based on the position of the specified specific object, the interval between the specific objects, and the size of the specific object. As will be described later, the specific object includes a luminance pattern image that appears on the surface 192 when the surface 192 is illuminated with a specific luminance pattern, a pit image that appears on the surface 192, a specular image in the surface image, Includes the shadow image included in the surface image.

正反射位置算出部240は、表面画像における輝度値に基づいて、照射光を正反射した生体190の表面上の位置である正反射位置を算出する。そして、形状算出部200は、照射光の照射方向に基づいて、正反射位置における表面の形状を算出する。   The regular reflection position calculation unit 240 calculates a regular reflection position, which is a position on the surface of the living body 190 that regularly reflected the irradiation light, based on the luminance value in the surface image. And the shape calculation part 200 calculates the shape of the surface in a regular reflection position based on the irradiation direction of irradiation light.

具体的には、形状算出部200は、正反射位置における生体190の表面に接する面の法線方向を、正反射位置に照射された照射光の照射方向とすることにより、正反射位置における生体190の表面の形状を算出する。なお、形状算出部200は、上記法線方向を、正反射位置算出部240によって正反射位置が算出された表面画像が撮像された場合に正反射位置に照射されていた照射光の照射方向とすることにより、正反射位置における生体190の表面の形状を算出することはいうまでもない。また、形状算出部200が正反射位置に基づいて表面の形状を算出する場合、撮像部110は、光照射部120が照射する照射光の照射方向と略同一の方向から、照射光が照射された生体190を撮像することにより、表面画像を撮像しているとする。   Specifically, the shape calculation unit 200 sets the normal direction of the surface in contact with the surface of the living body 190 at the specular reflection position as the irradiation direction of the irradiation light irradiated to the specular reflection position, so that the living body at the specular reflection position. The surface shape of 190 is calculated. The shape calculation unit 200 uses the normal direction as the irradiation direction of the irradiation light irradiated to the regular reflection position when the surface image whose regular reflection position is calculated by the regular reflection position calculation unit 240 is captured. Thus, it goes without saying that the shape of the surface of the living body 190 at the regular reflection position is calculated. Further, when the shape calculation unit 200 calculates the shape of the surface based on the regular reflection position, the imaging unit 110 is irradiated with irradiation light from a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit 120. It is assumed that a surface image is captured by capturing the living body 190.

なお、光照射部120は、異なる複数の照射方向から生体190に照射光を照射してよい。そして、撮像部110は、光照射部120により異なる複数の照射方向から照射光がそれぞれ照射された生体190をそれぞれ撮像することにより、異なる複数の照射方向からそれぞれ照射光が照射された複数の表面画像を撮像してよい。そして、正反射位置算出部240は、複数の表面画像のそれぞれにおける輝度値に基づいて、照射光を正反射した生体190の表面上の位置である複数の正反射位置を算出してよい。そして、形状算出部200は、複数の正反射位置のそれぞれにおける生体190の表面に接する面の法線方向を、複数の正反射位置のそれぞれの正反射位置が特定された表面画像が撮像された場合に複数の正反射位置のそれぞれに照射されていた照射光の照射方向とすることにより、複数の正反射位置のそれぞれにおける生体190の表面の形状を算出してよい。   The light irradiation unit 120 may irradiate the living body 190 with irradiation light from a plurality of different irradiation directions. Then, the imaging unit 110 images the living body 190 irradiated with the irradiation light from the plurality of different irradiation directions by the light irradiation unit 120, respectively, and thereby the plurality of surfaces irradiated with the irradiation light from the plurality of different irradiation directions, respectively. An image may be taken. Then, the regular reflection position calculation unit 240 may calculate a plurality of regular reflection positions, which are positions on the surface of the living body 190 that regularly reflected the irradiation light, based on the luminance value in each of the plurality of surface images. Then, the shape calculation unit 200 captures a surface image in which each normal reflection position of each of the plurality of regular reflection positions is specified with respect to a normal direction of a surface in contact with the surface of the living body 190 at each of the plurality of regular reflection positions. In this case, the shape of the surface of the living body 190 at each of the plurality of regular reflection positions may be calculated by using the irradiation direction of the irradiation light that has been irradiated to each of the plurality of regular reflection positions.

これにより、形状算出部200は、スポット的な小領域でなく、広い領域の表面形状を算出することができる。なお、ユーザからの指示によりスコープ100の先端部102のアングルが時間的に変化することで出射口128から照射される照射光の向きが時間的に変化することにより、光照射部120は異なるタイミングでそれぞれ複数の照射方向から生体190に照射光を照射してよい。この場合、正反射位置算出部240は、ユーザが生体の表面を観察すべくスコープ100の位置・向きを変えた場合に撮像された複数の表示画像のそれぞれの画像内容に基づいて、異なる方向から照射光が照射された場合における正反射位置を算出することができる。これにより、形状算出部200は、ユーザによる観察行為の最中に表面形状を算出することができる。   Thereby, the shape calculation part 200 can calculate the surface shape of a wide area | region instead of a spot-like small area | region. Note that the light irradiation unit 120 has different timings because the direction of the irradiation light irradiated from the exit port 128 changes with time because the angle of the distal end portion 102 of the scope 100 changes with time according to an instruction from the user. The living body 190 may be irradiated with irradiation light from a plurality of irradiation directions. In this case, the specular reflection position calculation unit 240 starts from different directions based on the image contents of each of the plurality of display images captured when the user changes the position / orientation of the scope 100 to observe the surface of the living body. It is possible to calculate the regular reflection position when the irradiation light is irradiated. Thereby, the shape calculation part 200 can calculate a surface shape in the middle of the observation act by a user.

影領域特定部250は、表面画像から、影の領域である影領域を特定する。具体的には、影領域特定部250は、表面画像における輝度値に基づいて、表面画像から影領域を特定してよい。そして、形状算出部200は、影領域の位置、および照射方向に基づいて、生体190の表面の形状を算出する。具体的には、形状算出部200は、影領域の位置、形状、および照射光の照射方向に基づいて、生体190の表面の形状を算出する。また、形状算出部200は、影領域の位置、形状、および照射光の照射方向に基づいて、生体190の表面の高さを算出することにより、生体190の表面の形状を算出する。   The shadow area specifying unit 250 specifies a shadow area that is a shadow area from the surface image. Specifically, the shadow area specifying unit 250 may specify the shadow area from the surface image based on the luminance value in the surface image. Then, the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the position of the shadow region and the irradiation direction. Specifically, the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the position and shape of the shadow region and the irradiation direction of the irradiation light. In addition, the shape calculation unit 200 calculates the shape of the surface of the living body 190 by calculating the height of the surface of the living body 190 based on the position and shape of the shadow region and the irradiation direction of the irradiation light.

なお、形状算出部200は、影領域に対応する生体190の表面上の領域に隣接しており、照射光を生体190に照射する光照射部120に近い領域の高さを、影領域に対応する生体190の表面上の領域より高く算出する。また、形状算出部200は、影領域の照射方向の長さがより長い場合に、光照射部120に近い領域の高さをより高く算出してよい。なお、撮像部110が照射光の照射方向と略同一の方向から生体190を撮像することにより表面画像を撮像している場合には、形状算出部200は、影領域が示す生体190の表面上の影領域に隣接していて、撮像部110に近い領域の高さを、影領域が示す生体190の表面上の領域より高く算出することになる。   The shape calculation unit 200 is adjacent to the region on the surface of the living body 190 corresponding to the shadow region, and the height of the region close to the light irradiation unit 120 that irradiates the living body 190 with the irradiation light corresponds to the shadow region. Higher than the area on the surface of the living body 190 to be calculated. In addition, when the length of the shadow region in the irradiation direction is longer, the shape calculation unit 200 may calculate the height of the region close to the light irradiation unit 120 higher. In addition, when the imaging unit 110 captures a surface image by capturing the living body 190 from substantially the same direction as the irradiation direction of the irradiation light, the shape calculation unit 200 displays on the surface of the living body 190 indicated by the shadow region. The height of the region adjacent to the shadow region and close to the imaging unit 110 is calculated to be higher than the region on the surface of the living body 190 indicated by the shadow region.

なお、出力画像生成部290は、形状算出部200が算出した表面192の形状に基づいて表面画像に画像処理を施すことにより、出力画像を生成する。一例として、出力画像生成部290は、表面形状に応じた陰影処理、テクスチャ処理、スペキュラー処理、グレースケール処理、カラーマップ処理、ワイヤフレーム処理を、表面画像に施すことにより出力画像を生成してよい。このようにして、出力画像生成部290は、形状算出部200が算出した表面192の形状が示す3次元構造を強調した出力画像を生成することができる。出力画像生成部290が生成した出力画像は、出力画像を出力部150に供給され、出力部150において記録または表示される。   Note that the output image generation unit 290 generates an output image by performing image processing on the surface image based on the shape of the surface 192 calculated by the shape calculation unit 200. As an example, the output image generation unit 290 may generate an output image by performing shading processing, texture processing, specular processing, gray scale processing, color map processing, and wire frame processing according to the surface shape on the surface image. . In this way, the output image generation unit 290 can generate an output image in which the three-dimensional structure indicated by the shape of the surface 192 calculated by the shape calculation unit 200 is emphasized. The output image generated by the output image generation unit 290 is supplied to the output unit 150, and is recorded or displayed on the output unit 150.

なお、出力画像生成部290は、ユーザによる操作部160からの指示に基づいて、表面画像を回転させた出力画像を生成してよい。例えば、出力画像生成部290は、操作部160から画像の回転量を含む指示を取得して、当該回転量で表面画像を回転させた出力画像を生成してよい。これにより、内視鏡システム10によると、実際にスコープ100を回転させることなく、ユーザが欲する方向から生体190を見た場合に得られるべき画像を提供することができる。   Note that the output image generation unit 290 may generate an output image obtained by rotating the surface image based on an instruction from the operation unit 160 by the user. For example, the output image generation unit 290 may acquire an instruction including an image rotation amount from the operation unit 160 and generate an output image obtained by rotating the surface image by the rotation amount. Thereby, according to the endoscope system 10, it is possible to provide an image to be obtained when the living body 190 is viewed from the direction desired by the user without actually rotating the scope 100.

なお、位置関係特定部270は、生体190と撮像部110との間の位置関係、または生体190と光照射部120との間の位置関係を特定する。そして、形状算出部200は、位置関係特定部270が特定した位置関係に基づいて、生体190の表面の形状を特定してよい。なお、この発明における生体190と撮像部110との間の位置関係とは、生体190とレンズ112との間の位置関係を意味してよい。また、この発明における生体190と光照射部120との間の位置関係とは、生体190と出射口128との間の位置関係を意味してよい。   The positional relationship specifying unit 270 specifies the positional relationship between the living body 190 and the imaging unit 110 or the positional relationship between the living body 190 and the light irradiation unit 120. Then, the shape calculating unit 200 may specify the shape of the surface of the living body 190 based on the positional relationship specified by the positional relationship specifying unit 270. Note that the positional relationship between the living body 190 and the imaging unit 110 in the present invention may mean the positional relationship between the living body 190 and the lens 112. In addition, the positional relationship between the living body 190 and the light irradiation unit 120 in the present invention may mean the positional relationship between the living body 190 and the emission port 128.

なお、本実施形態のように、レンズ112および出射口128がスコープ100の先端部102に設けられている場合、生体190と撮像部110との間の位置関係、または生体190と光照射部120との間の位置関係は、生体190と先端部102との間の位置関係を意味してよい。また、生体190と撮像部110との間の位置関係は、撮像部110の撮像方向を示す情報をさらに含んでよい。また、生体190と光照射部120との間の位置関係は、照射光の照射方向を示す情報をさらに含んでよい。また、撮像部110の撮像方向と照射光の照射方向とが略同一である場合には、生体190と先端部102との間の位置関係は、先端部102の向きを示す情報をさらに含んでよい。   Note that, when the lens 112 and the emission port 128 are provided at the distal end portion 102 of the scope 100 as in the present embodiment, the positional relationship between the living body 190 and the imaging unit 110 or the living body 190 and the light irradiation unit 120. The positional relationship between the living body 190 and the distal end portion 102 may mean a positional relationship between the living body 190 and the distal end portion 102. In addition, the positional relationship between the living body 190 and the imaging unit 110 may further include information indicating the imaging direction of the imaging unit 110. Moreover, the positional relationship between the living body 190 and the light irradiation unit 120 may further include information indicating the irradiation direction of the irradiation light. Further, when the imaging direction of the imaging unit 110 and the irradiation direction of the irradiation light are substantially the same, the positional relationship between the living body 190 and the distal end portion 102 further includes information indicating the orientation of the distal end portion 102. Good.

例えば、位置関係特定部270は、複数の表面画像の画像内容に基づいて、複数の表面画像のそれぞれを撮像した場合における撮像部110と生体190との間の位置関係を特定する。そして、形状算出部200は、複数の表面画像の画像内容、および位置関係特定部270が特定した位置関係に基づいて、表面の形状を算出する。   For example, the positional relationship specifying unit 270 specifies the positional relationship between the imaging unit 110 and the living body 190 when each of the plurality of surface images is captured based on the image contents of the plurality of surface images. Then, the shape calculating unit 200 calculates the surface shape based on the image contents of the plurality of surface images and the positional relationship specified by the positional relationship specifying unit 270.

具体的には、撮像部110は、ユーザからの指示によってスコープ100の先端部102の位置が変化している間に連続的に表面画像を撮像することによって、生体190に対して異なる位置から複数の表面画像を撮像する。そして、画像取得部210は、当該複数の表面画像を取得する。そして、速度算出部242は、当該複数の表面画像の画像内容に基づいて、撮像部110が生体190に対して動く速度を算出する。なお、撮像部110が生体190に対して動く速度とは、レンズ112が生体190に対して動く速度を意味してよい。例えば、速度算出部242は、複数の表面画像のそれぞれから同一被写体を示すオブジェクトの位置を特定して、特定した位置に基づいて、撮像部110が生体190に対して動く速度を算出する。   Specifically, the imaging unit 110 captures a plurality of images from different positions with respect to the living body 190 by continuously capturing a surface image while the position of the distal end portion 102 of the scope 100 is changing according to an instruction from the user. The surface image of is taken. Then, the image acquisition unit 210 acquires the plurality of surface images. Then, the speed calculation unit 242 calculates the speed at which the imaging unit 110 moves relative to the living body 190 based on the image contents of the plurality of surface images. Note that the speed at which the imaging unit 110 moves relative to the living body 190 may mean the speed at which the lens 112 moves relative to the living body 190. For example, the speed calculation unit 242 specifies the position of the object indicating the same subject from each of the plurality of surface images, and calculates the speed at which the imaging unit 110 moves relative to the living body 190 based on the specified position.

そして、位置関係算出部260は、速度算出部242が算出した速度、および複数の表面画像のそれぞれを撮像部110が撮像したタイミングに基づいて、位置関係を算出する。具体的には、位置関係算出部260は、特定のタイミングにおける撮像部110と生体190との間の位置関係、および速度算出部242が算出した速度に基づいて、他のタイミングにおける撮像部110と生体190との間の位置関係を算出する。   Then, the positional relationship calculation unit 260 calculates the positional relationship based on the speed calculated by the speed calculation unit 242 and the timing at which the imaging unit 110 images each of the plurality of surface images. Specifically, the positional relationship calculation unit 260 is connected to the imaging unit 110 at another timing based on the positional relationship between the imaging unit 110 and the living body 190 at a specific timing and the speed calculated by the speed calculation unit 242. The positional relationship with the living body 190 is calculated.

より具体的には、撮像方向算出部220は、特定のタイミングにおける撮像方向、および速度算出部242が算出した速度に基づいて、他のタイミングにおける撮像方向を算出する。また、照射方向算出部230は、特定のタイミングにおける照射光の照射方向、および速度算出部242が算出した速度に基づいて、他のタイミングにおける照射光の照射方向を算出する。なお、撮像方向と照射方向との関係が予め定められている場合には、撮像方向算出部220は、当該関係および照射方向算出部230が算出した照射方向に基づいて、撮像方向を算出することができる。同様に、照射方向算出部230は、当該関係および撮像方向算出部220が算出した撮像方向に基づいて、照射方向を算出することができる。   More specifically, the imaging direction calculation unit 220 calculates the imaging direction at another timing based on the imaging direction at a specific timing and the speed calculated by the speed calculation unit 242. Further, the irradiation direction calculation unit 230 calculates the irradiation direction of irradiation light at other timings based on the irradiation direction of irradiation light at a specific timing and the speed calculated by the speed calculation unit 242. When the relationship between the imaging direction and the irradiation direction is determined in advance, the imaging direction calculation unit 220 calculates the imaging direction based on the relationship and the irradiation direction calculated by the irradiation direction calculation unit 230. Can do. Similarly, the irradiation direction calculation unit 230 can calculate the irradiation direction based on the relationship and the imaging direction calculated by the imaging direction calculation unit 220.

そして、形状算出部200は、照射方向算出部230が算出した照射方向および撮像方向算出部220が算出した撮像方向の少なくとも一方、および複数の表面画像の画像内容に基づいて、表面の形状を算出する。例えば、画像取得部210は、表面画像を撮像する撮像部110が異なる方向から撮像した複数の表面画像を取得する。そして、形状算出部200は、異なる撮像方向からそれぞれ撮像されて得られた複数の表面画像における視差情報に基づいて、表面の形状を算出してよい。また、形状算出部200は、異なる照射方向から照射光が照射されている場合にそれぞれ撮像されて得られた複数の表面画像の間における輝度の差に基づいて、表面の形状を算出してよい。   Then, the shape calculation unit 200 calculates the surface shape based on at least one of the irradiation direction calculated by the irradiation direction calculation unit 230 and the imaging direction calculated by the imaging direction calculation unit 220 and the image contents of the plurality of surface images. To do. For example, the image acquisition unit 210 acquires a plurality of surface images captured from different directions by the imaging unit 110 that captures a surface image. Then, the shape calculation unit 200 may calculate the shape of the surface based on the parallax information in the plurality of surface images obtained by imaging from different imaging directions. Further, the shape calculation unit 200 may calculate the shape of the surface based on the luminance difference between the plurality of surface images obtained by imaging when the irradiation light is irradiated from different irradiation directions. .

このように、形状算出部200は、複数の表面画像の画像内容、および位置関係算出部260が算出した位置関係に基づいて、表面の形状を算出する。なお、形状算出部200は、表面画像の画像内容、および照射方向に基づいて、照射光が照射された生体190の表面の、照射光が照射された照射方向に対する傾きを算出することにより、生体190の表面の形状を算出してよい。   As described above, the shape calculation unit 200 calculates the shape of the surface based on the image contents of the plurality of surface images and the positional relationship calculated by the positional relationship calculation unit 260. The shape calculation unit 200 calculates the inclination of the surface of the living body 190 irradiated with the irradiation light with respect to the irradiation direction irradiated with the irradiation light based on the image content of the surface image and the irradiation direction. The surface shape of 190 may be calculated.

なお、位置関係算出部260は、スコープ100の先端部102の位置を制御する制御量に基づいて、上記位置関係を算出することもできる。具体的には、位置関係算出部260は、スコープ100の先端部102の位置を制御部105が制御する制御値に基づいて、上記位置関係を算出してよい。位置関係算出部260は、一例として、制御部105がスコープ100を屈曲させるモータを制御する制御値に基づいて、上記位置関係を算出してよい。なお、スコープ100の先端部102の位置を制御する制御量は、この発明における照射光の照射方向を制御する制御量の一例であってよい。   The positional relationship calculation unit 260 can also calculate the positional relationship based on a control amount that controls the position of the distal end portion 102 of the scope 100. Specifically, the positional relationship calculation unit 260 may calculate the positional relationship based on a control value that the control unit 105 controls the position of the distal end portion 102 of the scope 100. For example, the positional relationship calculation unit 260 may calculate the positional relationship based on a control value for controlling a motor that causes the control unit 105 to bend the scope 100. The control amount for controlling the position of the distal end portion 102 of the scope 100 may be an example of the control amount for controlling the irradiation direction of the irradiation light in the present invention.

そして、照射方向算出部230は、制御量取得部244が取得した制御量に基づいて、照射光が照射された照射方向を算出する。例えば、照射方向算出部230は、制御量に対応づけて照射方向の変化量を予め記憶しており、照射方向算出部230は、制御量取得部244が取得した制御量に対応づけて記憶している照射方向の変化量、および当該制御量による制御前の照射方向に基づいて、当該制御量による制御後の照射方向を算出することができる。同様にして、撮像方向算出部220は、制御量取得部244が取得した制御量に基づいて、撮像方向を算出することができる。   And the irradiation direction calculation part 230 calculates the irradiation direction with which irradiation light was irradiated based on the control amount which the control amount acquisition part 244 acquired. For example, the irradiation direction calculation unit 230 stores the amount of change in the irradiation direction in advance in association with the control amount, and the irradiation direction calculation unit 230 stores in association with the control amount acquired by the control amount acquisition unit 244. Based on the amount of change in the irradiation direction and the irradiation direction before the control by the control amount, the irradiation direction after the control by the control amount can be calculated. Similarly, the imaging direction calculation unit 220 can calculate the imaging direction based on the control amount acquired by the control amount acquisition unit 244.

なお、上記の説明では、形状算出部200は、表面画像における影の画像、表面画像から特定された正反射位置、異なる撮像方向から撮像された複数の表面画像に基づく視差情報、あるいは異なる照射方向から光が照射されて撮像された複数の表面画像に基づく輝度情報に基づいて、表面形状を算出した。他にも、形状算出部200は、表面画像から特定の画像パターンを抽出して、抽出した画像パターンに基づいて、生体190の表面の形状を算出することができる。形状算出部200が当該画像パターンに基づいて生体190の表面の形状を算出する算出方法については、図6および図7に関連して後に説明する。   In the above description, the shape calculation unit 200 is configured to display the shadow image in the surface image, the specular reflection position specified from the surface image, parallax information based on a plurality of surface images captured from different imaging directions, or different irradiation directions. The surface shape was calculated based on luminance information based on a plurality of surface images picked up by light. In addition, the shape calculation unit 200 can extract a specific image pattern from the surface image and calculate the shape of the surface of the living body 190 based on the extracted image pattern. A calculation method in which the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the image pattern will be described later with reference to FIGS.

このように、ユーザの指示によって先端部102の位置が変化させられることで、レンズ112の位置または出射口128の位置が変化する。内視鏡システム10によると、位置変化させながら撮像された表面画像から、生体190の表面の形状を算出することができる。また、内視鏡システム10によると、表面192の形状に応じて適切な画像処理を施すことによって、異常組織を検出し易い出力画像を提供することができる場合がある。また、内視鏡システム10によると、算出した形状に基づいて、異常組織に特有な空間スケールの凹凸を抽出することにより、異常組織の位置またはその異常度を推定することができる場合がある。また、内視鏡システム10によると、表面192の形状に基づいて、異常組織の凹部の深さまたは異常組織の凸部の高さ、あるいはその形状を特定することで、異常組織の異常度を推定することができる場合がある。   As described above, the position of the tip portion 102 is changed by an instruction from the user, whereby the position of the lens 112 or the position of the emission port 128 changes. According to the endoscope system 10, the shape of the surface of the living body 190 can be calculated from the surface image captured while changing the position. In addition, according to the endoscope system 10, an output image that can easily detect abnormal tissue may be provided by performing appropriate image processing according to the shape of the surface 192. Further, according to the endoscope system 10, there is a case where the position of the abnormal tissue or the degree of abnormality thereof can be estimated by extracting the unevenness of the spatial scale peculiar to the abnormal tissue based on the calculated shape. Further, according to the endoscope system 10, the degree of abnormality of the abnormal tissue is determined by specifying the depth of the concave portion of the abnormal tissue, the height of the convex portion of the abnormal tissue, or the shape thereof based on the shape of the surface 192. It may be possible to estimate.

図3は、撮像部110の構成の一例を示す。撮像部110は、レンズ112、フィルタ部310、受光部300、および画像生成部330を有する。レンズ112は、生体190からの光を受光部300に結像させる。なお、フィルタ部310は、異なる波長領域の光を選択的に透過する複数の色フィルタ素子が略同一面上にマトリクス状に配列されたカラーフィルタであってよい。画像生成部330は、図4に関連して説明する受光部300が有する受光素子が受光した受光量に基づいて、表面画像を生成する。画像生成部330が生成した表面画像は、画像取得部210に供給される。   FIG. 3 shows an example of the configuration of the imaging unit 110. The imaging unit 110 includes a lens 112, a filter unit 310, a light receiving unit 300, and an image generation unit 330. The lens 112 causes the light from the living body 190 to form an image on the light receiving unit 300. The filter unit 310 may be a color filter in which a plurality of color filter elements that selectively transmit light in different wavelength regions are arranged in a matrix on substantially the same plane. The image generation unit 330 generates a surface image based on the amount of light received by the light receiving element included in the light receiving unit 300 described with reference to FIG. The surface image generated by the image generation unit 330 is supplied to the image acquisition unit 210.

図4は、受光部300における受光素子の配列の一例を示す。受光部300は、赤外成分の光を受光するIR光受光素子410、赤成分の光を受光するR光受光素子420、緑成分の光を受光するG光受光素子430、および青成分の光を受光するB光受光素子440を有する受光ユニット400を有する。受光部300は、受光ユニット400と同様の配列の受光ユニットが2次元的に配列されて形成される。なお、本図において、IRが付された領域にはIR光受光素子410が形成され、Rが付された領域にはR光受光素子420が形成され、Gが付された領域にはG光受光素子430が形成され、Bが付された領域にはB光受光素子440が形成される。   FIG. 4 shows an example of the arrangement of the light receiving elements in the light receiving unit 300. The light receiving unit 300 includes an IR light receiving element 410 that receives infrared component light, an R light receiving element 420 that receives red component light, a G light receiving element 430 that receives green component light, and a blue component light. A light receiving unit 400 having a B light receiving element 440 for receiving light. The light receiving unit 300 is formed by two-dimensionally arranging light receiving units having the same arrangement as the light receiving unit 400. In this figure, the IR light receiving element 410 is formed in the region to which IR is attached, the R light receiving element 420 is formed in the region to which R is attached, and the G light is applied to the region to which G is attached. A light receiving element 430 is formed, and a B light receiving element 440 is formed in a region marked with B.

このように、受光部300は、特定の波長領域の光をそれぞれ選択的に受光するIR光受光素子410、R光受光素子420、G光受光素子430、及びB光受光素子440が所定のパターンでマトリクス状に配列されて形成される。なお、フィルタ部310は、受光部300が有する複数の受光素子のそれぞれの位置に対応した位置に色フィルタ素子が設けられている。そして、受光部300が有する複数の受光素子のそれぞれは、対応した位置に設けられた色フィルタ素子が透過した光を受光する。   As described above, the light receiving unit 300 includes an IR light receiving element 410, an R light receiving element 420, a G light receiving element 430, and a B light receiving element 440 that selectively receive light in a specific wavelength region, respectively, in a predetermined pattern. And arranged in a matrix. The filter unit 310 is provided with color filter elements at positions corresponding to the respective positions of the plurality of light receiving elements of the light receiving unit 300. And each of the some light receiving element which the light-receiving part 300 has receives the light which the color filter element provided in the corresponding position permeate | transmitted.

なお、光照射部120は、赤外成分の光、赤成分の光、緑成分の光、および青成分の光を含む光を照射する。そして、受光部300は、赤外成分の光、赤成分の光、緑成分の光、および青成分の光を含む照射光を照射した場合に生体190から戻ってくる戻り光を受光する。具体的には、受光部300は、光照射部120から照射された照射光が場合に生体190の表面192で反射した反射光を受光する。例えば、IR光受光素子410、R光受光素子420、G光受光素子430、およびB光受光素子440は、それぞれ、反射光に含まれる赤外成分の光、赤成分の光、緑成分の光、および青成分の光を含む光を受光する。   Note that the light irradiation unit 120 irradiates light including infrared component light, red component light, green component light, and blue component light. The light receiving unit 300 receives the return light that returns from the living body 190 when irradiated with irradiation light including infrared component light, red component light, green component light, and blue component light. Specifically, the light receiving unit 300 receives the reflected light reflected by the surface 192 of the living body 190 when the irradiation light irradiated from the light irradiation unit 120 is present. For example, the IR light receiving element 410, the R light receiving element 420, the G light receiving element 430, and the B light receiving element 440 respectively include infrared component light, red component light, and green component light included in the reflected light. , And light including blue component light.

なお、光照射部120は、赤成分の光、緑成分の光、および青成分の光を含む可視光を、生体190を照明する照明光として照射してよい。そして、光照射部120は、不可視光の一例としての赤外成分の光を、生体190の表面192を算出するための照射光として照射する。そして、形状算出部200は、受光部300が有する複数のIR光受光素子410が受光した光に基づく表面画像に基づいて、生体190の表面192を算出してよい。   The light irradiation unit 120 may irradiate visible light including red component light, green component light, and blue component light as illumination light for illuminating the living body 190. And the light irradiation part 120 irradiates the light of the infrared component as an example of invisible light as irradiation light for calculating the surface 192 of the biological body 190. Then, the shape calculation unit 200 may calculate the surface 192 of the living body 190 based on the surface image based on the light received by the plurality of IR light receiving elements 410 included in the light receiving unit 300.

このように、光照射部120は、一例として、不可視光である照射光を生体190に照射する。そして、形状算出部200は、不可視光である照射光により生体190の表面が撮像された生体190の表面の画像である表面画像の画像内容、および照射方向に基づいて、生体190の表面の形状を算出する。   Thus, the light irradiation part 120 irradiates the biological body 190 with the irradiation light which is invisible light as an example. Then, the shape calculation unit 200 determines the shape of the surface of the living body 190 based on the image content of the surface image that is an image of the surface of the living body 190 obtained by imaging the surface of the living body 190 with the irradiation light that is invisible light, and the irradiation direction. Is calculated.

なお、光照射部120は、照明光の強度とは独立に不可視光の光強度を制御することができる。このため、形状算出部200は、より高いSN比で表面形状を算出することができる場合がある。また、内視鏡システム10によると、可視光によって照明されて得られた表面画像と、不可視光により生成された形状算出用の表面画像とを同時に得ることができる。このため、内視鏡システム10によると、先端部102が高速に移動している場合においても、より高い時間解像度で表面形状を算出して、算出した表面192の形状に基づいて表面画像に画像処理を施すことができる。   In addition, the light irradiation part 120 can control the light intensity of invisible light independently of the intensity of illumination light. For this reason, the shape calculation unit 200 may be able to calculate the surface shape with a higher SN ratio. Further, according to the endoscope system 10, a surface image obtained by illumination with visible light and a surface image for shape calculation generated by invisible light can be obtained simultaneously. Therefore, according to the endoscope system 10, even when the distal end portion 102 is moving at high speed, the surface shape is calculated with higher time resolution, and the surface image is displayed based on the calculated shape of the surface 192. Processing can be performed.

図5は、先端部102の位置変化の一例を模式的に示す。制御部105は、操作部160が取得したユーザからの指示に応じて先端部102を動かす。先端部102の動きに応じて、レンズ112の光軸の向きおよびレンズ112の位置、ならびに出射口128から出射される照射光の照射方向および出射口128の位置が変化する。   FIG. 5 schematically shows an example of a change in the position of the distal end portion 102. The control unit 105 moves the distal end portion 102 in accordance with an instruction from the user acquired by the operation unit 160. The direction of the optical axis of the lens 112 and the position of the lens 112, the irradiation direction of the irradiation light emitted from the emission port 128, and the position of the emission port 128 change according to the movement of the distal end portion 102.

撮像部110は、ユーザからの指示に基づく制御部105による制御によって先端部102が動いている間に連続的に表面192を撮像することによって、複数の表面画像を生成する。そして、画像処理部140は、図2に関連して説明したように、複数の表面画像の画像内容に加えて、複数の表面画像が撮像されたタイミングのそれぞれにおけるレンズ112の光軸の向き、レンズ112の位置、出射口128から出射される照射光の照射方向、および出射口128の位置の少なくともいずれかとに基づいて、表面192の形状を算出することができる。   The imaging unit 110 generates a plurality of surface images by continuously imaging the surface 192 while the tip portion 102 is moving under the control of the control unit 105 based on an instruction from the user. Then, as described with reference to FIG. 2, the image processing unit 140, in addition to the image contents of the plurality of surface images, the direction of the optical axis of the lens 112 at each of the timings at which the plurality of surface images are captured, The shape of the surface 192 can be calculated based on at least one of the position of the lens 112, the irradiation direction of the irradiation light emitted from the emission port 128, and the position of the emission port 128.

図6は、表面画像の輝度パターンに基づいて表面形状を算出する方法の一例を示す。光照射部120は、一例として、光量が所定のパターンで空間的に変化する照射光を照射する。例えば、光照射部120は、照射光の照射方向に垂直な面において所定の矩形パターンを有する照射光を生体190に照射する。矩形パターンは、一例として正方形パターンであってよい。また、光照射部120は、照射光の照射軸630に対して発散する光である照射光を照射してよい。   FIG. 6 shows an example of a method for calculating the surface shape based on the luminance pattern of the surface image. For example, the light irradiation unit 120 irradiates irradiation light whose light amount spatially changes in a predetermined pattern. For example, the light irradiation unit 120 irradiates the living body 190 with irradiation light having a predetermined rectangular pattern on a surface perpendicular to the irradiation direction of the irradiation light. As an example, the rectangular pattern may be a square pattern. Further, the light irradiation unit 120 may irradiate irradiation light that is light that diverges with respect to the irradiation axis 630 of the irradiation light.

例えば、光照射部120は、本図に示すように、照射方向に垂直な面610において正方形パターンが描かれる照射光を照射するとする。この場合、画像650のように正方形が同一間隔で並んでいる表面画像が撮像部110によって撮像される。ここで、物体の表面が、面620で示されるように照射方向に対して垂直な面からx方向に傾斜している場合、画像660のように変形した矩形パターンを有する表面画像が撮像部110によって撮像される。例えば、画像660では、本図に向き670で示される方向に変形した矩形パターンが現れているので、画像660において向き670で示される方向に面620が傾斜していると判断することができる。このように、形状算出部200は、表面画像から抽出された輝度パターンの形状の、照射パターンの形状からの変形量に基づいて、照射軸630に垂直な面に対する表面の接平面の傾斜角度を算出することにより、生体190の表面の形状を算出することができる。   For example, it is assumed that the light irradiation unit 120 emits irradiation light in which a square pattern is drawn on a surface 610 perpendicular to the irradiation direction, as shown in FIG. In this case, a surface image in which squares are arranged at the same interval as in the image 650 is captured by the imaging unit 110. Here, when the surface of the object is inclined in the x direction from a plane perpendicular to the irradiation direction as indicated by a plane 620, a surface image having a deformed rectangular pattern as in the image 660 is captured by the imaging unit 110. Is imaged. For example, in the image 660, since a rectangular pattern deformed in the direction indicated by the direction 670 appears in the drawing, it can be determined that the surface 620 is inclined in the direction indicated by the direction 670 in the image 660. As described above, the shape calculation unit 200 determines the inclination angle of the tangential plane of the surface with respect to the surface perpendicular to the irradiation axis 630 based on the deformation amount of the shape of the luminance pattern extracted from the surface image from the shape of the irradiation pattern. By calculating, the shape of the surface of the living body 190 can be calculated.

したがって、照射光の照射方向が既知であれば、形状算出部200は、表面画像に現れた矩形パターンの正方形パターンからの変形量に基づいて、物体表面の傾きを算出することができる。このように、形状算出部200は、輝度変化パターンに対する表面画像における輝度パターンの差、および照射方向に基づいて、生体190の表面の形状を算出することができる。   Therefore, if the irradiation direction of the irradiation light is known, the shape calculation unit 200 can calculate the inclination of the object surface based on the deformation amount of the rectangular pattern appearing in the surface image from the square pattern. Thus, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 based on the difference in the luminance pattern in the surface image with respect to the luminance change pattern and the irradiation direction.

例えば、光照射部120が、所定の照射面において所定の間隔で輝度が極大となる輝度変化パターンで輝度が変化する照射光を照射したとする。この場合、形状算出部200は、生体190の表面において照射光の輝度が極大となる位置に対応する表面画像上の位置である対応位置を特定して、特定した対応位置の間隔、および照射方向に基づいて、生体190の表面の形状を算出する。例えば、形状算出部200は、表面画像において輝度が極大値となる位置の間隔を特定して、特定した対応位置の間隔、および照射方向に基づいて、生体190の表面の形状を算出することができる。このように、形状算出部200は、所定の照射面において照射光の輝度が極大値となる位置の間隔に対する対応位置の間隔の差、および照射方向に基づいて、生体190の表面の形状を算出することができる。   For example, it is assumed that the light irradiation unit 120 emits irradiation light whose luminance changes with a luminance change pattern in which the luminance becomes maximum at predetermined intervals on a predetermined irradiation surface. In this case, the shape calculation unit 200 specifies the corresponding position that is a position on the surface image corresponding to the position where the luminance of the irradiation light is maximized on the surface of the living body 190, the interval between the specified corresponding positions, and the irradiation direction. Based on this, the shape of the surface of the living body 190 is calculated. For example, the shape calculation unit 200 may specify an interval between positions where the luminance is maximum in the surface image, and calculate the shape of the surface of the living body 190 based on the specified interval between corresponding positions and the irradiation direction. it can. As described above, the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the difference in the interval between the corresponding positions with respect to the interval between the positions where the luminance of the irradiation light reaches the maximum value on the predetermined irradiation surface and the irradiation direction. can do.

なお、形状算出部200は、表面画像における変形度合いがより大きい場合に、照射方向に垂直な面に対する物体表面の傾斜角をより大きく算出することができる。また、画像660に示されるように、矩形パターンの一辺の長さは面620の傾斜方向に変化している。したがって、形状算出部200は、照射方向に垂直な面からの物体表面の傾斜方向が矩形の一辺の長さが変化している方向であるとみなすことによって、物体表面の形状を算出することができる。   In addition, the shape calculation unit 200 can calculate a larger inclination angle of the object surface with respect to a plane perpendicular to the irradiation direction when the degree of deformation in the surface image is larger. Further, as shown in the image 660, the length of one side of the rectangular pattern changes in the inclination direction of the surface 620. Therefore, the shape calculation unit 200 can calculate the shape of the object surface by regarding the inclination direction of the object surface from the plane perpendicular to the irradiation direction as the direction in which the length of one side of the rectangle is changing. it can.

以上説明したように、光照射部120は、空間的に所定の輝度変化パターンで輝度が変化する照射光を照射する。そして、形状算出部200は、表面画像における輝度パターン、および照射方向に基づいて、生体190の表面の形状を算出する。   As described above, the light irradiation unit 120 emits irradiation light whose luminance changes spatially in a predetermined luminance change pattern. Then, the shape calculation unit 200 calculates the shape of the surface of the living body 190 based on the luminance pattern in the surface image and the irradiation direction.

なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、照射光の照射方向が変化する。そこで、形状算出部200は、異なる複数の照射方向で照射光が照射された場合にそれぞれ撮像された複数の表面画像のそれぞれにおける輝度パターンに基づいて、生体190の表面の形状を算出することができる。例えば、形状算出部200は、それら複数の表面画像のそれぞれから算出された同じ位置の表面の傾斜角度を平均化してよい。これにより、表面形状の算出精度をより高めることができる。   As described with reference to FIG. 5 and the like, the irradiation direction of the irradiation light changes as the tip of the scope 100 moves according to the operation by the user. Therefore, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 based on the luminance pattern in each of the plurality of surface images captured when the irradiation light is irradiated in a plurality of different irradiation directions. it can. For example, the shape calculation unit 200 may average the inclination angle of the surface at the same position calculated from each of the plurality of surface images. Thereby, the calculation accuracy of the surface shape can be further increased.

なお、本図に関連して説明したように、特定の照射パターンの照射光を生体190の表面に照射することで表面形状を算出する方法によると、照射パターンが表面上において変化する空間周波数に応じた空間分解能で、表面形状を算出することができる。つまり、形状算出部200は、より高い周波数で空間的に変化する照射パターンの照射光、例えばより短い周期で輝度が変化する照射パターンの照射光を照射した場合に、生体190の表面の形状をより高い空間分解能で算出することができる。   As described in connection with this figure, according to the method of calculating the surface shape by irradiating the surface of the living body 190 with the irradiation light of the specific irradiation pattern, the irradiation pattern has a spatial frequency that changes on the surface. The surface shape can be calculated with the corresponding spatial resolution. That is, the shape calculating unit 200 determines the shape of the surface of the living body 190 when irradiated with irradiation light of an irradiation pattern that changes spatially at a higher frequency, for example, irradiation light of an irradiation pattern whose luminance changes at a shorter period. It can be calculated with higher spatial resolution.

そこで、光照射部120は、所定の照射面において所定の間隔で輝度が極大となる輝度変化パターンで輝度が変化する第1照射光、および所定の照射面において所定の間隔より短い間隔で輝度が極大となる輝度変化パターンで輝度が変化する第2照射光とを、生体190に照射してよい。そして、形状算出部200は、第2照射光が照射された生体190の表面の画像である表面画像における対応位置の間隔および照射方向に基づいて、第1照射光が照射された生体190の表面の画像である表面画像における対応位置の間隔および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出してよい。例えば、形状算出部200は、一辺がより短い矩形パターンの第2照射光を照射した場合に撮像された表面画像に基づいて、より高い空間分解能で生体190の表面の形状を算出することができる。   Therefore, the light irradiation unit 120 has the first irradiation light whose luminance changes in a luminance change pattern in which the luminance becomes maximum at a predetermined interval on the predetermined irradiation surface, and the luminance at an interval shorter than the predetermined interval on the predetermined irradiation surface. The living body 190 may be irradiated with the second irradiation light whose luminance changes with the maximum luminance change pattern. Then, the shape calculation unit 200 determines the surface of the living body 190 irradiated with the first irradiation light based on the interval between the corresponding positions and the irradiation direction in the surface image that is an image of the surface of the living body 190 irradiated with the second irradiation light. The shape of the surface of the living body 190 may be calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the living body 190 calculated based on the interval between the corresponding positions and the irradiation direction in the surface image that is an image of For example, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 with higher spatial resolution based on the surface image captured when the second irradiation light having a shorter rectangular pattern is irradiated. .

したがって、形状算出部200は、一辺が予め定められた長さより長い矩形パターンの照射光により照射された表面画像に基づいて、生体190の表面の形状を大局的なスケールで算出することができる。また、形状算出部200は、一辺が予め定められた長さより短い矩形パターンの照射光により照射された表面画像に基づいて、生体190の表面の形状を微細なスケールで算出することができる。なお、それら矩形パターンの一辺の長さは、腫瘍等の注目すべき被写体の大きさに応じて、予め定められてよい。   Therefore, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 on a global scale based on the surface image irradiated with the irradiation light of the rectangular pattern whose one side is longer than the predetermined length. In addition, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 on a fine scale based on the surface image irradiated with irradiation light of a rectangular pattern whose one side is shorter than a predetermined length. Note that the length of one side of the rectangular pattern may be determined in advance according to the size of a subject to be noted such as a tumor.

図7は、腺管開口部が撮像された表面画像の一例を示す。表面画像700は、この発明における特定被写体の一例である腺管開口部を撮影して得られた表面画像を模式的に示している。表面画像700は、この発明における特定オブジェクトの一例であるピット像710を複数含む。   FIG. 7 shows an example of a surface image in which a gland duct opening is imaged. The surface image 700 schematically shows a surface image obtained by photographing a gland duct opening which is an example of the specific subject in the present invention. The surface image 700 includes a plurality of pit images 710 that are examples of the specific object in the present invention.

ところで、腺管開口部は、生体190の表面において略一様に分布しているとみなすことができる。したがって、撮像部110が撮像方向に垂直な平面状の表面を撮影して得られた画像においては、ピット像の分布は略一様となる。一方、生体190の表面が湾曲している場合等のように、表面の傾きが空間的に変化している場合には、撮像部110が表面を撮像して得られた画像におけるピット像710の分布は、非一様になる。したがって、形状算出部200は、ピット像710の分布および撮像部110の撮像方向に基づいて、表面形状を算出することができる。   By the way, it can be considered that the gland duct openings are distributed substantially uniformly on the surface of the living body 190. Therefore, in the image obtained by photographing the planar surface perpendicular to the imaging direction by the imaging unit 110, the distribution of pit images is substantially uniform. On the other hand, when the inclination of the surface changes spatially, such as when the surface of the living body 190 is curved, the pit image 710 in the image obtained by the imaging unit 110 imaging the surface is displayed. The distribution becomes non-uniform. Therefore, the shape calculation unit 200 can calculate the surface shape based on the distribution of the pit images 710 and the imaging direction of the imaging unit 110.

ピット像710の分布としては、近傍に位置する他のピット像710の間の間隔を例示することができる。以下の説明では近傍に位置する他のピット像710の間の間隔を、ピット間隔と称する。本図を参照して、表面画像700においては、左上領域におけるピット間隔は、右下領域におけるピット間隔より短い。したがって、形状算出部200は、向き770が示すように、右下領域から左上領域の方向に向けて、表面が湾曲することにより傾斜が空間的に変化していると判断することができる。このように、形状算出部200は、表面画像における、特定オブジェクトの間の位置の間隔に基づいて、生体190の表面の形状を算出することができる。なお、ピット間隔は、ピット像710の重心位置同士の間隔であってよい。   An example of the distribution of the pit images 710 is an interval between other pit images 710 located in the vicinity. In the following description, an interval between other pit images 710 located in the vicinity is referred to as a pit interval. Referring to this figure, in surface image 700, the pit interval in the upper left region is shorter than the pit interval in the lower right region. Therefore, the shape calculation unit 200 can determine that the inclination is spatially changed due to the surface being curved from the lower right region toward the upper left region as indicated by the direction 770. As described above, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 based on the position interval between the specific objects in the surface image. The pit interval may be an interval between the centroid positions of the pit image 710.

なお、ピット像710の分布としては、ピット像710の間隔の他に、ピット像710の密度を例示することができる。すなわち、形状算出部200は、表面画像における特定オブジェクトの密度に基づいて、生体190の表面の形状を算出することができる。このように、形状算出部200は、表面画像における特定オブジェクトの密度の空間的変化に基づいて、生体190の表面の形状の空間的変化を算出することができる。   As the distribution of the pit images 710, in addition to the interval between the pit images 710, the density of the pit images 710 can be exemplified. That is, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 based on the density of the specific object in the surface image. As described above, the shape calculation unit 200 can calculate the spatial change in the shape of the surface of the living body 190 based on the spatial change in the density of the specific object in the surface image.

上記の説明では、形状算出部200が、特定被写体が生体190の表面に略一様に分布するとしたが、特定被写体が生体190の表面に非一様に分布している場合であっても、表面における特定被写体の分布が分かっていれば、特定オブジェクトの分布に基づいて表面形状を算出することができる。このように、形状算出部200は、表面画像における、生体190の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、生体190の表面の形状を算出することができる。   In the above description, the shape calculation unit 200 assumes that the specific subject is distributed substantially uniformly on the surface of the living body 190, but even if the specific subject is non-uniformly distributed on the surface of the living body 190, If the distribution of the specific subject on the surface is known, the surface shape can be calculated based on the distribution of the specific object. As described above, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 based on the distribution of the specific object in which the specific subject distributed in a predetermined pattern on the surface of the living body 190 is captured in the surface image. it can.

また、上記の説明では、生体190の表面が湾曲している場合に、ピット像710の分布に基づいて表面形状を算出する場合を例に挙げて形状算出部200の動作を説明した。一方、生体190の表面が平面状である場合にはピット間隔が一様になってしまう。このような場合でも、形状算出部200は、ピット像710の2次元形状に基づいて、生体190の表面の形状を算出することができる場合がある。   In the above description, the operation of the shape calculation unit 200 has been described by taking as an example a case where the surface shape is calculated based on the distribution of the pit images 710 when the surface of the living body 190 is curved. On the other hand, when the surface of the living body 190 is planar, the pit intervals are uniform. Even in such a case, the shape calculation unit 200 may be able to calculate the shape of the surface of the living body 190 based on the two-dimensional shape of the pit image 710.

例えば、本図を参照すると、ピット像710の形状は、表面画像700の左上領域において、右下領域より扁平になっている。そこで、形状算出部200は、ピットを正面から撮像した場合に得られるべきピット像の形状を示す基準パターンを予め記憶しており、ピット像710の2次元形状を示す形状パターンの、当該基準パターンからの変形量に基づいて、生体190の表面の形状を算出してよい。形状パターンとしては、ピットのアスペクト比を例示することができる。   For example, referring to this figure, the shape of the pit image 710 is flatter in the upper left area of the surface image 700 than in the lower right area. Therefore, the shape calculation unit 200 stores in advance a reference pattern indicating the shape of the pit image to be obtained when the pit is imaged from the front, and the reference pattern of the shape pattern indicating the two-dimensional shape of the pit image 710 is stored. The shape of the surface of the living body 190 may be calculated based on the amount of deformation from. An example of the shape pattern is an aspect ratio of pits.

他にも、少なくともレンズ112と表面192との間の光軸方向の距離が分かっていれば、形状算出部200は、当該距離、およびピット像710の密度に基づいて、表面形状を算出することができる。例えば、形状算出部200は、ピットを正面から撮像した場合に得られるべきピット像の間隔を距離に応じて予め記憶してよい。そして、形状算出部200は、レンズ112と表面192との間の光軸方向の距離に対応づけて記憶しているピット像の間隔と、表面画像700におけるピット間隔との差に基づいて生体190の表面の傾きを算出することにより、生体190の表面の形状を算出することができる。このように、形状算出部200は、生体190の表面と表面画像を撮像する撮像部110との間の距離、および表面画像における特定オブジェクトの密度に基づいて、前記物体の表面の形状を算出する。   In addition, if at least the distance in the optical axis direction between the lens 112 and the surface 192 is known, the shape calculation unit 200 calculates the surface shape based on the distance and the density of the pit images 710. Can do. For example, the shape calculation unit 200 may store in advance the interval between pit images to be obtained when a pit is imaged from the front according to the distance. Then, the shape calculating unit 200 determines the living body 190 based on the difference between the pit image interval stored in association with the distance in the optical axis direction between the lens 112 and the surface 192 and the pit interval in the surface image 700. By calculating the inclination of the surface, the shape of the surface of the living body 190 can be calculated. As described above, the shape calculation unit 200 calculates the shape of the surface of the object based on the distance between the surface of the living body 190 and the imaging unit 110 that captures the surface image and the density of the specific object in the surface image. .

なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、表面に対する撮像方向が変化する。そこで、形状算出部200は、異なる複数の方向からそれぞれ生体190が撮像された複数の表面画像のそれぞれにおける特定オブジェクトの分布に基づいて、生体190の表面の形状を算出することができる。例えば、形状算出部200は、異なる方向から撮像された表面画像のそれぞれから算出した同じ位置の表面の傾斜角度を平均化してよい。これにより、表面形状の算出精度をより高めることができる。   Note that, as described with reference to FIG. 5 and the like, the imaging direction with respect to the surface changes as the distal end of the scope 100 moves in response to an operation by the user. Therefore, the shape calculation unit 200 can calculate the shape of the surface of the living body 190 based on the distribution of the specific object in each of the plurality of surface images obtained by imaging the living body 190 from different directions. For example, the shape calculation unit 200 may average the inclination angle of the surface at the same position calculated from each of the surface images taken from different directions. Thereby, the calculation accuracy of the surface shape can be further increased.

図8は、正反射光領域を含む表面画像の一例を示す。表面画像800は、光照射部120から照射された光を正反射した領域の画像である正反射像810および正反射像820を含む。正反射位置算出部240は、位置関係特定部270が特定した位置関係、および正反射像810および正反射像820の表面画像800上の位置に基づいて、正反射像810および正反射像820のそれぞれが示す、照射光を正反射した生体190の表面上の位置である正反射位置を算出することができる。   FIG. 8 shows an example of a surface image including a regular reflection light region. The surface image 800 includes a regular reflection image 810 and a regular reflection image 820 that are images of a region in which the light irradiated from the light irradiation unit 120 is regularly reflected. The regular reflection position calculation unit 240 determines whether the regular reflection image 810 and the regular reflection image 820 are based on the positional relationship identified by the positional relationship identification unit 270 and the positions of the regular reflection image 810 and the regular reflection image 820 on the surface image 800. A specular reflection position, which is a position on the surface of the living body 190 that regularly reflects the irradiation light, can be calculated.

なお、正反射位置算出部240は、正反射像810および正反射像820の位置を、表面画像800における輝度値に基づいて算出してよい。例えば、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有する領域を、正反射像の領域として決定してよい。また、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有しており、周辺領域における輝度の平均値との輝度の差が予め定められた値より大きい領域を、正反射像の領域として決定してもよい。   The regular reflection position calculation unit 240 may calculate the positions of the regular reflection image 810 and the regular reflection image 820 based on the luminance value in the surface image 800. For example, the regular reflection position calculation unit 240 may determine a region having a luminance value higher than a predetermined value in the surface image 800 as a region of the regular reflection image. Further, the regular reflection position calculation unit 240 has a luminance value higher than a predetermined value in the surface image 800, and a region where the difference in luminance from the average luminance value in the peripheral region is larger than a predetermined value. May be determined as a region of a regular reflection image.

また、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有しており、白色度が予め定められた値より大きい領域を、正反射像の領域として決定してよい。また、正反射位置算出部240は、表面画像800において予め定められた値より高い輝度値を有しており、白色度が予め定められた値より大きく、周辺領域における白色度の平均値との白色度の差が予め定められた値より大きい領域を、正反射像の領域として決定してもよい。このようにして、正反射位置算出部240は、正反射像810および正反射像820の位置を、表面画像800における輝度値に基づいて決定することができる。   Further, the regular reflection position calculation unit 240 determines a region having a luminance value higher than a predetermined value in the surface image 800 and having a whiteness greater than a predetermined value as a region of the regular reflection image. It's okay. Further, the regular reflection position calculation unit 240 has a luminance value higher than a predetermined value in the surface image 800, the whiteness is larger than the predetermined value, and the average value of the whiteness in the peripheral region is A region where the difference in whiteness is larger than a predetermined value may be determined as the region of the regular reflection image. In this way, the regular reflection position calculation unit 240 can determine the positions of the regular reflection image 810 and the regular reflection image 820 based on the luminance value in the surface image 800.

正反射像810および正反射像820の位置が決定されると、正反射位置算出部240は、正反射像810および正反射像820の位置、表面画像800を撮像した場合における撮像部110の先端部の位置に基づいて、生体190の表面における正反射位置を算出することができる。そして、形状算出部200は、当該正反射位置における生体190の表面に接する平面の法線方向が、撮像部110の撮像方向と垂直であるとすることによって、生体190の表面の形状を算出することができる。   When the positions of the specular reflection image 810 and the specular reflection image 820 are determined, the specular reflection position calculation unit 240 captures the positions of the specular reflection image 810 and the specular reflection image 820 and the front surface image 800 when the surface image 800 is captured. The regular reflection position on the surface of the living body 190 can be calculated based on the position of the part. Then, the shape calculation unit 200 calculates the shape of the surface of the living body 190 by assuming that the normal direction of the plane contacting the surface of the living body 190 at the regular reflection position is perpendicular to the imaging direction of the imaging unit 110. be able to.

なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、表面に対する撮像方向および照射光の照射方向が変化する。形状算出部200は、異なる複数の方向から照射光が照射された場合に生体190が撮像された複数の表面画像のそれぞれにおける正反射位置、および複数の表面画像のそれぞれが撮像された場合における照射光の照射方向に基づいて、生体190の表面の形状を面的に算出することができる。   Note that, as described with reference to FIG. 5 and the like, the imaging direction with respect to the surface and the irradiation direction of the irradiation light change as the tip of the scope 100 moves according to the operation by the user. The shape calculating unit 200 illuminates when the specular reflection position in each of the plurality of surface images captured by the living body 190 when the irradiation light is irradiated from a plurality of different directions and when each of the plurality of surface images is captured. Based on the light irradiation direction, the shape of the surface of the living body 190 can be calculated in a plane.

図9は、表面画像における影領域の一例を示す。表面画像900は、生体190の表面における凸部910により形成された影領域920を含む。影領域特定部250は、表面画像900において輝度値が予め定められた値より低い領域を、影領域920として特定してよい。また、影領域特定部250は、表面画像900において予め定められた値より低い輝度値を有しており、周辺領域における輝度の平均値に対する輝度の比が予め定められた値より小さい領域を、影領域920として特定してもよい。   FIG. 9 shows an example of a shadow area in the surface image. The surface image 900 includes a shadow region 920 formed by the convex portion 910 on the surface of the living body 190. The shadow area specifying unit 250 may specify an area whose luminance value is lower than a predetermined value in the surface image 900 as the shadow area 920. Further, the shadow region specifying unit 250 has a luminance value lower than a predetermined value in the surface image 900, and a region where the ratio of the luminance to the average value of the luminance in the peripheral region is smaller than the predetermined value. The shadow area 920 may be specified.

そして、形状算出部200は、影領域920が示す表面192上の領域より出射口128の側の領域に、凸部が存在すると判断することができる。これにより、形状算出部200は、表面の形状を算出することができる。また、形状算出部200は、影領域920において、照射光の照射方向の長さ成分lがより長い場合に、凸部の高さをより高く算出することができる。また、形状算出部200は、影領域920の形状に基づいて、凸部の形状を算出してもよい。   Then, the shape calculation unit 200 can determine that the convex portion is present in the region closer to the emission port 128 than the region on the surface 192 indicated by the shadow region 920. Thereby, the shape calculation part 200 can calculate the shape of the surface. In addition, in the shadow area 920, the shape calculation unit 200 can calculate the height of the convex portion higher when the length component l in the irradiation direction of the irradiation light is longer. In addition, the shape calculation unit 200 may calculate the shape of the convex portion based on the shape of the shadow region 920.

なお、図5等に関連して説明したように、ユーザによる操作に応じてスコープ100の先端が動くことによって、照射光の照射方向が変化する。形状算出部200は、異なる複数の方向から照射光が照射された場合に生体190が撮像された複数の表面画像のそれぞれにおける影領域、および複数の表面画像のそれぞれが撮像された場合における照射光の照射方向に基づいて、生体190の表面の形状をより正確に算出することができる。   Note that, as described with reference to FIG. 5 and the like, the irradiation direction of the irradiation light changes as the tip of the scope 100 moves according to the operation by the user. The shape calculation unit 200 irradiates light when a shadow region in each of a plurality of surface images captured by the living body 190 and each of a plurality of surface images are captured when irradiation light is irradiated from a plurality of different directions. Based on the irradiation direction, the shape of the surface of the living body 190 can be calculated more accurately.

図10は、表面画像において画質が低減される画像領域の一例を示す。撮像部110は、時刻t1〜t8にわたって生体190の表面を連続的に撮像することによって生成した表面画像1000−1〜表面画像1000−8を、画像取得部210に供給する。具体的には、画像生成部330は、受光部300が受光した生体190の表面からの光により、表面画像1000−1〜表面画像1000−8を生成して、生成した表面画像1000−1〜表面画像1000−8を画像取得部210に供給する。   FIG. 10 shows an example of an image area in which the image quality is reduced in the surface image. The imaging unit 110 supplies the image acquisition unit 210 with the surface images 1000-1 to 1000-8 generated by continuously imaging the surface of the living body 190 from time t1 to time t8. Specifically, the image generation unit 330 generates surface images 1000-1 to 1000-8 using light from the surface of the living body 190 received by the light receiving unit 300, and generates the generated surface images 1000-1 to 1000-1. The surface image 1000-8 is supplied to the image acquisition unit 210.

ここで、画像生成部330は、周辺の画像領域1020の解像度を中央の画像領域1010の解像度より低減した表面画像1000−1〜表面画像1000−3、表面画像1000−4〜表面画像1000−7を生成して、画像取得部210に供給する。なお、画像生成部330は、所定のタイミングで、周辺の画像領域1020の解像度が中央の画像領域1010の解像度と同じ表面画像1000−4、表面画像1000−8を生成してもよい。このように、画像取得部210は、表面画像における中央の画像領域1010より、表面画像における周辺の画像領域1020において、解像度が低減された複数の表面画像を取得する。   Here, the image generation unit 330 has surface images 1000-1 to 1000-3 and surface images 1000-4 to 1000-7 in which the resolution of the peripheral image region 1020 is lower than the resolution of the central image region 1010. Is supplied to the image acquisition unit 210. Note that the image generation unit 330 may generate the surface image 1000-4 and the surface image 1000-8 in which the resolution of the peripheral image region 1020 is the same as the resolution of the central image region 1010 at a predetermined timing. In this manner, the image acquisition unit 210 acquires a plurality of surface images with reduced resolution in the peripheral image region 1020 in the surface image from the central image region 1010 in the surface image.

そして、位置関係特定部270は、画像取得部210が取得した周辺領域の画像の画像内容に基づいて、撮像部110と生体190との間の位置関係を特定してもよい。そして、形状算出部200は、複数の表面画像における中央の画像領域1010の画像内容、および位置関係特定部270が特定した位置関係に基づいて、複数の表面画像における中央の画像領域1010に撮像されている生体190の表面の形状を算出する。   Then, the positional relationship specifying unit 270 may specify the positional relationship between the imaging unit 110 and the living body 190 based on the image content of the peripheral area image acquired by the image acquisition unit 210. Then, the shape calculation unit 200 is captured in the central image region 1010 in the plurality of surface images based on the image contents of the central image region 1010 in the plurality of surface images and the positional relationship specified by the positional relationship specifying unit 270. The shape of the surface of the living body 190 is calculated.

具体的には、速度算出部242は、複数の表面画像における周辺の画像領域1020の画像内容に基づいて、先端部102の生体190の表面に対する速度を算出する。そして、位置関係算出部260は、速度算出部242が算出した速度、および複数の表面画像のそれぞれを撮像部110が撮像したタイミングに基づいて、位置関係を算出する。そして、形状算出部200は、複数の表面画像における中央の画像領域1010の画像内容、および位置関係算出部260が算出した位置関係に基づいて、複数の表面画像における中央の画像領域1010に撮像されている生体190の表面の形状を算出する。なお、速度算出部242は、表面画像1000−1〜表面画像1000−8のそれぞれにおける周辺の画像領域1020から、同じ被写体を示す同一オブジェクトの位置を特定して、特定した同一オブジェクトの位置に基づいて、表面192に対する先端部102の速度を算出することができる。   Specifically, the speed calculation unit 242 calculates the speed of the distal end portion 102 with respect to the surface of the living body 190 based on the image contents of the peripheral image region 1020 in the plurality of surface images. Then, the positional relationship calculation unit 260 calculates the positional relationship based on the speed calculated by the speed calculation unit 242 and the timing at which the imaging unit 110 images each of the plurality of surface images. Then, the shape calculation unit 200 is captured in the central image region 1010 in the plurality of surface images based on the image contents of the central image region 1010 in the plurality of surface images and the positional relationship calculated by the positional relationship calculation unit 260. The shape of the surface of the living body 190 is calculated. Note that the speed calculation unit 242 specifies the position of the same object indicating the same subject from the peripheral image area 1020 in each of the surface image 1000-1 to the surface image 1000-8, and based on the specified position of the same object. Thus, the speed of the tip portion 102 with respect to the surface 192 can be calculated.

このようにして、画像取得部210は、表面画像における中央の画像領域1010より、表面画像における周辺の画像領域1020において画質が低減された複数の表面画像を取得する。なお、画質を示す指標としては、上記の解像度の他に、色数、輝度の階調数を例示することができる。すなわち、画像生成部330は、周辺の画像領域1020において中央の画像領域1010より色数が少ない表面画像を画像取得部210に供給したり、周辺の画像領域1020において中央の画像領域1010より階調数が少ない表面画像を画像取得部210に供給することができる。   In this way, the image acquisition unit 210 acquires a plurality of surface images whose image quality is reduced in the peripheral image region 1020 in the surface image from the central image region 1010 in the surface image. In addition to the above resolution, the index indicating the image quality can be exemplified by the number of colors and the number of gradations of luminance. That is, the image generation unit 330 supplies a surface image having a smaller number of colors than the central image region 1010 in the peripheral image region 1020 to the image acquisition unit 210, or the gradation in the peripheral image region 1020 from the central image region 1010. A small number of surface images can be supplied to the image acquisition unit 210.

なお、受光部300が有する受光素子は、CMOS等の撮像素子であってよい。この場合、画像生成部330は、受光部300が有する受光素子の出力を間引いて読み出すことにより、解像度を低減した表面画像を生成してもよい。   The light receiving element included in the light receiving unit 300 may be an image sensor such as a CMOS. In this case, the image generation unit 330 may generate a surface image with reduced resolution by thinning out and reading out the output of the light receiving element included in the light receiving unit 300.

なお、画像生成部330は、周辺の画像領域1020において画質を低減した表面画像を、周辺の画像領域1020を送信する送信レートより高い送信レートで送信してよい。このように、画像取得部210は、表面画像における周辺の画像領域1020の画像を、表面画像における中央の画像領域1010の画像を取得する取得レートより高い取得レートで取得してよい。   Note that the image generation unit 330 may transmit the surface image with reduced image quality in the peripheral image region 1020 at a higher transmission rate than the transmission rate for transmitting the peripheral image region 1020. As described above, the image acquisition unit 210 may acquire the image of the peripheral image region 1020 in the surface image at an acquisition rate higher than the acquisition rate for acquiring the image of the central image region 1010 in the surface image.

以上説明したように、画像生成部330は、表面画像における中央の画像領域1010より、表面画像における周辺の画像領域1020において画像のデータ量が低減された複数の表面画像を生成する。このため、撮像部110は、表面画像を高速に画像処理部140に供給することができる。このため、内視鏡システム10によると、スコープ100の先端部102が高速に移動した場合であっても、先端部102と生体190との間の位置関係をより高い時間解像度で算出することができる。   As described above, the image generation unit 330 generates a plurality of surface images in which the amount of image data is reduced in the peripheral image region 1020 in the surface image from the central image region 1010 in the surface image. For this reason, the imaging unit 110 can supply the surface image to the image processing unit 140 at high speed. For this reason, according to the endoscope system 10, even when the distal end portion 102 of the scope 100 moves at a high speed, the positional relationship between the distal end portion 102 and the living body 190 can be calculated with higher time resolution. it can.

なお、図1から図10に関連して、生体190からの光を用いて生体190の表面の形状を算出する内視鏡システム10の各部の動作を説明した。ここで、生体190を通過する光は、波長が長いほど生体190の組織により散乱を受けにくくなる。したがって照射光のうち、より長い波長領域の光ほど、生体190の組織内部に深達することができる。このため、生体190からの光のうち、長波長領域の光ほど、表面における局所的な情報を有していないと言える。したがって、生体190の表面における大局的な形状を算出するためにはより長波長領域の光による表面画像を用いることが望ましく、生体190の表面の微細構造を算出するためにはより短波長領域の光による表面画像を用いることが望ましい。   The operation of each part of the endoscope system 10 that calculates the shape of the surface of the living body 190 using light from the living body 190 has been described with reference to FIGS. Here, the light passing through the living body 190 is less likely to be scattered by the tissue of the living body 190 as the wavelength is longer. Therefore, the longer the wavelength region of the irradiated light, the deeper the tissue inside the living body 190 can be reached. For this reason, it can be said that the light in the longer wavelength region out of the light from the living body 190 does not have local information on the surface. Therefore, it is desirable to use a surface image by light in a longer wavelength region in order to calculate a global shape on the surface of the living body 190, and in a shorter wavelength region in order to calculate the fine structure of the surface of the living body 190. It is desirable to use a surface image by light.

このため、光照射部120は、第1波長領域の光である第1照射光、および第1波長領域より短い第2波長領域の光である第2照射光を、生体190に照射する。そして、撮像部110は、光照射部120から照射された第1照射光が生体190の表面で反射した光、および光照射部120から照射された第2照射光が生体190の表面で反射された光により、表面画像を撮像する。   For this reason, the light irradiation unit 120 irradiates the living body 190 with the first irradiation light that is light in the first wavelength region and the second irradiation light that is light in the second wavelength region shorter than the first wavelength region. The imaging unit 110 reflects the light irradiated from the light irradiation unit 120 on the surface of the living body 190 and the second light irradiated from the light irradiation unit 120 on the surface of the living body 190. The surface image is taken with the light.

例えば、図6に関連して説明したように大局的な形状を算出する場合には、光照射部120は、より大きい矩形パターンを有する照射光として第1照射光を照射する。また、表面における微細構造を算出する場合には、光照射部120はより小さい矩形パターンを有する照射光として第2照射光を照射する。そして、形状算出部200は、第2照射光が生体190の表面で反射した光による表面画像における対応位置の間隔および照射方向に基づいて、第1照射光が生体190の表面で反射した光による表面画像における対応位置の間隔および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出してよい。   For example, when the global shape is calculated as described with reference to FIG. 6, the light irradiation unit 120 emits the first irradiation light as the irradiation light having a larger rectangular pattern. Moreover, when calculating the fine structure in the surface, the light irradiation part 120 irradiates 2nd irradiation light as irradiation light which has a smaller rectangular pattern. Then, the shape calculation unit 200 uses the light with which the first irradiation light is reflected on the surface of the living body 190 based on the interval between the corresponding positions in the surface image and the irradiation direction with the light reflected by the surface of the living body 190 with the second irradiation light. The shape of the surface of the living body 190 may be calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the living body 190 calculated based on the interval between the corresponding positions in the surface image and the irradiation direction.

また、図9に関連して説明したように、影領域に基づいて表面形状を算出する場合でも、光照射部120は、大局的な表面形状を算出する場合には第1照射光を照射して、表面における微細構造を算出する場合には第2照射光を照射してよい。そして、形状算出部200は、第2照射光が生体190の表面で反射した光による表面画像から特定された影領域および照射方向に基づいて、第1照射光が生体190の表面で反射した光による表面画像から特定された影領域および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出することができる。   In addition, as described with reference to FIG. 9, even when the surface shape is calculated based on the shadow region, the light irradiation unit 120 emits the first irradiation light when calculating the global surface shape. Thus, when calculating the fine structure on the surface, the second irradiation light may be irradiated. The shape calculation unit 200 then reflects the first irradiation light reflected on the surface of the living body 190 based on the shadow region and the irradiation direction identified from the surface image of the second irradiation light reflected on the surface of the living body 190. The shape of the surface of the living body 190 can be calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the living body 190 calculated based on the shadow region and the irradiation direction specified from the surface image obtained by the above.

なお、光照射部120は、第1照射光および第2照射光を同時に照射してよい。例えば、光照射部120は、第1波長領域の光である第1照射光と、第1波長領域より短い波長領域である第2波長領域の光である第2照射光とを、略同一のタイミングで照射してよい。なお、受光部300は、第1波長領域の光を含む波長領域の光を選択的に受光する受光素子と、第2波長領域の光を含む波長領域の光を選択的に受光する受光素子とを、それぞれ複数有している。   In addition, the light irradiation part 120 may irradiate 1st irradiation light and 2nd irradiation light simultaneously. For example, the light irradiation unit 120 uses substantially the same first irradiation light that is light in the first wavelength region and second irradiation light that is light in the second wavelength region that is shorter than the first wavelength region. You may irradiate at the timing. The light receiving unit 300 includes a light receiving element that selectively receives light in a wavelength region including light in the first wavelength region, and a light receiving element that selectively receives light in a wavelength region that includes light in the second wavelength region. Each has a plurality.

そして、画像生成部330は、第1波長領域の光を含む波長領域の光を選択的に受光する受光素子が受光した光に基づく第1色成分、および第2波長領域の光を含む波長領域の光を選択的に受光する受光素子が受光した光に基づく第2色成分を有する表面画像を生成する。そして、形状算出部200は、表面画像における第2色成分に基づいて特定された対応位置の間隔および照射方向に基づいて、表面画像における第1色成分に基づいて特定された対応位置の間隔および照射方向に基づいて算出した生体190の表面の形状の空間分解能より高い空間分解能で、生体190の表面の形状を算出する。なお、一例として、第1照射光は赤色領域の光であってよく、当該光を選択的に受光する受光素子はR光受光素子420であってよい。また、第2照射光は青色領域の光であってよく、当該光を選択的に受光する受光素子はB光受光素子440であってよい。   The image generation unit 330 includes a first color component based on light received by a light receiving element that selectively receives light in a wavelength region including light in the first wavelength region, and a wavelength region including light in the second wavelength region. A surface image having a second color component based on the light received by the light receiving element that selectively receives the light is generated. Then, the shape calculation unit 200 determines the interval between the corresponding positions specified based on the first color component in the surface image and the interval between the corresponding positions specified based on the second color component in the surface image and the irradiation direction. The shape of the surface of the living body 190 is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the living body 190 calculated based on the irradiation direction. As an example, the first irradiation light may be red light, and the light receiving element that selectively receives the light may be the R light receiving element 420. The second irradiation light may be blue light, and the light receiving element that selectively receives the light may be the B light receiving element 440.

また、以上の説明では、生体190を表面形状の算出対象の一例として、内視鏡システム10の各構成要素の動作の一例を説明した。この発明は、生体190の他にも、工業的に製造された製品等の物品の表面形状、または生体以外の自然物の表面形状を算出する場合にも使用することができる。すなわち、この発明における物体は、物品または自然物であってよい。   In the above description, an example of the operation of each component of the endoscope system 10 has been described using the living body 190 as an example of a surface shape calculation target. In addition to the living body 190, the present invention can also be used when calculating the surface shape of an article such as an industrially manufactured product or the surface shape of a natural object other than a living body. That is, the object in this invention may be an article or a natural object.

図11は、画像処理部140のハードウェア構成の一例を示す。画像処理部140は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。   FIG. 11 shows an exemplary hardware configuration of the image processing unit 140. The image processing unit 140 includes a CPU peripheral unit, an input / output unit, and a legacy input / output unit. The CPU peripheral section includes a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 that are connected to each other by a host controller 1582. The input / output unit includes a communication interface 1530, a hard disk drive 1540, and a CD-ROM drive 1560 that are connected to the host controller 1582 by the input / output controller 1584. The legacy input / output unit includes a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584.

ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520, the CPU 1505 that accesses the RAM 1520 at a higher transfer rate, and the graphic controller 1575. The CPU 1505 operates according to the contents of programs stored in the ROM 1510 and the RAM 1520 to control each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 or the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505. The communication interface 1530 is connected to the network communication device 1598 to transmit / receive programs or data. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理部140が起動するときに実行するブート・プログラム、あるいは画像処理部140のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program that is executed when the image processing unit 140 is activated, a program that depends on the hardware of the image processing unit 140, and the like. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via the flexible disk drive 1550 or a parallel port, serial port, keyboard port, mouse port, and the like.

CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理部140を、図1から図10に関連して説明した画像処理部140が有する各構成要素として機能させる。   A program executed by the CPU 1505 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The program stored in the recording medium may be compressed or uncompressed. The program is installed in the hard disk drive 1540 from the recording medium, read into the RAM 1520, and executed by the CPU 1505. The program executed by the CPU 1505 causes the image processing unit 140 to function as each component included in the image processing unit 140 described with reference to FIGS.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理部140に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理部140として機能する。また、同様にして、プログラムが、コンピュータを内視鏡システム10が有する各構成要素としてコンピュータを機能させることができることは言うまでもない。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium and provided to the image processing unit 140 as a program via the network. As described above, the computer controlled by the program functions as the image processing unit 140. Similarly, it goes without saying that the program can cause the computer to function as each component included in the endoscope system 10.

以上、この発明を実施の形態を用いて説明したが、この発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態もこの発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the present invention has been described using the embodiment, the technical scope of the present invention is not limited to the scope described in the embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

一実施形態に係わる内視鏡システム10の構成の一例を、生体190とともに示す図である。It is a figure which shows an example of a structure of the endoscope system 10 concerning one Embodiment with the biological body 190. FIG. 画像処理部140のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing unit 140. FIG. 撮像部110の構成の一例を示す。An example of the configuration of the imaging unit 110 is shown. 受光部300における受光素子の配列の一例を示す。An example of the arrangement | sequence of the light receiving element in the light-receiving part 300 is shown. 先端部102の位置変化の一例を模式的に示す図である。It is a figure which shows an example of a position change of the front-end | tip part 102 typically. 表面画像の輝度パターンに基づいて表面形状を算出する方法の一例を示す図である。It is a figure which shows an example of the method of calculating a surface shape based on the luminance pattern of a surface image. 腺管開口部が撮像された表面画像の一例を示す図である。It is a figure which shows an example of the surface image by which the duct opening part was imaged. 正反射光領域を含む表面画像の一例を示す図である。It is a figure which shows an example of the surface image containing a regular reflection light area | region. 表面画像における影領域の一例を示す図である。It is a figure which shows an example of the shadow area | region in a surface image. 表面画像において画質が低減される画像領域の一例を示す図である。It is a figure which shows an example of the image area | region where image quality is reduced in a surface image. 画像処理部140のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image processing unit 140. FIG.

符号の説明Explanation of symbols

10 内視鏡システム
100 スコープ
102 先端部
105 制御部
110 撮像部
112 レンズ
120 光照射部
122 発光部
124 ライトガイド
128 出射口
130 鉗子口
135 鉗子
138 ノズル
140 画像処理部
150 出力部
160 操作部
190 生体
192 表面
194 凸部
196 凹部
210 画像取得部
200 形状算出部
220 撮像方向算出部
230 照射方向算出部
240 正反射位置算出部
242 速度算出部
244 制御量取得部
250 影領域特定部
260 位置関係算出部
270 位置関係特定部
290 出力画像生成部
300 受光部
310 フィルタ部
330 画像生成部
400 受光ユニット
410 IR光受光素子
420 R光受光素子
430 G光受光素子
440 B光受光素子
610 面
620 面
630 照射軸
650 画像
660 画像
670 向き
700 表面画像
710 ピット像
770 向き
800 表面画像
810 正反射像
820 正反射像
900 表面画像
910 凸部
920 影領域
1000 表面画像
1010 画像領域
1020 画像領域
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
1598 ネットワーク通信装置
DESCRIPTION OF SYMBOLS 10 Endoscope system 100 Scope 102 Tip part 105 Control part 110 Imaging part 112 Lens 120 Light irradiation part 122 Light emission part 124 Light guide 128 Output port 130 Forceps port 135 Forceps 138 Nozzle 140 Image processing part 150 Output part 160 Operation part 190 Living body 192 Surface 194 Convex part 196 Concave part 210 Image acquisition part 200 Shape calculation part 220 Imaging direction calculation part 230 Irradiation direction calculation part 240 Regular reflection position calculation part 242 Speed calculation part 244 Control amount acquisition part 250 Shadow area specifying part 260 Position relation calculation part 270 Position relationship specifying unit 290 Output image generating unit 300 Light receiving unit 310 Filter unit 330 Image generating unit 400 Light receiving unit 410 IR light receiving element 420 R light receiving element 430 G light receiving element 440 B light receiving element 610 Surface 620 Surface 630 Irradiation axis 650 image 660 Image 670 facing 700 surface image 710 pits image 770 facing 800 surface image 810 regular reflection image 820 regular reflection image 900 surface image 910 protrusion 920 shadow area 1000 surface image 1010 image area 1020 image area 1505 CPU
1510 ROM
1520 RAM
1530 Communication interface 1540 Hard disk drive 1550 Flexible disk drive 1560 CD-ROM drive 1570 Input / output chip 1575 Graphic controller 1580 Display device 1582 Host controller 1584 Input / output controller 1590 Flexible disk 1595 CD-ROM
1598 Network communication device

Claims (21)

空間的に所定の輝度変化パターンで輝度が変化する照射光を物体に照射する光照射部と、
前記照射光の照射方向を算出する照射方向算出部と、
前記照射光が照射された前記物体の表面の画像である表面画像を取得する画像取得部と、
前記輝度変化パターンに対する前記表面画像における輝度パターンの差、および前記照射方向に基づいて、前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。
A light irradiation unit for irradiating an object with irradiation light whose luminance changes spatially in a predetermined luminance change pattern;
An irradiation direction calculation unit for calculating an irradiation direction of the irradiation light;
An image acquisition unit that acquires a surface image that is an image of the surface of the object irradiated with the irradiation light;
An image processing system comprising: a shape calculation unit configured to calculate a shape of the surface of the object based on a difference in luminance pattern in the surface image with respect to the luminance change pattern and the irradiation direction.
前記光照射部は、所定の照射面において所定の間隔で輝度が極大となる輝度変化パターンで輝度が変化する前記照射光を照射し、
前記形状算出部は、前記物体の表面において前記照射光の輝度が極大となる位置に対応する前記表面画像上の位置である対応位置を特定し、特定した対応位置の間隔、および前記照射方向に基づいて、前記物体の表面の形状を算出する
請求項1に記載の画像処理システム。
The light irradiation unit irradiates the irradiation light whose luminance changes with a luminance change pattern in which the luminance is maximized at a predetermined interval on a predetermined irradiation surface,
The shape calculation unit specifies a corresponding position that is a position on the surface image corresponding to a position where the luminance of the irradiation light is maximized on the surface of the object, and determines the interval between the specified corresponding positions and the irradiation direction. The image processing system according to claim 1, wherein the shape of the surface of the object is calculated based on the image.
前記形状算出部は、前記照射光の輝度が極大値となる位置の間隔に対する前記対応位置の間隔の差、および前記照射方向に基づいて、前記物体の表面の形状を算出する
請求項2に記載の画像処理システム。
The shape calculation unit calculates the shape of the surface of the object based on a difference in an interval between the corresponding positions with respect to an interval between positions where the luminance of the irradiation light reaches a maximum value and the irradiation direction. Image processing system.
前記光照射部は、所定の照射面において所定の間隔で輝度が極大となる輝度変化パターンで輝度が変化する第1照射光、および前記所定の照射面において前記所定の間隔より短い間隔で輝度が極大となる輝度変化パターンで輝度が変化する第2照射光とを、前記物体に照射し、
前記形状算出部は、前記第2照射光が照射された前記物体の表面の画像である前記表面画像における対応位置の間隔および前記照射方向に基づいて、前記第1照射光が照射された前記物体の表面の画像である前記表面画像における前記対応位置の間隔および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する
請求項2に記載の画像処理システム。
The light irradiation unit has a first irradiation light whose luminance changes in a luminance change pattern in which the luminance is maximized at a predetermined interval on a predetermined irradiation surface, and a luminance at an interval shorter than the predetermined interval on the predetermined irradiation surface. Irradiating the object with second irradiation light whose luminance changes in a maximum luminance change pattern;
The shape calculating unit is configured to irradiate the object irradiated with the first irradiation light based on an interval between corresponding positions in the surface image, which is an image of the surface of the object irradiated with the second irradiation light, and the irradiation direction. The shape of the surface of the object is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the interval between the corresponding positions in the surface image, which is an image of the surface, and the irradiation direction. The image processing system according to 2.
前記照射光が照射された前記物体からの光により前記表面画像を撮像する撮像部
をさらに備え、
前記光照射部は、第1波長領域の光である前記第1照射光、および前記第1波長領域より短い第2波長領域の光である前記第2照射光を、前記物体に照射し、
前記撮像部は、前記光照射部から照射された前記第1照射光が前記物体の表面で反射した光、および前記光照射部から照射された前記第2照射光が前記物体の表面で反射された光により、前記表面画像を撮像し、
前記形状算出部は、前記第2照射光が前記物体の表面で反射した光による前記表面画像における前記対応位置の間隔および前記照射方向に基づいて、前記第1照射光が前記物体の表面で反射した光による前記表面画像における前記対応位置の間隔および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する
請求項4に記載の画像処理システム。
An imaging unit that captures the surface image with light from the object irradiated with the irradiation light;
The light irradiation unit irradiates the object with the first irradiation light, which is light in a first wavelength region, and the second irradiation light, which is light in a second wavelength region shorter than the first wavelength region,
In the imaging unit, the first irradiation light irradiated from the light irradiation unit is reflected by the surface of the object, and the second irradiation light irradiated from the light irradiation unit is reflected by the surface of the object. The surface image is captured by the light,
The shape calculating unit reflects the first irradiation light on the surface of the object based on the interval between the corresponding positions and the irradiation direction in the surface image by the light reflected by the surface of the object. 5. The shape of the surface of the object is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the interval between the corresponding positions in the surface image by the light and the irradiation direction. Image processing system.
前記光照射部は、第1波長領域の光である前記第1照射光と、第2波長領域の光である前記第2照射光とを、略同一のタイミングで照射し、
前記撮像部は、
前記第1波長領域の光を含む波長領域の光を選択的に受光する第1受光素子と、
前記第2波長領域の光を含む波長領域の光を選択的に受光する第2受光素子と、
前記第1受光素子が受光した光に基づく第1色成分、および前記第2受光素子が受光した光に基づく第2色成分を有する前記表面画像を生成する画像生成部と
を有し、
前記形状算出部は、前記表面画像における前記第2色成分に基づいて特定された前記対応位置の間隔および前記照射方向に基づいて、前記表面画像における前記第1色成分に基づいて特定された前記対応位置の間隔および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する
請求項5に記載の画像処理システム。
The light irradiation unit irradiates the first irradiation light, which is light in the first wavelength region, and the second irradiation light, which is light in the second wavelength region, at substantially the same timing,
The imaging unit
A first light receiving element that selectively receives light in a wavelength region including light in the first wavelength region;
A second light receiving element that selectively receives light in a wavelength region including light in the second wavelength region;
An image generating unit that generates the surface image having a first color component based on light received by the first light receiving element and a second color component based on light received by the second light receiving element;
The shape calculation unit is specified based on the first color component in the surface image based on the interval between the corresponding positions specified based on the second color component in the surface image and the irradiation direction. The image processing system according to claim 5, wherein the shape of the surface of the object is calculated with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the interval between corresponding positions and the irradiation direction.
前記光照射部は、不可視光である前記照射光を前記物体に照射する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the light irradiation unit irradiates the object with the irradiation light which is invisible light.
前記光照射部が照射する前記照射光の照射方向を制御する制御量を取得する制御量取得部
をさらに備え、
前記照射方向算出部は、前記制御量取得部が取得した前記制御量に基づいて、前記照射光が照射された照射方向を算出する
請求項1に記載の画像処理システム。
A control amount acquisition unit for acquiring a control amount for controlling the irradiation direction of the irradiation light emitted by the light irradiation unit;
The image processing system according to claim 1, wherein the irradiation direction calculation unit calculates an irradiation direction irradiated with the irradiation light based on the control amount acquired by the control amount acquisition unit.
照射光を物体に照射する光照射部と、
前記光照射部が照射する前記照射光の照射方向と略同一の方向から、前記照射光が照射された前記物体を撮像することにより、前記物体の表面の画像である表面画像を撮像する撮像部と、
前記表面画像における輝度値に基づいて、前記照射光を正反射した前記物体の表面上の位置である正反射位置を算出する正反射位置算出部と、
前記正反射位置における前記物体の表面に接する面の法線方向を、前記正反射位置に照射された前記照射光の照射方向とすることにより、前記正反射位置における前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。
A light irradiation unit for irradiating an object with irradiation light;
An imaging unit that captures a surface image that is an image of the surface of the object by imaging the object irradiated with the irradiation light from a direction substantially the same as the irradiation direction of the irradiation light irradiated by the light irradiation unit. When,
A regular reflection position calculation unit that calculates a regular reflection position that is a position on the surface of the object that regularly reflected the irradiation light, based on a luminance value in the surface image;
The shape of the surface of the object at the specular reflection position is calculated by setting the normal direction of the surface in contact with the surface of the object at the specular reflection position as the irradiation direction of the irradiation light irradiated to the specular reflection position. An image processing system comprising a shape calculating unit.
前記光照射部は、異なる複数の照射方向から前記物体に前記照射光を照射し、
前記撮像部は、前記光照射部により前記異なる複数の照射方向から前記照射光がそれぞれ照射された前記物体をそれぞれ撮像することにより、複数の前記表面画像を撮像し、
前記正反射位置算出部は、前記複数の表面画像のそれぞれにおける輝度値に基づいて、前記照射光を正反射した前記物体の表面上の位置である複数の正反射位置を算出し、
前記形状算出部は、前記複数の正反射位置のそれぞれにおける前記物体の表面に接する面の法線方向を、前記複数の正反射位置のそれぞれの正反射位置が特定された前記表面画像が撮像された場合に前記複数の正反射位置のそれぞれに照射されていた前記照射光の照射方向とすることにより、前記複数の正反射位置のそれぞれにおける前記物体の表面の形状を算出する
請求項9に記載の画像処理システム。
The light irradiation unit irradiates the object with the irradiation light from different irradiation directions,
The imaging unit captures the plurality of surface images by imaging the objects irradiated with the irradiation light from the different irradiation directions by the light irradiation unit, respectively.
The specular reflection position calculation unit calculates a plurality of specular reflection positions that are positions on the surface of the object that specularly reflected the irradiation light, based on a luminance value in each of the plurality of surface images;
The shape calculation unit captures the surface image in which the specular reflection position of each of the plurality of specular reflection positions is specified with respect to the normal direction of the surface in contact with the surface of the object at each of the plurality of specular reflection positions. The shape of the surface of the object at each of the plurality of regular reflection positions is calculated by setting the irradiation direction of the irradiation light that has been irradiated to each of the plurality of regular reflection positions in the case of Image processing system.
第1波長領域の光である第1照射光、および前記第1波長領域より短い第2波長領域の光である第2照射光を、物体に照射する光照射部と、
前記光照射部から照射された前記第1照射光が前記物体の表面で反射した光、および前記光照射部から照射された前記第2照射光が前記物体の表面で反射した光により、前記物体の表面の画像である表面画像を撮像する撮像部と、
前記表面画像から、影の領域である影領域を特定する影領域特定部と、
前記第2照射光が前記物体の表面で反射した光による前記表面画像から特定された前記影領域の位置および前記照射方向に基づいて、前記第1照射光が前記物体の表面で反射した光による前記表面画像から特定された前記影領域の位置および前記照射方向に基づいて算出した前記物体の表面の形状の空間分解能より高い空間分解能で、前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。
A light irradiation unit that irradiates an object with first irradiation light that is light in a first wavelength region and second irradiation light that is light in a second wavelength region shorter than the first wavelength region;
The first irradiation light irradiated from the light irradiation unit is reflected by the surface of the object, and the second irradiation light irradiated from the light irradiation unit is reflected by the surface of the object. An imaging unit that captures a surface image that is an image of the surface of
From the surface image, a shadow area specifying unit that specifies a shadow area that is a shadow area;
Based on the position of the shadow region identified from the surface image by the light reflected by the surface of the object and the irradiation direction, the first irradiation light is reflected by the light reflected by the surface of the object. A shape calculation unit for calculating the shape of the surface of the object with a spatial resolution higher than the spatial resolution of the shape of the surface of the object calculated based on the position of the shadow region specified from the surface image and the irradiation direction; An image processing system provided.
異なる位置からそれぞれ撮像された物体の表面の画像である複数の表面画像であり、中央の画像領域より、前記表面画像における周辺の画像領域において画質が低減された複数の表面画像を取得する画像取得部と、
前記複数の表面画像の画像内容に基づいて、前記複数の表面画像のそれぞれを撮像した場合における、前記表面画像を撮像した撮像部と前記物体との間の位置関係を特定する位置関係特定部と、
前記複数の表面画像の画像内容、および前記位置関係特定部が特定した前記位置関係に基づいて、前記表面の形状を算出する形状算出部と
を備える画像処理システム。
Image acquisition that is a plurality of surface images that are images of the surface of an object captured from different positions, and that obtains a plurality of surface images with reduced image quality in a peripheral image region of the surface image from a central image region And
A positional relationship identifying unit that identifies a positional relationship between the imaging unit that captured the surface image and the object when each of the plurality of surface images is captured based on the image contents of the plurality of surface images; ,
An image processing system comprising: a shape calculating unit that calculates the shape of the surface based on the image contents of the plurality of surface images and the positional relationship specified by the positional relationship specifying unit.
前記画像取得部は、前記表面画像における前記中央の画像領域より、前記表面画像における前記周辺の画像領域において、解像度が低減された前記複数の表面画像を取得する
請求項12に記載の画像処理システム。
The image processing system according to claim 12, wherein the image acquisition unit acquires the plurality of surface images with reduced resolution in the peripheral image region of the surface image from the central image region of the surface image. .
前記画像取得部は、前記表面画像における前記周辺の画像領域の画像を、前記表面画像における前記中央の画像領域の画像を取得する取得レートより高い取得レートで取得する
請求項12に記載の画像処理システム。
The image processing according to claim 12, wherein the image acquisition unit acquires an image of the peripheral image region in the surface image at an acquisition rate higher than an acquisition rate for acquiring an image of the central image region in the surface image. system.
物体の表面の画像である表面画像を取得する画像取得部と、
前記表面画像における、前記物体の表面に所定のパターンで分布する特定被写体が撮像された特定オブジェクトの分布に基づいて、前記物体の表面の形状を算出する形状算出部と
を備える画像処理システム。
An image acquisition unit that acquires a surface image that is an image of the surface of the object;
An image processing system comprising: a shape calculation unit configured to calculate a shape of the surface of the object based on a distribution of the specific object in which a specific subject distributed in a predetermined pattern on the surface of the object is captured in the surface image.
前記形状算出部は、前記表面画像における、前記物体の表面に略一様に分布する特定被写体が撮像された前記特定オブジェクトの分布に基づいて、前記物体の表面の形状を算出する
請求項15に記載の画像処理システム。
The shape calculation unit calculates a shape of a surface of the object based on a distribution of the specific object in which a specific subject that is distributed substantially uniformly on the surface of the object is captured in the surface image. The image processing system described.
前記形状算出部は、前記表面画像における前記特定オブジェクトの密度に基づいて、前記物体の表面の形状を算出する
請求項16に記載の画像処理システム。
The image processing system according to claim 16, wherein the shape calculation unit calculates the shape of the surface of the object based on the density of the specific object in the surface image.
前記形状算出部は、前記表面画像における前記特定オブジェクトの密度の空間的変化に基づいて、前記物体の表面の形状の空間的変化を算出する
請求項17に記載の画像処理システム。
The image processing system according to claim 17, wherein the shape calculation unit calculates a spatial change in the shape of the surface of the object based on a spatial change in the density of the specific object in the surface image.
前記形状算出部は、前記物体の表面と前記表面画像を撮像する撮像部との間の距離、および前記表面画像における前記特定オブジェクトの密度に基づいて、前記物体の表面の形状を算出する
請求項17に記載の画像処理システム。
The shape calculation unit calculates the shape of the surface of the object based on a distance between the surface of the object and an imaging unit that captures the surface image, and a density of the specific object in the surface image. The image processing system according to 17.
前記形状算出部は、前記表面画像における、異なる前記特定オブジェクトの間の位置の間隔に基づいて、前記物体の表面の形状を算出する
請求項16に記載の画像処理システム。
The image processing system according to claim 16, wherein the shape calculation unit calculates the shape of the surface of the object based on a position interval between the different specific objects in the surface image.
前記形状算出部は、異なる複数の方向からそれぞれ前記物体が撮像された前記複数の表面画像のそれぞれにおける前記特定オブジェクトの分布に基づいて、前記物体の表面の形状を算出する
請求項16に記載の画像処理システム。
The shape calculation unit according to claim 16, wherein the shape calculation unit calculates the shape of the surface of the object based on a distribution of the specific object in each of the plurality of surface images obtained by imaging the object from a plurality of different directions. Image processing system.
JP2008127725A 2008-05-14 2008-05-14 Image processing system Pending JP2009273655A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008127725A JP2009273655A (en) 2008-05-14 2008-05-14 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008127725A JP2009273655A (en) 2008-05-14 2008-05-14 Image processing system

Publications (1)

Publication Number Publication Date
JP2009273655A true JP2009273655A (en) 2009-11-26

Family

ID=41439632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008127725A Pending JP2009273655A (en) 2008-05-14 2008-05-14 Image processing system

Country Status (1)

Country Link
JP (1) JP2009273655A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2381215A1 (en) 2010-04-26 2011-10-26 Omron Corporation Shape measurement apparatus and calibration method
JP2014055814A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program
WO2014097702A1 (en) * 2012-12-20 2014-06-26 オリンパス株式会社 Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
JP2015008781A (en) * 2013-06-27 2015-01-19 オリンパス株式会社 Image processing device, endoscope apparatus, and image processing method
WO2016047191A1 (en) * 2014-09-25 2016-03-31 オリンパス株式会社 Endoscope system
JP2016518156A (en) * 2013-03-14 2016-06-23 アパーチャー ダイアグノスティックス リミテッドAperture Diagnostics Ltd. Full field 3D surface measurement
JP2016525905A (en) * 2013-05-17 2016-09-01 エンドチョイス インコーポレイテッドEndochoice, Inc. Interface unit for multi-view element endoscope system
US11153696B2 (en) 2017-02-14 2021-10-19 Virtual 3-D Technologies Corp. Ear canal modeling using pattern projection

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8363929B2 (en) 2010-04-26 2013-01-29 Omron Corporation Shape measurement apparatus and calibration method
EP2381215A1 (en) 2010-04-26 2011-10-26 Omron Corporation Shape measurement apparatus and calibration method
JP2014055814A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program
CN104883946A (en) * 2012-12-20 2015-09-02 奥林巴斯株式会社 Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
WO2014097702A1 (en) * 2012-12-20 2014-06-26 オリンパス株式会社 Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
JP2014138691A (en) * 2012-12-20 2014-07-31 Olympus Corp Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
JP2016518156A (en) * 2013-03-14 2016-06-23 アパーチャー ダイアグノスティックス リミテッドAperture Diagnostics Ltd. Full field 3D surface measurement
US10575719B2 (en) 2013-03-14 2020-03-03 Virtual 3-D Technologies Corp. Full-field three-dimensional surface measurement
US11503991B2 (en) 2013-03-14 2022-11-22 Virtual 3-D Technologies Corp. Full-field three-dimensional surface measurement
JP2016525905A (en) * 2013-05-17 2016-09-01 エンドチョイス インコーポレイテッドEndochoice, Inc. Interface unit for multi-view element endoscope system
JP2015008781A (en) * 2013-06-27 2015-01-19 オリンパス株式会社 Image processing device, endoscope apparatus, and image processing method
WO2016047191A1 (en) * 2014-09-25 2016-03-31 オリンパス株式会社 Endoscope system
JP6022106B2 (en) * 2014-09-25 2016-11-09 オリンパス株式会社 Endoscope system
CN106535734A (en) * 2014-09-25 2017-03-22 奥林巴斯株式会社 Endoscope system
EP3150103A4 (en) * 2014-09-25 2018-02-21 Olympus Corporation Endoscope system
US10264956B2 (en) 2014-09-25 2019-04-23 Olympus Corporation Endoscope system having processor for calculating a size of a convex portion
US11153696B2 (en) 2017-02-14 2021-10-19 Virtual 3-D Technologies Corp. Ear canal modeling using pattern projection

Similar Documents

Publication Publication Date Title
JP2009273655A (en) Image processing system
JP5267143B2 (en) Imaging apparatus and program
JP4739242B2 (en) Imaging of embedded structures
US8334900B2 (en) Apparatus and method of optical imaging for medical diagnosis
JP5257891B2 (en) Image processing system and program
WO2008078742A1 (en) Fluorescence endoscope and fluorescence measuring method
US7457659B2 (en) Method and device for examining the skin
WO2016006451A1 (en) Observation system
JP6177458B2 (en) Image processing apparatus and endoscope system
JP7289296B2 (en) Image processing device, endoscope system, and method of operating image processing device
CN102670168A (en) Ophthalmologic apparatus and control method of same
US20210158100A1 (en) Image learning device, image learning method, neural network, and image classification device
JP2009131615A (en) Image capturing system, image capturing method and program
US20240016387A1 (en) System and method for residual cancer cell detection
CN109561819A (en) The control method of endoscope apparatus and endoscope apparatus
JPWO2015199067A1 (en) Image analysis apparatus, imaging system, surgery support system, image analysis method, and image analysis program
JP2009297237A (en) Imager, imaging method, and program
US11857153B2 (en) Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
JP2006141734A (en) Image processing apparatus, method and program
US20220330850A1 (en) Endoscope apparatus, method of operating the same, and non-transitory computer readable medium
KR102534778B1 (en) Method and apparatus for obtaining three dimensional data and computer readable medium storing a program for performing the same method
EP3942991A1 (en) Endoscope processor device, medical image processing device, operation method thereof, and program for medical image processing device
US20200170483A1 (en) Endoscopic systems including a multimode optical fiber and a machine learning classifier for interrogating a portion of a body
JP5130899B2 (en) Imaging system and program
JP2007089969A (en) Biological pattern imaging device