JP2020067592A - Movement amount determining device, movement amount determining method, and movement amount determining program - Google Patents

Movement amount determining device, movement amount determining method, and movement amount determining program Download PDF

Info

Publication number
JP2020067592A
JP2020067592A JP2018200965A JP2018200965A JP2020067592A JP 2020067592 A JP2020067592 A JP 2020067592A JP 2018200965 A JP2018200965 A JP 2018200965A JP 2018200965 A JP2018200965 A JP 2018200965A JP 2020067592 A JP2020067592 A JP 2020067592A
Authority
JP
Japan
Prior art keywords
image
movement amount
unit
acquired
amount determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018200965A
Other languages
Japanese (ja)
Inventor
野中 修
Osamu Nonaka
修 野中
禎 李
Zhen Li
禎 李
洋志 藤森
Hiroshi Fujimori
洋志 藤森
和彦 長
Kazuhiko Cho
和彦 長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2018200965A priority Critical patent/JP2020067592A/en
Publication of JP2020067592A publication Critical patent/JP2020067592A/en
Pending legal-status Critical Current

Links

Abstract

To realize the determination of a movement amount of an image acquisition unit by a configuration unaffected by costs and size.SOLUTION: A movement amount determining device for determining the amount of relative movement of an image acquisition unit that is used for acquiring the image of a measurement object, comprises: an overlap determination unit for determining, each time second and subsequent images are acquired using an image acquisition unit after a specific timing, overlapping portions of the acquired image and a previously acquired image; a synthesized image generation unit for superimposing the plurality of images acquired using the image acquisition unit after the specific timing in the overlapping portions determined by the overlap determination unit to generate a synthesized image; and a movement amount determination unit for determining the amount of movement relative to the measurement object of the image acquisition unit on the basis of the synthesized image generated by the synthesized image generation unit.SELECTED DRAWING: Figure 2

Description

本発明は、画像を取得するために用いられる画像取得部の移動量を判定する移動量判定装置、移動量判定装置において実行される移動量判定方法、及び移動量判定装置のコンピュータに実行される移動量判定プログラムに関する。   INDUSTRIAL APPLICABILITY The present invention is executed by a movement amount determination device that determines a movement amount of an image acquisition unit used to acquire an image, a movement amount determination method executed by the movement amount determination device, and a computer of the movement amount determination device. It relates to a movement amount determination program.

従来、距離を測定する装置が知られている。
例えば、特許文献1には、超音波探触子を体内に挿入して超音波診断を行う超音波診断装置において、超音波探触子の超音波振動子を用いて超音波の送受信を行い、挿入方向前方側の対象物との距離を測定すること等が開示されている。
Conventionally, a device for measuring a distance is known.
For example, in Patent Document 1, in an ultrasonic diagnostic apparatus that inserts an ultrasonic probe into a body to perform ultrasonic diagnosis, ultrasonic waves are transmitted and received using an ultrasonic transducer of the ultrasonic probe, It is disclosed to measure the distance to the object on the front side in the insertion direction.

特開2007−82624号公報JP, 2007-82624, A

近年、画像を取得するために用いられる画像取得部が移動したときの移動量の計測を、コストや大きさに制約を受けない構成に依って実現したい、という要望がある。
本発明は、上記実状に鑑み、画像取得部の移動量の判定を、コストや大きさに制約を受けない構成に依って実現することができる移動量判定装置、移動量判定方法、及び移動量判定プログラムを提供することを目的とする。
In recent years, there is a demand for realizing a measurement of a movement amount when an image acquisition unit used for acquiring an image moves by a configuration that is not limited by cost or size.
In view of the above circumstances, the present invention is a movement amount determination device, a movement amount determination method, and a movement amount that can realize the determination of the movement amount of an image acquisition unit by a configuration that is not restricted by cost or size. The purpose is to provide a judgment program.

本発明の第1の態様は、測定対象物の画像を取得するために用いられる画像取得部の相対的な移動量を判定する移動量判定装置であって、特定のタイミング以降に前記画像取得部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を判定する重なり判定部と、前記特定のタイミング以降に前記画像取得部を用いて取得された複数の画像を、前記重なり判定部が判定した重なり部分で重ねて合成画像を生成する合成画像生成部と、前記合成画像生成部が生成した合成画像に基づいて、前記画像取得部の前記測定対象物に対する相対移動量を判定する移動量判定部と、を備える。   A first aspect of the present invention is a movement amount determination device that determines a relative movement amount of an image acquisition unit used to acquire an image of a measurement target, and the image acquisition unit is provided after a specific timing. In the image acquired by using the overlap determination unit that determines the overlap portion between the acquired image and the previously acquired image every time the second and subsequent images are acquired, and the specific timing and thereafter. A plurality of images acquired by using the image acquisition unit, a composite image generation unit that generates a composite image by overlapping at the overlap portion determined by the overlap determination unit, and a composite image generated by the composite image generation unit. And a movement amount determination unit that determines a relative movement amount of the image acquisition unit with respect to the measurement object.

本発明の第2の態様は、第1の態様において、前記移動量判定部に依り判定された移動量を表示する表示部、を更に備える。
本発明の第3の態様は、第1又は2の態様において、前記重なり判定部は、推論モデルを用いて前記重なり部分を判定する。
A second aspect of the present invention further includes a display unit for displaying the movement amount determined by the movement amount determination unit in the first aspect.
According to a third aspect of the present invention, in the first or second aspect, the overlap determination unit determines the overlap portion using an inference model.

本発明の第4の態様は、第3の態様において、前記推論モデルは、対象物に沿って既知のずらし量をもって撮像した複数画像と、その重なり部の関係を少なくとも一つの入出力ペアを教師データとして行った機械学習によって得られる。   According to a fourth aspect of the present invention, in the inference model according to the third aspect, the inference model teaches at least one input / output pair for a relationship between a plurality of images taken with a known shift amount along an object and an overlapping portion thereof. It is obtained by machine learning performed as data.

本発明の第5の態様は、第3の態様において、前記推論モデルは、対象物に沿って既知のずらし量をもって撮像した2画像と、これらの2画像の重なり部の幅の関係を少なくとも一つの入出力ペアを教師データとして行った機械学習によって得られる。   In a fifth aspect of the present invention based on the third aspect, the inference model has at least one relationship between two images captured with a known shift amount along an object and a width of an overlapping portion of these two images. It is obtained by machine learning with one input / output pair as teacher data.

本発明の第6の態様は、第3の態様において、前記推論モデルは、対象物に沿って既知のずらし量をもって撮像した複数画像と、当該対象物の画像を取得した時の画像取得部の相対的な移動量を少なくとも一つの入出力ペアを教師データとして行った機械学習によって得られる。   According to a sixth aspect of the present invention, in the third aspect, the inference model includes a plurality of images captured with a known shift amount along an object, and an image acquisition unit when an image of the object is acquired. The relative movement amount is obtained by machine learning using at least one input / output pair as teacher data.

本発明の第7の態様は、第3乃至6の何れか1つの態様において、外部機器と通信を行う通信部を更に備え、前記推論モデルは、前記外部機器から前記通信部を経由して取得される。
本発明の第8の態様は、第1乃至7の何れか1つの態様において、前記画像取得部は、画像を取得するために用いられる撮像部である。
A seventh aspect of the present invention is any one of the third to sixth aspects, further comprising a communication unit that communicates with an external device, and the inference model is acquired from the external device via the communication unit. To be done.
An eighth aspect of the present invention is the image capturing section according to any one of the first to seventh aspects, wherein the image acquisition section is used to acquire an image.

本発明の第9の態様は、第8の態様において、前記撮像部が一方向に移動する場合において、前記合成画像生成部が生成する合成画像は、前記特定のタイミング以降に前記撮像部を用いて取得された複数の画像が前記一方向と直交する方向に配置された画像である。   According to a ninth aspect of the present invention, in the eighth aspect, when the image capturing unit moves in one direction, the composite image generated by the composite image generating unit uses the image capturing unit after the specific timing. The plurality of images acquired by the above are images arranged in a direction orthogonal to the one direction.

本発明の第10の態様は、第9の態様において、前記移動量判定部は、前記合成画像生成部が生成した合成画像の長さを、前記撮像部の移動量に換算することに依り、前記撮像部の移動量を判定する。   According to a tenth aspect of the present invention, in the ninth aspect, the movement amount determination unit converts the length of the composite image generated by the composite image generation unit into the movement amount of the imaging unit, The amount of movement of the imaging unit is determined.

本発明の第11の態様は、第9の態様において、前記移動量判定部は、前記合成画像生成部が生成した合成画像と、基準合成画像とに基づいて、前記撮像部の移動量を判定し、前記基準合成画像は、前記撮像部が前記一方向に基準移動量移動する間に前記撮像部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を前記重なり判定部が判定し、前記撮像部が前記一方向に前記基準移動量移動する間に前記撮像部を用いて取得された複数の画像を、前記合成画像生成部が前記重なり部分で重ねて合成画像を生成することに依り、作成される。   In an eleventh aspect of the present invention based on the ninth aspect, the movement amount determination unit determines the movement amount of the imaging unit based on a composite image generated by the composite image generation unit and a reference composite image. However, the reference composite image is acquired every time the second and subsequent images are acquired in the image acquired by using the imaging unit while the imaging unit is moving the reference movement amount in the one direction. A plurality of images acquired by using the image capturing unit while the image capturing unit moves the reference movement amount in the one direction. Is generated by the composite image generation unit overlapping the overlapping portion to generate a composite image.

本発明の第12の態様は、第1乃至7の何れか1つの態様において、前記画像取得部は、超音波画像を取得するために用いられる超音波探触子である。
本発明の第13の態様は、第12の態様において、前記移動量判定部が判定する前記超音波探触子の移動量は、中空の円筒形状を有する被検体に対する前記超音波探触子の回転角度である。
A twelfth aspect of the present invention is the ultrasonic probe according to any one of the first to seventh aspects, in which the image acquisition unit is used for acquiring an ultrasonic image.
A thirteenth aspect of the present invention is the twelfth aspect, wherein the movement amount of the ultrasonic probe determined by the movement amount determination unit is equal to that of the ultrasonic probe with respect to a subject having a hollow cylindrical shape. It is the rotation angle.

本発明の第14の態様は、第13の態様において、前記移動量判定部は、前記合成画像生成部が生成した合成画像の長さと、当該合成画像に含まれる、前記被検体に対する前記超音波探触子の一回転分の部分合成画像の長さとに基づいて、前記被検体に対する前記超音波探触子の回転角度を判定する。   According to a fourteenth aspect of the present invention, in the thirteenth aspect, the movement amount determination unit includes the length of the composite image generated by the composite image generation unit and the ultrasonic wave for the subject included in the composite image. The rotation angle of the ultrasonic probe with respect to the subject is determined based on the length of the partial composite image for one rotation of the probe.

本発明の第15の態様は、測定対象物の画像を取得するために用いられる画像取得部の相対的な移動量を判定する移動量判定装置において実行される移動量判定方法であって、特定のタイミング以降に前記画像取得部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を判定し、前記特定のタイミング以降に前記画像取得部を用いて取得された複数の画像を、前記重なり部分で重ねて合成画像を生成し、前記合成画像に基づいて、前記画像取得部の前記測定対象物に対する相対移動量を判定する。   A fifteenth aspect of the present invention is a movement amount determination method executed in a movement amount determination device that determines a relative movement amount of an image acquisition unit used to acquire an image of an object to be measured. In the images acquired using the image acquisition unit after the timing of, every time the second and subsequent images are acquired, the overlapping portion between the acquired image and the previously acquired image is determined, and A plurality of images acquired by using the image acquisition unit after a specific timing, a composite image is generated by overlapping the overlapping portion, and based on the composite image, relative to the measurement object of the image acquisition unit. Determine the amount of movement.

本発明の第16の態様は、測定対象物の画像を取得するために用いられる画像取得部の相対的な移動量を判定する移動量判定装置のコンピュータに、特定のタイミング以降に前記画像取得部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を判定し、前記特定のタイミング以降に前記画像取得部を用いて取得された複数の画像を、前記重なり部分で重ねて合成画像を生成し、前記合成画像に基づいて、前記画像取得部の前記測定対象物に対する相対移動量を判定する、という処理を実行させる移動量判定プログラムである。   A sixteenth aspect of the present invention provides a computer of a movement amount determination device that determines a relative movement amount of an image acquisition unit used to acquire an image of a measurement target, the image acquisition unit being after a specific timing. In the image acquired using, every time the second and subsequent images are acquired, the overlapping portion between the acquired image and the previously acquired image is determined, and the image acquisition is performed after the specific timing. A plurality of images acquired by using the image acquisition unit are overlapped at the overlapping portion to generate a combined image, and a relative movement amount of the image acquisition unit with respect to the measurement object is determined based on the combined image. Is a movement amount determination program for executing.

本発明に依れば、画像を取得するために用いられる画像取得部の移動量の判定を、コストや大きさに制約を受けない構成に依って実現することができる、という効果を奏する。   According to the present invention, it is possible to determine the amount of movement of the image acquisition unit used to acquire an image with a configuration that is not limited by cost or size.

第1の実施形態に係る移動量判定装置である工業用内視鏡装置の外観構成例を示す図である。It is a figure which shows the external appearance structural example of the industrial endoscope apparatus which is the movement amount determination apparatus which concerns on 1st Embodiment. 内視鏡装置、及び内視鏡装置と通信可能な外部機器の構成例を示す図である。It is a figure which shows the structural example of an endoscope apparatus and the external device which can communicate with an endoscope apparatus. 機械学習部が入出力モデルを生成する過程を模式的に示す図である。It is a figure which shows typically the process in which a machine learning part produces | generates an input / output model. 内視鏡装置において実行される撮像アクセス制御処理の一例を示すフローチャートである。It is a flow chart which shows an example of image pick-up access control processing performed in an endoscope apparatus. 撮像アクセス制御処理において、アクセスモード期間中に挿入部が被検体内部へ一方向に挿入されたときに生成される合成画像の一例を示す図である。FIG. 8 is a diagram showing an example of a composite image generated when the insertion section is inserted into the subject in one direction during the access mode period in the imaging access control process. 外部機器において実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed in an external device. 内視鏡装置において実行される撮像アクセス制御処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of the imaging access control process performed in an endoscope apparatus. 図7に示した撮像アクセス制御処理において、キャリブレーションモードが設定されているときに表示部に表示された画面例を示す図(その1)である。FIG. 9 is a diagram (No. 1) showing an example of a screen displayed on the display unit when the calibration mode is set in the imaging access control process shown in FIG. 7. 図7に示した撮像アクセス制御処理において、キャリブレーションモードが設定されているときに表示部に表示された画面例を示す図(その2)である。FIG. 9 is a diagram (No. 2) showing an example of a screen displayed on the display unit when the calibration mode is set in the imaging access control process shown in FIG. 7. 第2の実施形態に係る移動量判定装置である超音波検査装置の構成例を示す図である。It is a figure which shows the structural example of the ultrasonic inspection apparatus which is the movement amount determination apparatus which concerns on 2nd Embodiment. 被検体へ送信された超音波(送信波)と被検体で反射された超音波(反射波)の一例を模式的に示す図である。It is a figure which shows typically an example of the ultrasonic wave (transmitted wave) transmitted to the test object and the ultrasonic wave (reflected wave) reflected by the test object. 被検体を回転させたときの反射波検出時間の推移の一例を示す図である。It is a figure which shows an example of a transition of the reflected wave detection time when a test object is rotated. 超音波検査装置において実行される探傷アクセス制御処理の一例を示すフローチャートである。It is a flow chart which shows an example of flaw detection access control processing performed in an ultrasonic inspection device. ハードウェア構成の一例を示す図である。It is a figure which shows an example of a hardware configuration.

以下、図面を参照しながら、本発明の実施の形態について説明する。
<第1の実施形態>
図1は、第1の実施形態に係る移動量判定装置である工業用内視鏡装置(以下単に「内視鏡装置」という)の外観構成例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a diagram showing an external configuration example of an industrial endoscope apparatus (hereinafter simply referred to as “endoscope apparatus”) which is a movement amount determination apparatus according to the first embodiment.

図1に示したとおり、内視鏡装置1は、内視鏡挿入部(以下単に「挿入部」という)101、表示部102、及び湾曲操作部103を備える。
挿入部101は、被検体とされる構造物の内部に挿入される部分であって、その先端部に後述する撮像部104を有する。挿入部101は、所謂軟性内視鏡の挿入部でもある。
As shown in FIG. 1, the endoscope apparatus 1 includes an endoscope insertion portion (hereinafter simply referred to as “insertion portion”) 101, a display portion 102, and a bending operation portion 103.
The insertion portion 101 is a portion to be inserted into a structure as a subject, and has an imaging portion 104 described below at its tip. The insertion section 101 is also an insertion section of a so-called flexible endoscope.

表示部102は、画像や情報を表示する。例えば、撮像部104を用いて取得された画像や、後述する挿入部101の挿入距離(撮像部104の移動量でもある)を表示する。
湾曲操作部103は、挿入部101の先端部を湾曲させるための操作を受け付ける。これに依り、ユーザは、湾曲操作部103を操作して挿入部101の先端部を自由に湾曲させることができ、撮像部104が撮像する被写体領域を変更することができる。
The display unit 102 displays images and information. For example, an image acquired by using the image capturing unit 104 or an insertion distance of the inserting unit 101 (which is also a moving amount of the image capturing unit 104) described below is displayed.
The bending operation unit 103 receives an operation for bending the distal end portion of the insertion unit 101. As a result, the user can freely bend the distal end portion of the insertion portion 101 by operating the bending operation portion 103, and can change the subject region imaged by the imaging portion 104.

図2は、内視鏡装置1、及び内視鏡装置1と通信可能な外部機器の構成例を示す図である。
図2に示したとおり、内視鏡装置1は、撮像部104、時計部105、制御部106、推論エンジン107、通信部108、表示部102、操作部109、及び記録部110を備える。なお、撮像部104は、画像を取得するために用いられる画像取得部の一例である。
FIG. 2 is a diagram showing a configuration example of the endoscope apparatus 1 and an external device capable of communicating with the endoscope apparatus 1.
As shown in FIG. 2, the endoscope device 1 includes an imaging unit 104, a clock unit 105, a control unit 106, an inference engine 107, a communication unit 108, a display unit 102, an operation unit 109, and a recording unit 110. The imaging unit 104 is an example of an image acquisition unit used to acquire an image.

撮像部104は、上述のとおり挿入部101の先端部に備えられており、光学系104a、撮像素子104b、及び湾曲部104cを備える。
光学系104aは、被写体の光学像(被写体像)を撮像素子104bに結像させる。
The imaging unit 104 is provided at the distal end portion of the insertion unit 101 as described above, and includes the optical system 104a, the imaging element 104b, and the bending portion 104c.
The optical system 104a forms an optical image of a subject (subject image) on the image sensor 104b.

撮像素子104bは、光学系104aに依り結像された被写体像を電気信号に変換する。この電気信号に基づいて撮像部104では画像が生成(取得)される。撮像素子104bは、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)である。   The image sensor 104b converts the subject image formed by the optical system 104a into an electric signal. An image is generated (acquired) in the imaging unit 104 based on this electric signal. The image sensor 104b is, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).

湾曲部104cは、湾曲操作部103が受け付けた操作に応じて、挿入部101の先端部を湾曲させる機構である。
時計部105は、時刻データ又は日時データを生成する。
The bending portion 104c is a mechanism that bends the distal end portion of the insertion portion 101 according to an operation received by the bending operation portion 103.
The clock unit 105 generates time data or date / time data.

制御部106は、内視鏡装置1の全体を制御する。制御部106は、重なり判定部106a、合成処理部106b、駆動部106c、通信制御部106d、記録制御部106e、移動量判定部106f、及び表示制御部106gを備える。   The control unit 106 controls the entire endoscope device 1. The control unit 106 includes an overlap determination unit 106a, a combination processing unit 106b, a drive unit 106c, a communication control unit 106d, a recording control unit 106e, a movement amount determination unit 106f, and a display control unit 106g.

重なり判定部106aは、特定のタイミング以降に撮像部104を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回(1つ前)に取得された画像との重なり部分を判定する。本実施形態では、この判定が、推論エンジン107と協働して行われる。   The overlap determination unit 106a acquires the image acquired last time (one before) with the acquired image every time the second and subsequent images are acquired in the image acquired using the imaging unit 104 after a specific timing. The overlapping portion with the image is judged. In this embodiment, this determination is made in cooperation with the inference engine 107.

合成処理部106bは、特定のタイミング以降に撮像部104を用いて取得された複数の画像を、重なり判定部106aが判定した重なり部分で重ねて合成画像を生成する。例えば、特定のタイミング以降に撮像部104が被検体内部へ一方向に挿入されている場合に生成される合成画像は、その特定のタイミング以降に撮像部104を用いて取得された複数の画像が、その一方向に対して直交する方向に配置された画像となる。   The combining processing unit 106b overlaps a plurality of images acquired by the imaging unit 104 after a specific timing with the overlapping portion determined by the overlapping determination unit 106a to generate a combined image. For example, the composite image generated when the image capturing unit 104 is inserted into the subject in one direction after a specific timing includes a plurality of images acquired using the image capturing unit 104 after the specific timing. , Images are arranged in a direction orthogonal to the one direction.

駆動部106cは、撮像部104を駆動する。
通信制御部106dは、通信部108を経由して行われる外部機器2等との通信を制御する。
The driving unit 106c drives the imaging unit 104.
The communication control unit 106d controls communication with the external device 2 and the like performed via the communication unit 108.

記録制御部106eは、記録部110への画像ファイル等の記録を制御する。
移動量判定部106fは、合成処理部106bが生成した合成画像に基づいて、撮像部104の移動量を判定する。例えば、移動量判定部106fは、合成処理部106bが生成した合成画像の長さを撮像部104の移動量に換算することに依り、撮像部104の移動量を判定してもよい。あるいは、例えば、移動量判定部106fは、合成処理部106bが生成した合成画像と、基準合成画像とに基づいて、撮像部104の移動量を判定してもよい。この場合、基準合成画像は、例えば、撮像部104が一方向に基準移動量移動する間に撮像部104を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を重なり判定部106aが判定し、撮像部104が一方向に基準移動量移動する間に撮像部104を用いて取得された複数の画像を、合成処理部106bが重なり部分で重ねて合成画像を生成することに依り、作成される。
The recording control unit 106e controls recording of image files and the like in the recording unit 110.
The movement amount determination unit 106f determines the movement amount of the imaging unit 104 based on the composite image generated by the composition processing unit 106b. For example, the movement amount determination unit 106f may determine the movement amount of the imaging unit 104 by converting the length of the combined image generated by the combination processing unit 106b into the movement amount of the imaging unit 104. Alternatively, for example, the movement amount determination unit 106f may determine the movement amount of the imaging unit 104 based on the combined image generated by the combination processing unit 106b and the reference combined image. In this case, the reference composite image is acquired, for example, every time the second and subsequent images are acquired in the image acquired by using the imaging unit 104 while the imaging unit 104 moves in the reference movement amount in one direction. The overlapping determination unit 106a determines the overlapping portion between the captured image and the previously captured image, and a plurality of images captured by the imaging unit 104 while the imaging unit 104 moves in the reference movement amount in one direction are displayed. It is created by the synthesizing processing unit 106b overlapping to generate a synthetic image at the overlapping portion.

表示制御部106gは、表示部102への画像や情報の表示を制御する。
推論エンジン107は、推論モデルを用いて、2つの画像の入力に対して、その2つの画像の重なり部分を推論して出力する。本実施形態では、特定のタイミング以降に撮像部104を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像という2つの画像の入力に対して、その2つの画像の重なり部分を推論して重なり判定部106aに出力する。ここで、重なり部分の推論は、例えば、2つの画像の粒状性の類似度に基づいて行われてもよい。
The display control unit 106g controls the display of images and information on the display unit 102.
The inference engine 107 uses the inference model to infer the overlapping portion of the two images with respect to the input of the two images and output the overlapped portion. In the present embodiment, in the images acquired by using the image capturing unit 104 after a specific timing, every time the second and subsequent images are acquired, two images, the acquired image and the previously acquired image, are acquired. With respect to the input of, the overlapping portion of the two images is inferred and output to the overlapping determination unit 106a. Here, the inference of the overlapping portion may be performed based on, for example, the degree of similarity of the graininess of the two images.

また、推論エンジン107は、推論モデル107aを記憶する記憶部107bを備える。記憶部107bは、複数の推論モデル107aを記憶してもよい。この場合、複数の推論モデル107aは、例えば、被検体とされる構造物別の推論モデルあってもよいし、被検体とされる構造物の内部の材質別の推論モデルであってもよい。また、この場合は、被検体とされる構造物の種類や、被検体とされる構造物の内部の材質に応じて、使用する推論モデル107aをユーザが選択してもよい。この選択は、操作部109の操作に依って行うことができる。   The inference engine 107 also includes a storage unit 107b that stores the inference model 107a. The storage unit 107b may store a plurality of inference models 107a. In this case, the plurality of inference models 107a may be, for example, an inference model for each structure to be inspected or an inference model for each material inside the structure to be inspected. Further, in this case, the user may select the inference model 107a to be used according to the type of the structure to be inspected and the material inside the structure to be inspected. This selection can be performed by operating the operation unit 109.

通信部108は、外部機器2等との間で通信を行う通信インターフェースである。通信部108は、例えば、記憶部107bに記憶される推論モデルを外部機器2から受信する。なお、近年、こうした学習を内視鏡装置1など端末内で行う試みも生まれており、機械学習を行う部分が必ずしも外部にある必要はない。また、推論エンジン107が逆に外部にあるような設計が可能であることは言うまでもない。   The communication unit 108 is a communication interface that communicates with the external device 2 and the like. The communication unit 108 receives, for example, the inference model stored in the storage unit 107b from the external device 2. In recent years, attempts have been made to perform such learning in a terminal such as the endoscope device 1, and the part for performing machine learning does not necessarily have to be external. It goes without saying that the inference engine 107 can be designed externally.

また、内蔵の学習装置と外部にある学習装置が連携してもよい。外部の学習装置は消費電力などを気にせず高速で稼働できるので、ここでの豊富な計算リソースで、大掛かりな機械学習を行い、そこで得られた情報をもとに、小規模な内蔵学習装置を使って効率的な学習を行うことも可能である。例えば、ニューラル・ネットワークの層を減らしたり寄与度の小さい情報を刈り込むなどの調整で、小規模でも実用的で高精度な推論モデルを作ることが出来る。   Further, a built-in learning device and an external learning device may cooperate with each other. An external learning device can operate at high speed without worrying about power consumption, so large-scale machine learning is performed with abundant computing resources here, and a small-scale built-in learning device is based on the information obtained there. It is also possible to use for efficient learning. For example, by adjusting the layers of the neural network or pruning information having a small contribution, it is possible to create a practical and highly accurate inference model even on a small scale.

表示部102は、画像や情報を表示する。表示部102は、例えば、LCD(Liquid Crystal Display)である。あるいは、表示部102は、タッチパネル付きの表示部であってもよい。   The display unit 102 displays images and information. The display unit 102 is, for example, an LCD (Liquid Crystal Display). Alternatively, the display unit 102 may be a display unit with a touch panel.

操作部109は、上述の湾曲操作部103を含み、内視鏡装置1に対する各種の入力操作を受け付ける。なお、表示部102がタッチパネル付き表示部である場合、そのタッチパネルは、操作部109の一部である。   The operation unit 109 includes the bending operation unit 103 described above, and receives various input operations on the endoscope apparatus 1. When the display unit 102 is a display unit with a touch panel, the touch panel is a part of the operation unit 109.

記録部110は、HDD(hard disk drive)等の不揮発性メモリであり、例えば、撮像部104を用いて取得された撮影画像(静止画又は動画)の画像ファイルを記録する。画像ファイルは、撮影画像を表す画像データと、その撮影画像に関する補助データとを有する。補助データは、その撮影画像が撮影された日時データ等を含む。   The recording unit 110 is a non-volatile memory such as an HDD (hard disk drive), and records, for example, an image file of a captured image (still image or moving image) acquired by using the imaging unit 104. The image file has image data representing a captured image and auxiliary data regarding the captured image. The auxiliary data includes date and time data when the captured image was captured.

なお、内視鏡装置1において、時計部105、制御部106、及び推論エンジン107等は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の回路に依って構成されてもよい。   In the endoscope device 1, the clock unit 105, the control unit 106, the inference engine 107, and the like are configured by circuits such as ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array). May be.

外部機器2は、外部画像DB(database)201、及び機械学習部202を備える。なお、外部画像DB201と機械学習部202は別々の機器として構成されてもよい。
外部画像DB201は、画像記録部201a、及び通信部201bを備える。
The external device 2 includes an external image DB (database) 201 and a machine learning unit 202. The external image DB 201 and the machine learning unit 202 may be configured as separate devices.
The external image DB 201 includes an image recording unit 201a and a communication unit 201b.

画像記録部201aは、HDD等の不揮発性メモリであり、複数の連続取得画像群を記録する。連続取得画像群は、連続して取得された複数の画像であり、例えば、連写された複数の画像や、複数のフレーム画像を有する動画である。また、連続取得画像群は、付随情報を有する。付随情報は、連続取得画像群に表されている被写体の種類や材質等といった被写体に関する情報を含む。   The image recording unit 201a is a non-volatile memory such as an HDD, and records a plurality of continuously acquired image groups. The continuously acquired image group is a plurality of images that are continuously acquired, and is, for example, a plurality of continuously shot images or a moving image having a plurality of frame images. Further, the continuously acquired image group has accompanying information. The incidental information includes information about the subject such as the type and material of the subject represented in the continuously acquired image group.

通信部201bは、機械学習部202等との間で通信を行う通信インターフェースである。通信部201bは、例えば、画像記録部201aに記録された連続取得画像群を、機械学習部202へ送信する。   The communication unit 201b is a communication interface that communicates with the machine learning unit 202 and the like. The communication unit 201b transmits, for example, the continuously acquired image group recorded in the image recording unit 201a to the machine learning unit 202.

機械学習部202は、母集合作成部202a、出力設定部202b、入出力モデル化部202c、及び通信部202dを備える。
母集合作成部202aは、教師データとする複数の入出力ペアを作成する。本実施形態では、外部画像DB201から取得された連続取得画像群から、複数の入出力ペアを作成する。ここで、入出力ペアは、2つの画像を入力とし、その2つの画像の重なり部分を出力とする、入力と出力のペアである。出力とされる重なり部分は、例えば、入力とされる2つの画像の一方を他方に対して重ねてゆっくり移動させながら画像の粒状性の類似部分を探索することに依って得られる。
The machine learning unit 202 includes a population generation unit 202a, an output setting unit 202b, an input / output modeling unit 202c, and a communication unit 202d.
The population creating unit 202a creates a plurality of input / output pairs as teacher data. In this embodiment, a plurality of input / output pairs are created from the continuously acquired image group acquired from the external image DB 201. Here, the input / output pair is an input / output pair in which two images are input and an overlapping portion of the two images is output. The overlapping portion to be output is obtained, for example, by searching for a similar portion of image graininess while overlapping one of two images to be input with respect to the other and slowly moving them.

出力設定部202bは、入出力モデル化部202cに生成させる入出力モデルの出力を設定する。本実施形態では、入力とされる2つの画像の重なり部分(2画像対共通部分)を、その出力として設定する。   The output setting unit 202b sets the output of the input / output model to be generated by the input / output modeling unit 202c. In the present embodiment, the overlapping portion of two input images (two image pair common portion) is set as its output.

入出力モデル化部202cは、母集合作成部202aが作成した複数の入出力ペアと、出力設定部202bが設定した出力とに基づいて、入出力モデルを生成する。これに依り、本実施形態では、2つの画像の入力に対して、その2つの画像の重なり部分を出力する、という入出力モデルが生成される。なお、ここで生成される入出力モデルは、推論モデルでもある。   The input / output modeling unit 202c generates an input / output model based on the plurality of input / output pairs created by the population creating unit 202a and the output set by the output setting unit 202b. According to this, in the present embodiment, an input / output model is generated in which, for two input images, the overlapping portion of the two images is output. The input / output model generated here is also an inference model.

通信部202dは、外部画像DB201や内視鏡装置1等との間で通信を行う通信インターフェースである。通信部202dは、例えば、連続取得画像群を外部画像DB201から受信し、また、生成された入出力モデル(推論モデル)を内視鏡装置1へ送信する。   The communication unit 202d is a communication interface that communicates with the external image DB 201, the endoscope device 1, and the like. The communication unit 202d receives, for example, the continuously acquired image group from the external image DB 201, and also transmits the generated input / output model (inference model) to the endoscope device 1.

なお、外部機器2において、母集合作成部202a、出力設定部202b、及び入出力モデル化部202c等は、例えば、ASICやFPGA等の回路に依って構成されてもよい。   In addition, in the external device 2, the population creating unit 202a, the output setting unit 202b, the input / output modeling unit 202c, and the like may be configured by circuits such as ASIC and FPGA, for example.

図3は、機械学習部202が入出力モデルを生成する過程を模式的に示す図である。
図3に示したとおり、機械学習部202は、母集合作成部202aが作成した複数の入出力ペアと出力設定部202bが設定した出力とに基づいて、入出力モデルを生成する。詳しくは、機械学習部202は、複数の入出力ペアから、入力と出力の関係を機械学習し、更に、2つの画像の入力に対してその2つの画像の重なり部分を出力する、といった機械学習を行う。そして、その機械学習の結果として、機械学習済みの入出力モデルが得られる。このときに得られた入出力モデルは、回路やプログラムとして機器(例えば内視鏡装置1)に組み込むことができる。なお、近年では、機械学習が、SLAM(Simultaneous Localization and Mapping)と組み合わされて使用されていることが知られている。
FIG. 3 is a diagram schematically showing a process in which the machine learning unit 202 generates an input / output model.
As shown in FIG. 3, the machine learning unit 202 generates an input / output model based on the plurality of input / output pairs created by the population creating unit 202a and the output set by the output setting unit 202b. Specifically, the machine learning unit 202 machine-learns the relationship between inputs and outputs from a plurality of input / output pairs, and further outputs the overlapping portion of the two images with respect to the inputs of the two images. I do. Then, as a result of the machine learning, a machine-learned input / output model is obtained. The input / output model obtained at this time can be incorporated into a device (for example, the endoscope apparatus 1) as a circuit or a program. In recent years, it is known that machine learning is used in combination with SLAM (Simultaneous Localization and Mapping).

非検体が製造されたものである場合、材質や設計その製造時の工程や環境などに従って、その非検体特有の表面状態が現れることがある。こうした、被検体とされる対象物(構造物)の特徴は、人間の目で見ても単調なパターンであることが多く、その繰り返しの情報量が多すぎて判別しきれないことが多い。もちろん、製造されたもの以外の生物なども成長時の条件で同様の個体差が現れ、これも同様のことが言える。このような微細な差異でも近年の大量のデータを扱った機械学習による画像認識技術の強みであるパターン分析によって測定場所に応じた差異の検出が可能となる。前述のように、あらかじめ同じ対象物の画像を既知のずらした位置から撮像した複数画像があれば、当該既知のずらし量と画像の重なり部の関係を入出力ペアとして教師データとして、2つの画像の入力に対してその2つの画像の重なり部分を出力する、といった機械学習が可能となる。つまり、ここで得る推論モデルは、対象物に沿って既知のずらし量をもって撮像した複数画像と、その重なり部の関係を入出力ペアとして教師データとして行った機械学習によって得られる。また、その素材特有の表面パターンの粒状性の大きさの情報をもとにした移動距離の判定も簡単に推論で可能となる。もちろん、対象物までの距離を略一定と考えて、画角から換算して対象物の幅の情報に変換したり重なりの情報に変換したりして移動距離を判定してもよい。重なり部位が判定できれば、そこから移動の距離の判定が推測可能でもある。得られた画像内に特定の粒状性を持つパターンがいくつ検出できるかによっても移動距離の換算が可能となる。また、前述の既知のずらし量と画像の重なり部の関係を入出力ペアとして教師データとして、2つの画像の入力に対してその2つの画像の重なり部分ではなく、重なり部分の距離(幅)を出力する、といった機械学習や、それによって進行した量を推論するための機械学習も可能となる。こうしたデータが同時に出てくる学習のさせ方もあり、複数の位置ずらし画像から重なり位置を推論し、かつその重なり幅や装置の移動量を推論する推論エンジンを得ることもできる。つまり、この推論モデルは、対象物に沿って既知のずらし量をもって撮像した複数画像と、当該対象物の画像を取得した時の画像取得部の相対的な移動量を少なくとも一つを入出力ペアとした教師データとして行った機械学習によって得られるものと表現が可能である。   When the non-specimen is manufactured, a surface state peculiar to the non-specimen may appear depending on the material, design, process and environment at the time of manufacturing. Such characteristics of an object (structure) to be an object are often a monotonous pattern even with human eyes, and the amount of repeated information is too large to be discriminated. Of course, other organisms other than those produced have similar individual differences under the conditions of growth, and the same can be said. Even with such a minute difference, it is possible to detect the difference according to the measurement location by pattern analysis, which is a strength of the image recognition technology by machine learning that handles a large amount of data in recent years. As described above, if there are a plurality of images obtained by previously capturing the same image of the same object from a known shifted position, the two images are used as the teaching data as the input / output pair with the relationship between the known shifted amount and the overlapping portion of the images. Machine learning such as outputting the overlapping portion of the two images with respect to the input of is possible. That is, the inference model obtained here is obtained by machine learning in which the relationship between a plurality of images taken with a known shift amount along the object and the overlapping portion thereof is used as teacher data as an input / output pair. In addition, it is possible to easily infer the movement distance based on the grain size of the surface pattern peculiar to the material. Of course, the moving distance may be determined by considering that the distance to the object is substantially constant and converting it from the angle of view to convert it into the information of the width of the object or the information of the overlap. If the overlapping portion can be determined, the determination of the movement distance can be inferred from that. The movement distance can be converted depending on how many patterns having specific graininess can be detected in the obtained image. In addition, the above-mentioned relationship between the known shift amount and the overlapping portion of the images is used as teacher data as an input / output pair, and the distance (width) of the overlapping portion is input instead of the overlapping portion of the two images for the input of the two images. Machine learning such as outputting, and machine learning for inferring the amount of progress by it are also possible. There is a learning method in which such data are simultaneously output, and it is also possible to obtain an inference engine that infers the overlapping position from a plurality of position-shifted images and infers the overlapping width and the movement amount of the device. In other words, this inference model consists of a plurality of images taken along a target object with a known shift amount and at least one relative movement amount of the image acquisition unit when the image of the target object is input / output. It can be expressed as what is obtained by machine learning performed as the teacher data.

この教師データとなる対象物は、あらかじめ非検体に類似の構造物や生物の器官などを用意して、それに対して撮影、その表面に沿ってずらした撮像位置で撮影、といったプロセスで得られた複数撮影画像の重なり部を正解となるように、教師データを用意したものでもよい。また、その測定現場で、非検体に対して、規定のずらし量で複数回撮像を行い、重なり画像部をパターンマッチング等で探させるようにしてもよい。規定のずらし量なので、単調なパターンの中でも、特徴的な部分を探しだして重なり部分を高精度で判定することができる。これまでもパノラマ合成のように、撮像位置の変更方向に沿って得られた画像を前の画像の変更方向側、後の画像の変更方向の反対側の画像部分の重なりを判定するものはあったが、これは、例えば長方形画像の一辺同志の類似部位を探せばよかったので一致部分の判定の処理が単純であったが、この実施例のように、画像撮像方向と進行方向とが一致して、画像の周辺部の共通部分(重なり)を判定するのは、対象部位の距離がどんどん変わるので画像の共通部分も単純には重ならず、また、進行距離の判定が困難であったが機械学習の結果で推論することで簡単に重なり判定、進行距離判定が可能となる。さらには、対象物までの距離が進行するにつれて偏って近づいたりすることもあり、単純なロジックによる判定を行うには変動要因が多すぎるので、こうした状況においても有効な手段として機械学習を使った本発明のような構成が有利となる。   The object to be the teacher data was obtained by a process in which a structure similar to the non-specimen or an organ of a living body was prepared in advance, and the object was imaged and imaged at imaging positions shifted along the surface. Teacher data may be prepared so that the overlapping part of a plurality of captured images is correct. Further, at the measurement site, the non-specimen may be imaged a plurality of times with a prescribed shift amount, and the overlapping image portion may be searched for by pattern matching or the like. Since the amount of shift is a prescribed amount, it is possible to search for a characteristic portion in a monotonous pattern and determine the overlapping portion with high accuracy. Until now, as in panorama composition, there is a method that determines the overlap between the images obtained along the changing direction of the image pickup position on the changing direction side of the previous image and on the opposite side of the changing direction of the subsequent image. However, this is because, for example, the process of determining the matching portion is simple because it suffices to search for similar portions on one side of the rectangular image, but as in this embodiment, the image capturing direction and the traveling direction are the same. In determining the common part (overlap) of the peripheral portion of the image, the distance between the target parts changes rapidly, so that the common part of the image does not simply overlap, and it is difficult to determine the traveling distance. By inferring from the result of machine learning, it is possible to easily determine overlap and traveling distance. Furthermore, as the distance to the target object approaches in a biased manner, there are too many variable factors to make a judgment using simple logic, so machine learning was used as an effective means even in such a situation. The configuration of the present invention is advantageous.

なお、「深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。
情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。
The "deep learning" is a multi-layered structure of the "machine learning" process using a neural network.
A "forward-propagation neural network" that sends information from the front to the back to make a judgment is typical.

これは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。   In the simplest case, this consists of an input layer consisting of N1 neurons, an intermediate layer consisting of N2 neurons given by parameters, and N3 neurons corresponding to the number of classes to be discriminated. It is sufficient if there are three output layers.

そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることで、論理ゲートの形成が容易である。
簡単な判別なら3層でもよいが、中間層を多数にすれば、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。
Then, the neurons of the input layer and the intermediate layer, and the neurons of the intermediate layer and the output layer are connected by connection weighting, respectively, and a bias value is applied to the intermediate layer and the output layer, which facilitates formation of the logic gate.
For simple determination, three layers may be used, but if the number of intermediate layers is increased, it becomes possible to learn how to combine a plurality of feature amounts in the machine learning process.

近年では、9層〜152層のものが、学習にかかる時間や判定精度、消費エネルギーの関係から実用的になっている。
また、画像の特徴量を圧縮する、「畳み込み」と呼ばれる処理を伴い、最小限処理で動き、パターン認識に強い「畳み込み型ニューラル・ネットワーク」や、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。
In recent years, 9 to 152 layers have become practical in view of the time required for learning, determination accuracy, and energy consumption.
In addition, it involves a process called "convolution" that compresses the feature amount of the image, moves with a minimum amount of processing, is a "convolutional neural network" that is strong in pattern recognition, and can handle more complicated information, meaning according to order and order. A "recursive neural network" (fully connected recurrent neural network) that flows information in both directions may be used in response to the information analysis that changes.

その他、教師あり学習を用いるパターン認識モデルとして、例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルタ係数、オフセットを算出するもので、他には、ロジスティック回帰処理を利用する手法もある。   In addition, as a pattern recognition model using supervised learning, there are methods such as support vector machine and support vector regression. The learning here is to calculate the weight of the discriminator, the filter coefficient, and the offset, and there is another method using logistic regression processing.

これらの技術の実現のためには、CPUやFPGAといったこれまでの汎用的な演算処理回路などを使ってもよいが、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるものが利用される場合もある。近年ではこうした人工知能(AI)専用ハードの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPUなどその他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。   In order to realize these technologies, it is possible to use conventional general-purpose arithmetic processing circuits such as CPUs and FPGAs, but since most neural network processing is matrix multiplication, matrix calculation A specialized GPU (Graphic Processing Unit) or Tensor Processing Unit (TPU) may be used. In recent years, such artificial intelligence (AI) dedicated hardware "neural network processing unit (NPU)" is designed so that it can be integrated and integrated with other circuits such as a CPU, and may be a part of a processing circuit. is there.

ここで、教師データと同じ条件にする工夫への言及をしておく。例えばここでは「同じ材質の同じ方向からの検査」の例である。
条件をそろえることで、推論の結果が向上することがあるので、学習時の教師データもこうした条件をそろえる等して工夫してもよく、撮像時に、学習時の教師データに合わせた条件で撮像して推論を行うことにより、正しい測定が可能となる。推論モデルを用いた推論を行う前に材質や測定物の情報、あるいは測定環境の情報を入力したり判定させたりする工夫は有効であり、この条件の情報や、環境要因などを補正するためのセンサを有してもよい。学習時にこのような制約を入れるかどうかで、推論エンジンの仕様や性能が変わるので、アノテーション作業を進めながら、このような試行錯誤ができてもよいし、その試行錯誤を表示させてもよい。
Here, reference will be made to a device for making the same condition as the teacher data. For example, here is an example of “inspection of the same material from the same direction”.
Since the results of inference may be improved by aligning the conditions, the teacher data during learning may be devised by aligning these conditions. By making inferences, correct measurements can be made. It is effective to devise to input or judge the information of the material or the measured object or the information of the measurement environment before the inference using the inference model, and to correct the information of this condition and the environmental factors. It may have a sensor. Since the specification and performance of the inference engine change depending on whether or not such a constraint is added during learning, such trial and error may be performed or the trial and error may be displayed while advancing the annotation work.

ここで、更に、カメラ用の小型推論エンジンの説明をしておく。
カメラや携帯機器等の情報端末製品に搭載するコンパクトタイプの推論エンジンは、少ない層で高精度判断するための学習は困難であり、また時間がかかるため、正確なアノテーションや学習のさせ方に工夫することが望まれる。推論モデルを生成する時、学習に使用した画像によって推論モデルの仕様が変わるので、学習時の情報と連携して効率的な学習を行ってもよい。そこで、どのような学習をさせたかを示す情報をアノテーション作業時に設定し、この情報を情報取得装置の記録部に推論情報の一部として記録しておいてもよい。
Here, a small inference engine for a camera will be further described.
The compact type inference engine installed in information terminal products such as cameras and mobile devices is difficult to learn for high-precision judgment with a small number of layers, and it takes time, so devise an accurate annotation and learning method. Is desired. When the inference model is generated, the specification of the inference model changes depending on the image used for learning, so that efficient learning may be performed in cooperation with the information at the time of learning. Therefore, information indicating what kind of learning has been performed may be set during annotation work, and this information may be recorded in the recording unit of the information acquisition device as part of the inference information.

また、すでに説明したように、外部、内部の学習部の連携や、複数の学習部の連携を行って、より効率的な学習が可能である。大規模で豊富な計算リソースの学習器を使って大量の教師データで推論モデルを作成した情報を利用して、重要な情報をえりすぐって、より小型な推論モデルに変換できるようにする手法なども、本願は想定しており、この時、小規模な学習器を使って小型推論モデルを作成する。教師データを用いた推論と表現したものは、これらのどれかを行っておれば、何段階で行ってもよい。   Further, as already described, it is possible to perform more efficient learning by coordinating external and internal learning units or by coordinating a plurality of learning units. There is also a method that enables you to pick up important information and convert it into a smaller inference model by using the information that created inference models with a large amount of teacher data using a large-scale learning resource with abundant computational resources. The present application is supposed, and at this time, a small inference model is created using a small learning device. What is expressed as inference using teacher data may be performed in any number of stages as long as one of these is performed.

ここで、更に、「教師なし学習」「強化学習」など教師データなし、その他への言及をしておく。
これまで説明したように、「教師あり学習」が、アノテーションによって出力を定められた教師データを使って「入力と出力の関係」を学習するもので、特定の条件下での信頼性の高い推論を行うものであるのに対し、「データの構造」を学習する「教師なし学習」の手法を用いることによって、より複雑な状況に対応できる推論モデルを取得してもよい。
Here, reference is also made to no teaching data such as “unsupervised learning” and “reinforcement learning”, and others.
As explained so far, "supervised learning" is to learn "relationship between input and output" using teacher data whose output is defined by annotation, and highly reliable inference under specific conditions. On the other hand, an inference model capable of coping with more complicated situations may be acquired by using the method of “unsupervised learning” for learning the “data structure”.

また、「強化学習」と呼ばれる、「価値や効果を最大化するような行動」を学習する手法を用いても良い。これは、状態行動価値が増大化するような法則を見つけるように学習させるもので、現在ではなく次の状態の価値を見積もって高めたり、特定の報酬が得られたりするまで試行錯誤した結果を学習に反映させる。学習結果の検証には、教師データを使ってもよい。アノテーションによって得られた正解の出力をそのまま学習するのではなく、さらに良い回答が得られるよう学習させるもので、未知の状況に対応できるようにしたものである。   Further, a method of learning “behavior that maximizes value and effect” called “reinforcement learning” may be used. This is to learn to find a law that increases the state behavior value, and estimates the value of the next state instead of the current one and increases the value of trial and error until a specific reward is obtained. Reflect on learning. Teacher data may be used to verify the learning result. The output of the correct answer obtained by the annotation is not learned as it is, but it is learned so that a better answer can be obtained, and it is adapted to cope with an unknown situation.

これらは教師あり学習と併用してもよく、教師なし学習による推論のあと、教師あり学習による推論を行ってもよい。アノテーション用データは、こうした「教師なし学習」、「強化学習」の検証用データとしても利用が可能である。   These may be used in combination with supervised learning, and inference by supervised learning may be performed after inference by unsupervised learning. The annotation data can also be used as verification data for such “unsupervised learning” and “reinforcement learning”.

機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要があり、ここでは画像の判定を、機械学習により導出する手法を採用したが、そのほか、人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を用いてもよい。   In order to make a machine judge something, it is necessary for a human to teach the machine how to make a judgment.Here, we adopted a method of deriving the judgment of the image by machine learning, but in addition, humans use empirical rules and heuristics. A rule-based method that adapts the acquired rules may be used.

図4は、内視鏡装置1において実行される撮像アクセス制御処理の一例を示すフローチャートである。
図4に示したとおり、撮像アクセス制御処理では、まず、制御部106は、アクセスモードが設定されているか否かを判定する(S401)。アクセスモードは、ユーザが挿入部101を被検体内部へ一方向に挿入させたときの挿入部101の挿入距離(撮像部104の移動量でもある)をユーザに提示することができるモードである。アクセスモードは、ユーザが操作部109を操作することに依って設定することができる。
FIG. 4 is a flowchart showing an example of the imaging access control processing executed in the endoscope apparatus 1.
As shown in FIG. 4, in the imaging access control processing, the control unit 106 first determines whether or not the access mode is set (S401). The access mode is a mode in which the user can be presented with the insertion distance of the insertion unit 101 (which is also the movement amount of the imaging unit 104) when the insertion unit 101 is inserted into the subject in one direction. The access mode can be set by the user operating the operation unit 109.

S401の判定結果がYESの場合、制御部106は、湾曲操作部103の操作に応じて挿入部101の先端部を湾曲させる等の制御を行う(S402)。なお、このS402は、その後、S401の判定結果がNOになるまでの間は実行されない。   If the determination result in S401 is YES, the control unit 106 performs control such as bending the distal end portion of the insertion unit 101 according to the operation of the bending operation unit 103 (S402). It should be noted that this S402 is not executed thereafter until the determination result of S401 becomes NO.

次に、制御部106は、当該時点から、その後、S401の判定結果がNOになるまでの間(以下、「アクセスモード期間」という)に撮像部104を用いて時系列に取得される画像において、2つ目以降の画像が取得される毎に、S403乃至S414を行う。なお、アクセスモード期間は、S402の後にユーザが操作部109に対して所定の操作を行ったタイミングに開始してもよい。   Next, the control unit 106 uses the images acquired in time series using the imaging unit 104 from that time point until the determination result of S401 becomes NO (hereinafter, referred to as “access mode period”). Every time the second and subsequent images are acquired, S403 to S414 are performed. The access mode period may start at the timing when the user performs a predetermined operation on the operation unit 109 after S402.

詳しくは、制御部106は、その2つ目以降の画像が取得されると、取得された画像と前回に取得された画像とを比較し(S403)、その重なり部分を判定し(S404)、その重なり部分が有るか否かを判定する(S405)。   Specifically, when the second and subsequent images are acquired, the control unit 106 compares the acquired image with the previously acquired image (S403) and determines the overlapping portion (S404), It is determined whether or not there is the overlapping portion (S405).

S405の判定結果がNOの場合、制御部106は、警告メッセージを表示部102に表示する等して、警告を行う(S406)。
一方、S405の判定結果がYESの場合、制御部106は、取得された画像と前回に取得された画像を、判定された重なり部分で重ねて合成画像を生成する(S407)。但し、アクセスモード期間において2回目以降に行われるS407では、取得された画像と前回のS407で生成された合成画像とを、判定された重なり部分で重ねて新たな合成画像を生成する。
When the determination result in S405 is NO, the control unit 106 issues a warning by displaying a warning message on the display unit 102 (S406).
On the other hand, if the determination result in S405 is YES, the control unit 106 overlaps the acquired image and the previously acquired image at the determined overlapping portion to generate a composite image (S407). However, in S407 performed after the second time in the access mode period, the acquired image and the composite image generated in the previous S407 are overlapped at the determined overlapping portion to generate a new composite image.

S406又はS407の後、制御部106は、生成された合成画像に基づいて、アクセスモード期間が開始してからの挿入部101の挿入距離を判定可能か否かを判定する(S408)。
S408の判定結果がNOの場合、制御部106は、警告メッセージを表示部102に表示する等して、警告を行う(S409)。
After S406 or S407, the control unit 106 determines whether or not the insertion distance of the insertion unit 101 after the start of the access mode period can be determined based on the generated composite image (S408).
If the determination result in S408 is NO, the control unit 106 issues a warning by displaying a warning message on the display unit 102 (S409).

一方、S408の判定結果がYESの場合、制御部106は、生成された合成画像の長さを、アクセスモード期間が開始してからの挿入部101の挿入距離に換算することに依り、挿入部101の挿入距離を判定し、その挿入距離を表示部102に表示する(S410)。なお、合成画像の長さは、例えば、その合成画像の生成に使用された複数の画像の配置方向の長さである。また、合成画像の長さから挿入距離への換算は、例えば、合成画像の長さと挿入部101の挿入距離との関係を機械学習させた結果に基づいて行われてもよい。   On the other hand, if the determination result in S408 is YES, the control unit 106 converts the length of the generated combined image into the insertion distance of the insertion unit 101 after the access mode period starts, and thus the insertion unit The insertion distance of 101 is determined, and the insertion distance is displayed on the display unit 102 (S410). The length of the composite image is, for example, the length in the arrangement direction of the plurality of images used to generate the composite image. Further, the conversion from the length of the composite image to the insertion distance may be performed, for example, based on the result of machine learning of the relationship between the length of the composite image and the insertion distance of the insertion unit 101.

S409、又はS410の後、制御部106は、動画又は静止画の撮影開始指示が有るか否かを判定する(S411)。但し、この判定タイミングにおいて動画の撮影処理中である場合は、S411の判定結果がYESとして処理される。撮影開始指示は、ユーザが操作部109を操作することに依って行うことができる。   After S409 or S410, the control unit 106 determines whether or not there is an instruction to start shooting a moving image or a still image (S411). However, if the moving image is being captured at this determination timing, the determination result of S411 is YES. The user can give an instruction to start shooting by operating the operation unit 109.

S411の判定結果がNOの場合は、処理がS401に戻る。
一方、S411の判定結果がYESの場合、制御部106は、撮像部104を用いて取得された撮影画像を表す画像データを、記録部110に記録する(S412)。
If the decision result in S411 is NO, the process returns to S401.
On the other hand, when the determination result in S411 is YES, the control unit 106 records the image data representing the captured image acquired by using the imaging unit 104 in the recording unit 110 (S412).

S412の後、制御部106は、動画又は静止画の撮影処理が終了したか否かを判定する(S413)。なお、動画の場合は、撮影終了指示が行われた後に撮影処理が終了する。撮影終了指示は、ユーザが操作部109を操作することに依って行うことができる。   After S412, the control unit 106 determines whether the shooting process of the moving image or the still image is finished (S413). In the case of a moving image, the shooting process ends after the shooting end instruction is given. The user can give an instruction to end shooting by operating the operation unit 109.

S413の判定結果がNOの場合は、処理がS401に戻る。
一方、S413の判定結果がYESの場合、制御部106は、S412で記録部110に記録された撮影画像を表す画像データと、その撮影画像に関する補助データとをファイル化する(S414)。これに依り、その画像データと補助データとを含む画像ファイルが記録部110に記録される。
If the decision result in S413 is NO, the process returns to S401.
On the other hand, if the determination result in S413 is YES, the control unit 106 creates a file of the image data representing the captured image recorded in the recording unit 110 in S412 and the auxiliary data regarding the captured image (S414). As a result, the image file including the image data and the auxiliary data is recorded in the recording unit 110.

S414の後は、処理がS401に戻る。
一方、S401の判定結果がNOの場合、制御部106は、推論モデルの取得指示が有るか否かを判定する(S415)。推論モデルの取得指示は、ユーザが操作部109を操作することに依って行うことができる。
After S414, the process returns to S401.
On the other hand, when the determination result in S401 is NO, the control unit 106 determines whether or not there is an inference model acquisition instruction (S415). The instruction to acquire the inference model can be issued by the user operating the operation unit 109.

S415の判定結果がNOの場合は、処理がS401に戻る。
一方、S415の判定結果がYESの場合、制御部106は、被検体とされる対象物(構造物)の特徴を設定し、その特徴を含む、推論モデルの取得依頼を、外部機器2に対して行う(S416)。ここで、対象物の特徴は、材質等を含み、その特徴の設定は、ユーザが操作部109を操作することに依って行うことができる。
If the decision result in S415 is NO, the process returns to S401.
On the other hand, if the determination result in S415 is YES, the control unit 106 sets the feature of the target object (structure) to be the subject, and requests the external device 2 to acquire the inference model including the feature. (S416). Here, the characteristics of the target object include the material and the like, and the setting of the characteristics can be performed by the user operating the operation unit 109.

S416の後、制御部106は、その取得依頼に応じた推論モデルを外部機器2から取得して記憶部107bに記憶する(S417)。
S417の後は、処理がS401に戻る。
After S416, the control unit 106 acquires the inference model corresponding to the acquisition request from the external device 2 and stores it in the storage unit 107b (S417).
After S417, the process returns to S401.

図5は、撮像アクセス制御処理において、アクセスモード期間中に挿入部101が被検体内部へ一方向に挿入されたときに生成される合成画像の一例を示す図である。なお、この例では、被検体が鉄パイプであるとする。   FIG. 5 is a diagram showing an example of a composite image generated when the insertion unit 101 is inserted into the subject in one direction during the access mode period in the imaging access control process. In this example, the subject is an iron pipe.

図5の(A)は、アクセスモード期間の開始タイミングにおける、被検体内部に挿入された挿入部101の位置と、その時に撮像部104を用いて取得された画像121を示している。この時は、アクセスモード期間の開始タイミングであるので、挿入部101の挿入距離Dは、0とされる。   FIG. 5A shows the position of the insertion unit 101 inserted into the subject at the start timing of the access mode period and the image 121 acquired by using the imaging unit 104 at that time. At this time, since it is the start timing of the access mode period, the insertion distance D of the insertion unit 101 is set to zero.

図5の(B)は、その後、更に被検体内部へ挿入されたときの挿入部101の位置と、その時に生成された合成画像122を示している。この時の挿入距離Dは、例えば、生成された合成画像122の幅方向の長さを挿入距離に換算することに依り、D1と判定される。ここで、合成画像122の幅方向は、合成画像122の生成に使用された複数の画像の配置方向でもある。ここでは、素材、設計、製造方法、製造環境に従って変化する、その対象物ごとに異なるユニークな構造的な非一様性があり、それが対象物の表面に生じて、パターンとして現れるものを検出して、図3で説明したような考え方で推論を行う。   FIG. 5B shows the position of the insertion unit 101 when it is further inserted into the subject and the composite image 122 generated at that time. The insertion distance D at this time is determined to be D1, for example, by converting the length of the generated combined image 122 in the width direction into the insertion distance. Here, the width direction of the composite image 122 is also the arrangement direction of the plurality of images used to generate the composite image 122. Here, there is a unique structural non-uniformity that varies depending on the material, design, manufacturing method, and manufacturing environment, and it is detected on the surface of the object that appears as a pattern. Then, the inference is performed based on the concept described in FIG.

図5の(C)は、その後、更に被検体内部へ挿入されたときの挿入部101の位置と、その時に生成された合成画像123の一例を示している。この時の挿入距離Dは、例えば、生成された合成画像123の幅方向の長さを挿入距離に換算することに依り、2×D1と判定される。ここで、合成画像123の幅方向は、合成画像123の生成に使用された複数の画像の配置方向でもある。   FIG. 5C shows an example of the position of the insertion unit 101 when it is further inserted into the subject and the composite image 123 generated at that time. The insertion distance D at this time is determined to be 2 × D1 by converting the widthwise length of the generated combined image 123 into the insertion distance, for example. Here, the width direction of the composite image 123 is also the arrangement direction of the plurality of images used to generate the composite image 123.

なお、図5において、合成画像122、123は、パノラマ化された画像ということもできる。このような画像から各画像の幅が画角などで既知、あるいは重なり部が推論可能であれば、移動距離は画像幅+画像幅−重なり幅で算出することが出来るし、このような算出を行わずとも、学習のさせ方によっては、移動距離を画像の変化から直接推論することも可能となる。また、ここで既知の移動距離だけ移動を繰り返して教師データとしてその場で学習させることも可能である。この既知の挿入量(移動距離)と推論結果が異なる時には、操作者が想定していない条件の変化が起こっている場合もあり得るので、再度、学習のやり直しを行ってもよい。また、画像そのものからも、それが正しい推論に向いているかどうかを判定することが可能となる。検出された表面パターンや管の大きさや形状などが学習に用いたものと異なるかどうかを判定して、最初に警告を出すような工夫が可能であることは言うまでもない。   In addition, in FIG. 5, the composite images 122 and 123 can also be referred to as panoramic images. If the width of each image is known from the image such as the angle of view or the overlapping part can be inferred from such an image, the movement distance can be calculated by (image width + image width−overlap width). Even if the learning is not performed, it is possible to infer the moving distance directly from the change of the image depending on the learning method. In addition, it is also possible to repeat the movement by a known movement distance here and to learn as teacher data on the spot. When the known insertion amount (moving distance) and the inference result are different from each other, there may be a case where a condition change that the operator does not assume occurs, and therefore learning may be redone. It is also possible to determine from the image itself whether it is suitable for correct inference. It goes without saying that it is possible to devise whether or not the detected surface pattern, the size and shape of the tube, etc. are different from those used for learning, and give a warning first.

図6は、外部機器2において実行される処理の一例を示すフローチャートである。
図6に示したとおり、この処理では、まず、外部機器2は、学習依頼が有るか否かを判定する(S601)。学習依頼は、図4のS416で内視鏡装置1が外部機器2に対して行う推論モデルの取得依頼でもある。
FIG. 6 is a flowchart showing an example of processing executed in the external device 2.
As shown in FIG. 6, in this process, the external device 2 first determines whether or not there is a learning request (S601). The learning request is also a request to acquire the inference model that the endoscope apparatus 1 makes to the external device 2 in S416 of FIG.

S601の判定結果がNOの場合は、本判定が繰り返される。
一方、S601の判定結果がYESの場合、外部機器2は、対象物種別の設定を行う(S602)。この設定は、例えば、推論モデルの取得依頼に含まれる対象物の特徴に基づいて行われる。
If the determination result in S601 is NO, this determination is repeated.
On the other hand, if the determination result in S601 is YES, the external device 2 sets the object type (S602). This setting is performed, for example, based on the characteristics of the target object included in the acquisition request for the inference model.

S602の後、外部機器2は、対象物種別の設定に基づいて学習母体の設定を行う(S603)。この学習母体の設定では、例えば、対象物とされる構造物の指定等が行われる。   After S602, the external device 2 sets the learning mother body based on the setting of the object type (S603). In setting the learning mother, for example, designation of a structure as an object is performed.

S603の後、外部機器2は、学習母体の設定に基づいて画像記録部201aから取得した連続取得画像群から、画像の重なり部分の探索(S604)、及び、教師データである複数の入出力ペアの作成(S605)を行う。ここで、入出力ペアは、2つの画像を入力とし、その2つの画像の重なり部分を出力とする、入出力ペアである。   After S603, the external device 2 searches for the overlapping portion of the images from the continuously acquired image group acquired from the image recording unit 201a based on the setting of the learning mother (S604), and a plurality of input / output pairs that are teacher data. Is created (S605). Here, the input / output pair is an input / output pair in which two images are input and an overlapping portion of the two images is output.

S605の後、外部機器2は、作成された教師データから、2つの画像の入力に対して、その2つの画像の重なり部分を出力する、という推論モデルを生成して、その推論モデルの信頼性が所定の閾値以上であるか否かを判定する(S606)。   After S605, the external device 2 generates an inference model that outputs the overlapping portion of the two images in response to the input of the two images from the created teacher data, and the reliability of the inference model is calculated. Is determined to be greater than or equal to a predetermined threshold value (S606).

S606の判定結果がNOの場合、外部機器2は、学習母体の再設定等を行う(S607)。
S607の後、外部機器2は、S601の判定結果がYESになってからS606の判定結果がYESになる前までの間に、学習母体の再設定が所定回数以上行われたか否かを判定する(S608)。
If the determination result in S606 is NO, the external device 2 resets the learning mother body and the like (S607).
After S607, the external device 2 determines whether the learning mother has been reset a predetermined number of times or more between the determination result of S601 being YES and the determination result of S606 being YES. (S608).

S608の判定結果がNOの場合は、処理がS604に戻る。
一方、S606又はS608の判定結果がYESの場合、外部機器2は、最後に生成された推論モデルを内視鏡装置1へ送信し(S609)、処理がS601に戻る。
If the decision result in S608 is NO, the process returns to S604.
On the other hand, when the determination result of S606 or S608 is YES, the external device 2 transmits the last generated inference model to the endoscope apparatus 1 (S609), and the process returns to S601.

図7は、内視鏡装置1において実行される撮像アクセス制御処理の他の例を示すフローチャートである。
図7に示したとおり、他の例の撮像アクセス制御処理では、まず、制御部106は、キャリブレーションモードが設定されているか否かを判定する(S701)。キャリブレーションモードは、ユーザが被検体内部に挿入部101を基準距離挿入させることに依って、挿入部101の挿入距離の換算に使用される基準合成画像を内視鏡装置1に作成させることができるモードである。キャリブレーションモードは、ユーザが操作部109を操作することに依って設定することができる。
FIG. 7 is a flowchart showing another example of the imaging access control processing executed in the endoscope apparatus 1.
As shown in FIG. 7, in the imaging access control process of another example, the control unit 106 first determines whether or not the calibration mode is set (S701). In the calibration mode, the endoscope apparatus 1 can be caused to create a reference composite image used for conversion of the insertion distance of the insertion unit 101 by the user inserting the insertion unit 101 into the subject at the reference distance. It is a mode that can. The calibration mode can be set by the user operating the operation unit 109.

S701の判定結果がYESの場合、制御部106は、基準距離挿入開始が通知されたか否かを判定する(S702)。基準距離挿入開始の通知は、ユーザが操作部109を操作することに依って行うことができる。   When the determination result of S701 is YES, the control unit 106 determines whether or not the reference distance insertion start is notified (S702). The notification of the start of the reference distance insertion can be performed by the user operating the operation unit 109.

S702の判定結果がNOの場合は、処理がS701に戻る。
一方、S702の判定結果がYESの場合、制御部106は、連続撮像画像合成処理を開始する(S703)。連続撮像画像合成処理が開始すると、制御部106は、連続撮像画像合成処理の開始から終了までの間に撮像部104を用いて時系列に取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を重なり判定部106aが判定し、連続撮像画像合成処理の開始以降に取得された複数の画像を、合成処理部106bが重なり部分で重ねて合成画像を生成する、という処理を繰り返す(S704、S705がNO)。なお、連続撮像画像合成処理は、S705の判定結果がYESになると終了する。S705では、基準距離挿入終了が通知されたか否かが判定される。基準距離挿入終了の通知は、ユーザが操作部109を操作することに依って行うことができる。
If the decision result in S702 is NO, the process returns to S701.
On the other hand, if the decision result in S702 is YES, the control section 106 starts the continuous captured image synthesizing process (S703). When the continuous captured image synthesizing process starts, the control unit 106 acquires the second and subsequent images in the images acquired in time series using the image capturing unit 104 from the start to the end of the continuous captured image synthesizing process. The overlapping determination unit 106a determines the overlapping portion between the acquired image and the image acquired last time, and combines the plurality of images acquired after the start of the continuous captured image combining process with the combining processing unit 106b. Is repeated at the overlapping portion to generate a composite image (NO in S704 and S705). The continuous captured image synthesizing process ends when the determination result in S705 is YES. In S705, it is determined whether or not the reference distance insertion end is notified. The notification of the end of the reference distance insertion can be performed by the user operating the operation unit 109.

なお、ユーザは、基準距離挿入開始の通知を行うと、被検体内部への挿入部101の基準距離の挿入を開始し、その後、挿入部101を基準距離挿入させたところで、基準距離挿入終了の通知を行うとする。   It should be noted that, when the user notifies the start of the insertion of the reference distance, the user starts inserting the reference distance of the insertion unit 101 into the inside of the subject, and then inserts the reference distance into the insertion unit 101, and then the insertion of the reference distance is completed. Suppose you want to make a notification.

そして、S705の判定結果がYESになると、制御部106は、連続撮像画像合成処理に依って生成された合成画像を基準合成画像として決定し(S706)、処理がS701に戻る。   Then, if the determination result in S705 is YES, the control unit 106 determines the combined image generated by the continuous captured image combining process as the reference combined image (S706), and the process returns to S701.

一方、S701の判定結果がNOの場合、制御部106は、基本的に、図4に示したS402乃至S409と同様の処理を行う。
そして、S408の判定結果がYESの場合、制御部106は、生成された合成画像と基準合成画像とを比較し(S707)、夫々の画像の長さと基準距離とから挿入部101の挿入距離を換算することに依って、挿入部101の挿入距離を判定し、その挿入距離を表示部102に表示する(S708)。
On the other hand, when the determination result in S701 is NO, the control unit 106 basically performs the same processes as S402 to S409 illustrated in FIG.
Then, if the determination result in S408 is YES, the control unit 106 compares the generated combined image and the reference combined image (S707), and determines the insertion distance of the insertion unit 101 from the length of each image and the reference distance. Based on the conversion, the insertion distance of the insertion unit 101 is determined, and the insertion distance is displayed on the display unit 102 (S708).

S708又はS409の後、制御部106は、静止画の撮影開始指示が有るか否かを判定し(S709)、その判定結果がNOの場合は、処理がS701に戻る。
一方、S709の判定結果がYESの場合、制御部106は、撮像部104を用いて取得された撮影画像を表す画像データと、この撮影画像に関する補助データとをファイル化し、画像ファイルとして記録部110に記録する(S710)。
After S708 or S409, the control unit 106 determines whether or not there is a shooting start instruction for a still image (S709). If the determination result is NO, the process returns to S701.
On the other hand, if the determination result in S709 is YES, the control unit 106 converts the image data representing the captured image acquired by using the image capturing unit 104 and the auxiliary data related to the captured image into a file, and the recording unit 110 as an image file. Is recorded (step S710).

S710の後は、処理がS701に戻る。
図8A及び図8Bは、図7に示した撮像アクセス制御処理において、キャリブレーションモードが設定されているときに表示部102に表示された画面例を示す図である。
図8Aに示した表示部102に表示された画面は、図7のS701がYESになった時に表示された画面である。この画面が表示されると、ユーザは、画面内の「開始」を選択することに依って、S702の判定基準となる基準距離挿入開始の通知を行うことができる。例えば、ユーザは、挿入部101の被検体内部への挿入準備が整ったところで、その「開始」を選択する。
After S710, the process returns to S701.
8A and 8B are diagrams showing examples of screens displayed on the display unit 102 in the imaging access control process shown in FIG. 7 when the calibration mode is set.
The screen displayed on the display unit 102 shown in FIG. 8A is the screen displayed when S701 in FIG. 7 becomes YES. When this screen is displayed, the user can give notification of the start of reference distance insertion, which is the determination criterion of S702, by selecting "start" in the screen. For example, the user selects “start” when the insertion section 101 is ready for insertion into the subject.

図8Bに示した表示部102に表示された画面は、図7のS702がYESになった時に表示された画面である。この画面が表示されると、ユーザは、画面内の「終了」を選択することに依って、S705の判定基準となる基準距離挿入終了の通知を行うことができる。例えば、ユーザは、挿入部101を被検体内部へ基準距離挿入させたところで、その「終了」を選択する。   The screen displayed on the display unit 102 shown in FIG. 8B is the screen displayed when S702 of FIG. 7 becomes YES. When this screen is displayed, the user can notify the end of the reference distance insertion, which is the determination criterion in S705, by selecting "End" in the screen. For example, when the user inserts the insertion unit 101 into the subject at the reference distance, the user selects “end”.

なお、図8A及び図8Bの各々に示した表示部102に表示された画面内の画像は、撮像部104を用いて取得された最新の画像である。また、図8Bに示した表示部102に表示された画面内の「10cm」は、基準距離を示している。   The image in the screen displayed on the display unit 102 shown in each of FIGS. 8A and 8B is the latest image acquired using the image capturing unit 104. Moreover, "10 cm" in the screen displayed on the display unit 102 shown in FIG. 8B indicates the reference distance.

以上のとおり、第1の実施形態に係る内視鏡装置1に依れば、挿入部101を被検体内部へ挿入させたときの挿入部101の挿入距離の判定を、コストや大きさに制約を受けない構成に依って実現することができる。
<第2の実施形態>
As described above, according to the endoscopic device 1 according to the first embodiment, the determination of the insertion distance of the insertion section 101 when the insertion section 101 is inserted into the subject is limited to the cost and size. It can be realized by a configuration that does not receive the signal.
<Second Embodiment>

図9は、第2の実施形態に係る移動量判定装置である超音波検査装置の構成例を示す図である。
図9に示したとおり、超音波検査装置3は、超音波探触子301、送受信回路302、送受信制御回路303、画像変換回路304、表示制御回路305、表示部306、制御回路307、記録回路308、操作部309、及び通信部310を備える。なお、超音波探触子301は、画像を取得するために用いられる画像取得部の一例である。
FIG. 9 is a diagram showing a configuration example of an ultrasonic inspection apparatus which is a movement amount determination apparatus according to the second embodiment.
As shown in FIG. 9, the ultrasonic inspection apparatus 3 includes an ultrasonic probe 301, a transmission / reception circuit 302, a transmission / reception control circuit 303, an image conversion circuit 304, a display control circuit 305, a display unit 306, a control circuit 307, and a recording circuit. 308, an operation unit 309, and a communication unit 310 are provided. The ultrasonic probe 301 is an example of an image acquisition unit used to acquire an image.

超音波探触子301は、鉄パイプ等の中空の円筒形状の構造物である被検体Sに対して超音波を送信し、被検体Sで反射した超音波をエコー信号として受信する圧電体振動子が配列された構成を有する。なお、被検体Sと超音波探触子301との間には、超音波の伝達を効率的に行うために、グリセリン等の接触媒体311が設けられる。例えば、接触媒体311は、被検体Sの外周面に塗布される。また、被検体Sの検査領域は、例えば、被検体Sを回転させることに依って変更される。   The ultrasonic probe 301 is a piezoelectric vibration that transmits ultrasonic waves to the subject S, which is a hollow cylindrical structure such as an iron pipe, and receives the ultrasonic waves reflected by the subject S as echo signals. It has a configuration in which the children are arranged. A contact medium 311 such as glycerin is provided between the subject S and the ultrasonic probe 301 in order to efficiently transmit ultrasonic waves. For example, the contact medium 311 is applied to the outer peripheral surface of the subject S. Further, the inspection region of the subject S is changed by, for example, rotating the subject S.

送受信回路302は、超音波探触子301に電気信号を供給して超音波を発生させると共に、超音波探触子301の各圧電体振動子が受信したエコー信号を受信し、重畳された高調波成分をフィルタに依り分離する機能を備える。   The transmission / reception circuit 302 supplies an electric signal to the ultrasonic probe 301 to generate an ultrasonic wave, receives an echo signal received by each piezoelectric transducer of the ultrasonic probe 301, and superimposes it on the harmonics. It has the function of separating wave components by using a filter.

送受信制御回路303は、送受信回路302の送受信制御を行う。
画像変換回路304は、送受信回路302が受信したエコー信号を被検体Sの超音波画像に変換する。
The transmission / reception control circuit 303 controls transmission / reception of the transmission / reception circuit 302.
The image conversion circuit 304 converts the echo signal received by the transmission / reception circuit 302 into an ultrasonic image of the subject S.

表示制御回路305は、画像変換回路304が変換した超音波画像等を表示部306に表示させるための制御を行う。
表示部306は、例えばLCDであり、超音波画像や情報を表示する。例えば、超音波探触子301を用いて取得された超音波画像や、後述する超音波探触子301の回転角度を表示する。なお、表示部306は、タッチパネル付きの表示部であってもよい。
The display control circuit 305 performs control for displaying the ultrasonic image and the like converted by the image conversion circuit 304 on the display unit 306.
The display unit 306 is, for example, an LCD, and displays an ultrasonic image and information. For example, an ultrasonic image acquired by using the ultrasonic probe 301 and a rotation angle of the ultrasonic probe 301 described later are displayed. The display unit 306 may be a display unit with a touch panel.

制御回路307は、超音波検査装置3の全体を制御する。
また、制御回路307は、第1の実施形態に係る内視鏡装置1が備えていた重なり判定部106a、合成処理部106b、移動量判定部106f、及び推論エンジン107の機能と同様の機能を備える。
The control circuit 307 controls the entire ultrasonic inspection apparatus 3.
The control circuit 307 has the same functions as those of the overlap determination unit 106a, the combination processing unit 106b, the movement amount determination unit 106f, and the inference engine 107, which are included in the endoscope device 1 according to the first embodiment. Prepare

記録回路308は、不揮発性メモリを備え、画像変換回路304が変換した超音波画像等を記録する。
操作部309は、超音波検査装置3に対する各種の入力操作を受け付ける。なお、表示部306がタッチパネル付き表示部である場合、そのタッチパネルは、操作部309の一部となる。
The recording circuit 308 includes a non-volatile memory and records the ultrasonic image and the like converted by the image conversion circuit 304.
The operation unit 309 receives various input operations to the ultrasonic inspection apparatus 3. When the display unit 306 is a display unit with a touch panel, the touch panel becomes a part of the operation unit 309.

通信部310は、外部機器2等との間で通信を行う通信インターフェースである。
図10は、被検体Sへ送信された超音波(送信波)と被検体Sで反射された超音波(反射波)の一例を模式的に示す図である。ここでは、被検体Sが、直方体形状の構造物であるとする。
The communication unit 310 is a communication interface that communicates with the external device 2 and the like.
FIG. 10 is a diagram schematically showing an example of ultrasonic waves (transmission waves) transmitted to the subject S and ultrasonic waves (reflected waves) reflected by the subject S. Here, it is assumed that the subject S is a rectangular parallelepiped structure.

図10の左側に示したとおり、被検体Sの内部に傷が無い場合は、送信波の後に、被検体Sの底面からの反射波が戻ってくる。これに対し、図10の右側に示したとおり、被検体Sの内部に傷Saが有る場合は、送信波の後、被検体Sの底面からの反射波が戻ってくる前に、傷Saからの反射波が発生する。超音波検査装置3では、例えば、この傷Saからの反射波を検出することに依り、被検体S内部の欠陥を発見することができる。   As shown on the left side of FIG. 10, when there is no scratch inside the subject S, the reflected wave from the bottom surface of the subject S returns after the transmitted wave. On the other hand, as shown on the right side of FIG. 10, when there is a scratch Sa inside the subject S, after the transmitted wave, before the reflected wave from the bottom surface of the subject S returns, The reflected wave of is generated. In the ultrasonic inspection apparatus 3, for example, the defect inside the subject S can be found by detecting the reflected wave from the flaw Sa.

図11は、被検体Sを回転させたときの反射波検出時間の推移の一例を示す図である。
図11の左側に示したとおり、ここでは、被検体Sが、鉄パイプ等の中空の円筒形状の構造物であるとする。但し、この被検体Sは、本来、内周面と外周面との間の厚みが均一であるべきところ、それが不均一であるとする。また、この被検体Sの内周面は、本来、滑らかであるべきところ、腐食等に依り、滑らかでないとする。
FIG. 11 is a diagram showing an example of the transition of the reflected wave detection time when the subject S is rotated.
As shown on the left side of FIG. 11, here, the subject S is assumed to be a hollow cylindrical structure such as an iron pipe. However, in the subject S, it is supposed that the thickness between the inner peripheral surface and the outer peripheral surface should be uniform, but it is not uniform. The inner peripheral surface of the subject S is supposed to be originally smooth, but is not smooth due to corrosion or the like.

図11の右側に示した、被検体Sを回転させたときの反射波検出時間において、反射波検出時間は、超音波探触子301から被検体Sへ超音波を送信してから、その超音波が被検体Sの内周面で反射して超音波探触子301に戻ってくるまでの時間である。   In the reflected wave detection time when the subject S is rotated as shown on the right side of FIG. 11, the reflected wave detection time is the ultrasonic wave after the ultrasonic wave is transmitted from the ultrasonic probe 301 to the subject S. It is the time until the sound wave is reflected by the inner peripheral surface of the subject S and returns to the ultrasonic probe 301.

図11に示したとおり、被検体Sは、内周面と外周面との間の厚みが均一ではないため、内周面と外周面との間の距離が短くなる回転位置では反射波検出時間が短くなり、その距離が長くなる回転位置では反射波検出時間が長くなる。また、被検体Sの内周面は滑らかではないため、反射波検出時間の推移も滑らかにはならない。一方、反射波検出時間の推移のパターンは、被検体Sが1回転する毎に、同じものとなる。例えば、図11の右側に示した推移のパターンにおけるA部分とB部分は、被検体Sにおける同じ位置における推移のパターンを示している。ここでは、図5のような実施例で説明したような素材、設計、製造方法、製造環境に従って変化する、その対象物ごとに異なるユニークな構造的な非一様性があり、それが対象物の表面や内部に生じて、パターンとして現れる。これを検出して、図3で説明したような考え方で推論をおこなう。   As shown in FIG. 11, in the subject S, since the thickness between the inner peripheral surface and the outer peripheral surface is not uniform, the reflected wave detection time is reduced at the rotational position where the distance between the inner peripheral surface and the outer peripheral surface becomes short. Becomes shorter, and the reflected wave detection time becomes longer at the rotational position where the distance becomes longer. Moreover, since the inner peripheral surface of the subject S is not smooth, the transition of the reflected wave detection time is not smooth. On the other hand, the pattern of transition of the reflected wave detection time becomes the same every time the subject S makes one rotation. For example, the portions A and B in the transition pattern shown on the right side of FIG. 11 indicate the transition pattern at the same position in the subject S. Here, there is a unique structural non-uniformity that varies depending on the material, design, manufacturing method, and manufacturing environment as described in the embodiment as shown in FIG. Appears as a pattern on the surface of or inside. When this is detected, inference is performed according to the concept described in FIG.

図12は、超音波検査装置3において実行される探傷アクセス制御処理の一例を示すフローチャートである。このフローチャートは、第1の実施形態に係る内視鏡装置1において実行される撮像アクセス制御処理に対応するフローチャートでもある。   FIG. 12 is a flowchart showing an example of flaw detection access control processing executed in the ultrasonic inspection apparatus 3. This flowchart is also a flowchart corresponding to the imaging access control processing executed in the endoscope apparatus 1 according to the first embodiment.

図12に示したとおり、探傷アクセス制御処理では、まず、制御回路307は、アクセスモードが設定されているか否かを判定する(S1201)。超音波検査装置3において、アクセスモードは、鉄パイプ等の中空の円筒形状の構造物である被検体Sに対して超音波探触子301を回転させたときの、超音波探触子301の回転角度をユーザに提示することができるモードである。ここで、被検体Sに対して超音波探触子301を回転させるとは、被検体Sに対して超音波探触子301を相対的に回転させる場合も含む。従って、例えば、図11の左側に示したとおり、超音波探触子301に対して被検体Sが回転する場合も含まれる。アクセスモードは、ユーザが操作部309を操作することに依って設定することができる。   As shown in FIG. 12, in the flaw detection access control process, first, the control circuit 307 determines whether or not the access mode is set (S1201). In the ultrasonic inspection apparatus 3, in the access mode, the ultrasonic probe 301 is rotated when the ultrasonic probe 301 is rotated with respect to the subject S which is a hollow cylindrical structure such as an iron pipe. In this mode, the rotation angle can be presented to the user. Here, rotating the ultrasonic probe 301 with respect to the subject S also includes rotating the ultrasonic probe 301 relative to the subject S. Therefore, for example, as shown on the left side of FIG. 11, a case where the subject S rotates with respect to the ultrasonic probe 301 is also included. The access mode can be set by the user operating the operation unit 309.

S1201の判定結果がYESの場合は、次に、被検体Sへの超音波探触子301の当て付けが行われる(S1202)。この当て付けは、例えば、制御回路307の制御の下に、機械的に行われてもよい。また、被検体Sの外周面には予めグリセリン等の接触媒体311が塗布されており、被検体Sへ超音波探触子301が当て付けられたときには、被検体Sと超音波探触子301との間に接触媒体311が設けられる。なお、このS1202は、その後、S1201の判定結果がNOになるまでの間は実行されない。   If the determination result in S1201 is YES, next, the ultrasonic probe 301 is applied to the subject S (S1202). This application may be performed mechanically under the control of the control circuit 307, for example. Further, the contact medium 311 such as glycerin is applied to the outer peripheral surface of the subject S in advance, and when the ultrasonic probe 301 is applied to the subject S, the subject S and the ultrasonic probe 301 are applied. A contact medium 311 is provided between and. Note that S1202 is not executed thereafter until the determination result of S1201 becomes NO.

次に、制御回路307は、当該時点から、その後、S1201の判定結果がNOになるまでの間(以下、「アクセスモード期間」という)に超音波探触子301を用いて時系列に取得される超音波画像において、2つ目以降の超音波画像が取得される毎に、S1203乃至S1214を行う。なお、アクセスモード期間は、S1202の後にユーザが操作部309に対して所定の操作を行ったタイミングに開始してもよい。   Next, the control circuit 307 is acquired in time series using the ultrasonic probe 301 from that time point until the determination result of S1201 becomes NO (hereinafter, referred to as “access mode period”). S1203 to S1214 are performed each time a second ultrasonic image and subsequent ultrasonic images are acquired. The access mode period may start at the timing when the user performs a predetermined operation on the operation unit 309 after S1202.

詳しくは、制御回路307は、その2つ目以降の超音波画像が取得されると、取得された超音波画像と前回に取得された超音波画像とを比較し(S1203)、その重なり部分を判定し(S1204)、その重なり部分が有るか否かを判定する(S1205)。   Specifically, when the second and subsequent ultrasonic images are acquired, the control circuit 307 compares the acquired ultrasonic image with the previously acquired ultrasonic image (S1203), and determines the overlapping portion. A determination is made (S1204), and it is determined whether or not there is an overlapping portion (S1205).

S1205の判定結果がNOの場合、制御回路307は、警告メッセージを表示部306に表示する等して、警告を行う(S1206)。
一方、S1205の判定結果がYESの場合、制御回路307は、一回転判定処理を行う(S1207)。一回転判定処理では、取得された超音波画像と前回に取得された超音波画像を、判定された重なり部分で重ねて合成画像を生成する。但し、アクセスモード期間において2回目以降に行われるS1207では、取得された超音波画像と前回のS1207で生成された合成画像とを、判定された重なり部分で重ねて新たな合成画像を生成する。そして、生成した合成画像から、被検体Sに対して超音波探触子301が一回転(360°回転)したか否かを判定する。この判定では、例えば、生成した合成画像の対向する端部において同一の部分画像が検出されたときに、一回転したと判定される。ここで、合成画像の対向する端部とは、例えば、その合成画像の生成に使用された複数の超音波画像の配置方向において対向する端部である。
When the determination result of S1205 is NO, the control circuit 307 issues a warning by displaying a warning message on the display unit 306 (S1206).
On the other hand, when the determination result of S1205 is YES, the control circuit 307 performs the one rotation determination process (S1207). In the one-rotation determination process, the acquired ultrasonic image and the previously acquired ultrasonic image are overlapped at the determined overlapping portion to generate a composite image. However, in S1207 performed after the second time in the access mode period, the acquired ultrasonic image and the composite image generated in the previous S1207 are overlapped at the determined overlapping portion to generate a new composite image. Then, it is determined from the generated composite image whether or not the ultrasonic probe 301 makes one rotation (360 ° rotation) with respect to the subject S. In this determination, for example, when the same partial image is detected at the opposite ends of the generated combined image, it is determined that one rotation has been performed. Here, the opposite ends of the combined image are, for example, opposite ends in the arrangement direction of the plurality of ultrasonic images used to generate the combined image.

S1206又はS1207の後、制御回路307は、アクセスモード期間が開始してからの、被検体Sに対する超音波探触子301の回転角度を判定可能か否かを判定する(S1208)。   After S1206 or S1207, the control circuit 307 determines whether or not the rotation angle of the ultrasonic probe 301 with respect to the subject S after the start of the access mode period can be determined (S1208).

S1208の判定結果がNOの場合、制御回路307は、警告メッセージを表示部102に表示する等して、警告を行う(S1209)。
一方、S1208の判定結果がYESの場合、制御回路307は、例えば、生成された合成画像の特定方向の長さと、その合成画像に含まれる一回転分(360°分)の部分合成画像の特定方向の長さとに基づいて、アクセスモード期間が開始してからの、被検体Sに対する超音波探触子301の回転角度を判定し、その回転角度を表示部306に表示する(S1210)。ここで、特定方向は、例えば、合成画像の生成に使用された複数の超音波画像の配置方向である。
When the determination result of S1208 is NO, the control circuit 307 gives a warning by displaying a warning message on the display unit 102 (S1209).
On the other hand, if the determination result in S1208 is YES, the control circuit 307 specifies, for example, the length of the generated composite image in the specific direction and the partial composite image for one rotation (360 °) included in the composite image. The rotation angle of the ultrasonic probe 301 with respect to the subject S after the start of the access mode period is determined based on the length of the direction, and the rotation angle is displayed on the display unit 306 (S1210). Here, the specific direction is, for example, a direction in which a plurality of ultrasonic images used to generate the composite image are arranged.

S1209、又はS1210の後、制御回路307は、超音波画像の記録指示が有るか否かを判定する(S1211)。この記録指示は、ユーザが操作部309を操作することに依って行うことができる。   After S1209 or S1210, the control circuit 307 determines whether or not there is an instruction to record an ultrasonic image (S1211). This recording instruction can be issued by the user operating the operation unit 309.

S1211の判定結果がNOの場合は、処理がS1201に戻る。
一方、S1211の判定結果がYESの場合、制御回路307は、超音波探触子301を用いて取得された超音波画像を、記録回路308に記録させる(S1212)。
If the decision result in S1211 is NO, the process returns to S1201.
On the other hand, when the determination result of S1211 is YES, the control circuit 307 causes the recording circuit 308 to record the ultrasonic image acquired using the ultrasonic probe 301 (S1212).

S1212の後、制御回路307は、超音波画像の記録が終了したか否かを判定する(S1213)。
S1213の判定結果がNOの場合は、処理がS1201に戻る。
After S1212, the control circuit 307 determines whether or not the recording of the ultrasonic image is completed (S1213).
If the decision result in S1213 is NO, the process returns to S1201.

一方、S1213の判定結果がYESの場合、制御回路307は、S1212で記録回路308に記録させた超音波画像をファイル化する(S1214)。すなわち、超音波画像を表す画像データと、この超音波画像に関する補助データとをファイル化して、画像ファイルとして記録回路308に記録させる。なお、補助データは、S1210で判定された回転角度を含んでもよい。   On the other hand, if the determination result in S1213 is YES, the control circuit 307 creates a file of the ultrasonic image recorded in the recording circuit 308 in S1212 (S1214). That is, the image data representing the ultrasonic image and the auxiliary data relating to the ultrasonic image are filed and recorded in the recording circuit 308 as an image file. The auxiliary data may include the rotation angle determined in S1210.

S1214の後は、処理がS1201に戻る。
一方、S1201の判定結果がNOの場合、制御回路307は、推論モデルの取得指示が有るか否かを判定する(S1215)。推論モデルの取得指示は、ユーザが操作部309を操作することに依って行うことができる。
After S1214, the process returns to S1201.
On the other hand, if the determination result in S1201 is NO, the control circuit 307 determines whether or not there is an inference model acquisition instruction (S1215). The instruction to acquire the inference model can be issued by the user operating the operation unit 309.

S1215の判定結果がNOの場合は、処理がS1201に戻る。
一方、S1215の判定結果がYESの場合、制御回路307は、被検体とされる対象物(構造物)の特徴を設定し、その特徴を含む、推論モデルの取得依頼を、外部機器2に対して行う(S1216)。ここで、対象物の特徴は、材質等を含み、その特徴の設定は、ユーザが操作部309を操作することに依って行うことができる。
If the decision result in S1215 is NO, the process returns to S1201.
On the other hand, if the determination result in S1215 is YES, the control circuit 307 sets the characteristics of the target object (structure) to be inspected, and issues an inference model acquisition request including the characteristics to the external device 2. (S1216). Here, the characteristic of the target object includes the material and the like, and the setting of the characteristic can be performed by the user operating the operation unit 309.

S1216の後、制御回路307は、その取得依頼に応じた推論モデルを外部機器2から取得して、内部の不揮発性メモリに記憶する(S1217)。
S1217の後は、処理がS1201に戻る。
After S1216, the control circuit 307 acquires the inference model corresponding to the acquisition request from the external device 2 and stores it in the internal nonvolatile memory (S1217).
After S1217, the process returns to S1201.

以上のとおり、第2の実施形態に係る超音波検査装置3に依れば、被検体Sに対して超音波探触子301を回転させたときの超音波探触子301の回転角度の判定を、コストや大きさに制約を受けない構成に依って実現することができる。   As described above, according to the ultrasonic inspection apparatus 3 according to the second embodiment, the rotation angle of the ultrasonic probe 301 when the ultrasonic probe 301 is rotated with respect to the subject S is determined. Can be realized by a configuration that is not limited by cost or size.

以上、第1及び第2の実施形態について説明したが、上述の内視鏡装置1、外部機器2、及び超音波検査装置3の各々は、例えば、図13に示すハードウェア構成に依り実現されてもよい。   Although the first and second embodiments have been described above, each of the endoscope apparatus 1, the external device 2, and the ultrasonic inspection apparatus 3 described above is realized by, for example, the hardware configuration shown in FIG. 13. May be.

図13は、ハードウェア構成の一例を示す図である。
図13に示したハードウェア構成は、CPU(Central Processing Unit)401、メモリ402、入出力装置403、入出力IF(interface)404、記憶装置405、可搬記録媒体408が収納される可搬記録媒体駆動装置406、及び通信IF407を備え、これらはバス409を経由して互いに接続されている。
FIG. 13 is a diagram illustrating an example of the hardware configuration.
The hardware configuration shown in FIG. 13 is a portable recording in which a CPU (Central Processing Unit) 401, a memory 402, an input / output device 403, an input / output IF (interface) 404, a storage device 405, and a portable recording medium 408 are stored. A medium driving device 406 and a communication IF 407 are provided, and these are connected to each other via a bus 409.

CPU401は、内視鏡装置1、外部機器2、又は超音波検査装置3が行う処理のためのプログラムを実行する演算装置である。メモリ402は、RAM(Random Access Memory)及びROM(Read Only Memory)であり、RAMはCPU401のワークエリア等として使用され、ROMはプログラムやプログラムの実行に必要な情報を不揮発的に記憶する。   The CPU 401 is a computing device that executes a program for processing performed by the endoscope device 1, the external device 2, or the ultrasonic inspection device 3. The memory 402 is a RAM (Random Access Memory) and a ROM (Read Only Memory), the RAM is used as a work area of the CPU 401, and the ROM stores a program and information necessary for executing the program in a nonvolatile manner.

入出力装置403は、タッチパネル、キーボード等の入力装置と、ディスプレイ装置等の出力装置である。
入出力IF404は、挿入部101(撮像部104)又は超音波探触子301等が接続され、接続されたものとの間で信号の送受信を行うためのインターフェースである。
The input / output device 403 is an input device such as a touch panel and a keyboard, and an output device such as a display device.
The input / output IF 404 is an interface to which the insertion unit 101 (imaging unit 104), the ultrasonic probe 301, or the like is connected and which transmits / receives a signal to / from the connected unit.

記憶装置405は、プログラム及びプログラムの実行に必要な情報や、プログラムの実行に依り取得された情報等を不揮発的に記憶するストレージである。記憶装置405は、例えば、HDDである。可搬記録媒体駆動装置406は、可搬記録媒体408を駆動し、その記録内容にアクセスする。可搬記録媒体408は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。この可搬記録媒体408には、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等も含まれる。可搬記録媒体408も記憶装置405と同様に、プログラム及びプログラムの実行に必要な情報や、プログラムの実行に依り取得された情報等を不揮発的に記憶するストレージである。   The storage device 405 is a storage that non-volatilely stores a program, information necessary for executing the program, information obtained by executing the program, and the like. The storage device 405 is, for example, an HDD. The portable recording medium drive device 406 drives the portable recording medium 408 to access the recorded contents. The portable recording medium 408 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 408 also includes a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), a USB (Universal Serial Bus) memory, and the like. Like the storage device 405, the portable recording medium 408 is also a storage that non-volatilely stores a program, information necessary for executing the program, information acquired by executing the program, and the like.

通信IF407は、ネットワークに接続され、そのネットワークを経由して内視鏡装置1、外部機器2、又は超音波検査装置3等との間で通信を行うためのインターフェースである。   The communication IF 407 is an interface that is connected to a network and communicates with the endoscope apparatus 1, the external device 2, the ultrasonic inspection apparatus 3, or the like via the network.

以上のとおり実施形態について説明したが、本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせに依り、様々の発明を形成できる。例えば、実施形態に示される全構成要素のいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Although the embodiment has been described above, the present invention is not limited to the above embodiment as it is, and constituent elements can be modified and embodied at the stage of implementation without departing from the scope of the invention. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some of all the constituent elements shown in the embodiment may be deleted. Furthermore, the constituent elements of different embodiments may be combined appropriately.

1 内視鏡装置
2 外部機器
3 超音波検査装置
101 挿入部
102 表示部
103 湾曲操作部
104 撮像部
104a 光学系
104b 撮像素子
104c 湾曲部
105 時計部
106 制御部
106a 重なり判定部
106b 合成処理部
106c 駆動部
106d 通信制御部
106e 記録制御部
106f 移動量判定部
106g 表示制御部
107 推論エンジン
107a 推論モデル
107b 記憶部
108 通信部
109 操作部
110 記録部
121 画像
122、123 合成画像
201 外部画像DB
201a 画像記録部
201b 通信部
202 機械学習部
202a 母集合作成部
202b 出力設定部
202c 入出力モデル化部
202d 通信部
301 超音波探触子
302 送受信回路
303 送受信制御回路
304 画像変換回路
305 表示制御回路
306 表示部
307 制御回路
308 記録回路
309 操作部
310 通信部
311 接触媒体
401 CPU
402 メモリ
403 入出力装置
404 入出力IF
405 記憶装置
406 可搬記録媒体駆動装置
407 通信IF
408 可搬記録媒体
409 バス
DESCRIPTION OF SYMBOLS 1 Endoscope device 2 External device 3 Ultrasonic examination apparatus 101 Insertion part 102 Display part 103 Bending operation part 104 Imaging part 104a Optical system 104b Imaging element 104c Bending part 105 Clock part 106 Control part 106a Overlap determination part 106b Synthesis processing part 106c Drive unit 106d Communication control unit 106e Recording control unit 106f Movement amount determination unit 106g Display control unit 107 Inference engine 107a Inference model 107b Storage unit 108 Communication unit 109 Operation unit 110 Recording unit 121 Images 122, 123 Composite image 201 External image DB
201a Image recording unit 201b Communication unit 202 Machine learning unit 202a Population creation unit 202b Output setting unit 202c Input / output modeling unit 202d Communication unit 301 Ultrasonic probe 302 Transmission / reception circuit 303 Transmission / reception control circuit 304 Image conversion circuit 305 Display control circuit 305 306 display unit 307 control circuit 308 recording circuit 309 operation unit 310 communication unit 311 contact medium 401 CPU
402 memory 403 input / output device 404 input / output IF
405 storage device 406 portable recording medium drive device 407 communication IF
408 Portable recording medium 409 Bus

Claims (16)

測定対象物の画像を取得するために用いられる画像取得部の相対的な移動量を判定する移動量判定装置であって、
特定のタイミング以降に前記画像取得部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を判定する重なり判定部と、
前記特定のタイミング以降に前記画像取得部を用いて取得された複数の画像を、前記重なり判定部が判定した重なり部分で重ねて合成画像を生成する合成画像生成部と、
前記合成画像生成部が生成した合成画像に基づいて、前記画像取得部の前記測定対象物に対する相対移動量を判定する移動量判定部と、
を備えることを特徴とする移動量判定装置。
A movement amount determination device for determining a relative movement amount of an image acquisition unit used for acquiring an image of a measurement object,
In the images acquired using the image acquisition unit after a specific timing, every time the second and subsequent images are acquired, the overlapping portion for determining the overlapping portion between the acquired image and the previously acquired image is overlapped. A judgment unit,
A plurality of images acquired by using the image acquisition unit after the specific timing, a composite image generation unit that generates a composite image by overlapping the overlapping portion determined by the overlap determination unit,
A movement amount determination unit that determines a relative movement amount of the image acquisition unit with respect to the measurement object based on the synthesis image generated by the synthesis image generation unit,
A movement amount determination device comprising:
前記移動量判定部に依り判定された移動量を表示する表示部、
を更に備えることを特徴とする請求項1に記載の移動量判定装置。
A display unit that displays the movement amount determined by the movement amount determination unit,
The movement amount determination device according to claim 1, further comprising:
前記重なり判定部は、推論モデルを用いて前記重なり部分を判定する、
ことを特徴とする請求項1又は2に記載の移動量判定装置。
The overlap determination unit determines the overlap portion using an inference model,
The movement amount determination device according to claim 1 or 2, wherein.
前記推論モデルは、対象物に沿って既知のずらし量をもって撮像した複数画像と、その重なり部の関係を少なくとも一つの入出力ペアを教師データとして行った機械学習によって得られる、
ことを特徴とする請求項3に記載の移動量判定装置。
The inference model is obtained by machine learning in which a plurality of images taken with a known shift amount along the object and the relationship of the overlapping portions are used as at least one input / output pair as teacher data.
The movement amount determination device according to claim 3, wherein.
前記推論モデルは、対象物に沿って既知のずらし量をもって撮像した2画像と、これらの2画像の重なり部の幅の関係を少なくとも一つの入出力ペアを教師データとして行った機械学習によって得られる、
ことを特徴とする請求項3に記載の移動量判定装置。
The inference model is obtained by machine learning in which at least one input / output pair is used as teacher data for the relationship between two images captured with a known shift amount along the object and the width of the overlapping portion of these two images. ,
The movement amount determination device according to claim 3, wherein.
前記推論モデルは、対象物に沿って既知のずらし量をもって撮像した複数画像と、当該対象物の画像を取得した時の画像取得部の相対的な移動量を少なくとも一つの入出力ペアを教師データとして行った機械学習によって得られる、
ことを特徴とする請求項3に記載の移動量判定装置。
The inference model is a plurality of images taken with a known shift amount along the object, and the relative movement amount of the image acquisition unit when the image of the object is acquired is at least one input / output pair teaching data. Obtained by machine learning performed as
The movement amount determination device according to claim 3, wherein.
外部機器と通信を行う通信部を更に備え、
前記推論モデルは、前記外部機器から前記通信部を経由して取得される、
ことを特徴とする請求項3乃至6の何れか1項に記載の移動量判定装置。
A communication unit for communicating with an external device is further provided,
The inference model is acquired from the external device via the communication unit,
The movement amount determination device according to any one of claims 3 to 6, characterized in that.
前記画像取得部は、画像を取得するために用いられる撮像部である、
ことを特徴とする請求項1乃至7の何れか1項に記載の移動量判定装置。
The image acquisition unit is an imaging unit used to acquire an image,
The movement amount determination device according to any one of claims 1 to 7, characterized in that.
前記撮像部が一方向に移動する場合において、前記合成画像生成部が生成する合成画像は、前記特定のタイミング以降に前記撮像部を用いて取得された複数の画像が前記一方向と直交する方向に配置された画像である、
ことを特徴とする請求項8に記載の移動量判定装置。
When the image capturing unit moves in one direction, the composite image generated by the composite image generating unit is a direction in which a plurality of images acquired using the image capturing unit after the specific timing are orthogonal to the one direction. Is an image placed in
The movement amount determination device according to claim 8, wherein.
前記移動量判定部は、前記合成画像生成部が生成した合成画像の長さを、前記撮像部の移動量に換算することに依り、前記撮像部の移動量を判定する、
ことを特徴とする請求項9に記載の移動量判定装置。
The movement amount determination unit determines the movement amount of the imaging unit by converting the length of the composite image generated by the composite image generation unit into the movement amount of the imaging unit,
The movement amount determination device according to claim 9, wherein.
前記移動量判定部は、前記合成画像生成部が生成した合成画像と、基準合成画像とに基づいて、前記撮像部の移動量を判定し、
前記基準合成画像は、前記撮像部が前記一方向に基準移動量移動する間に前記撮像部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を前記重なり判定部が判定し、前記撮像部が前記一方向に前記基準移動量移動する間に前記撮像部を用いて取得された複数の画像を、前記合成画像生成部が前記重なり部分で重ねて合成画像を生成することに依り、作成される、
ことを特徴とする請求項9に記載の移動量判定装置。
The movement amount determination unit determines the movement amount of the imaging unit based on a composite image generated by the composite image generation unit and a reference composite image,
The reference composite image is an image acquired every time the second and subsequent images are acquired in the image acquired using the image capturing unit while the image capturing unit is moving the reference movement amount in the one direction. And a plurality of images acquired by using the image capturing unit while the image capturing unit determines the overlapping portion with the image previously acquired and the image capturing unit moves the reference movement amount in the one direction, It is created by the composite image generation unit overlapping to generate a composite image at the overlapping portion,
The movement amount determination device according to claim 9, wherein.
前記画像取得部は、超音波画像を取得するために用いられる超音波探触子である、
ことを特徴とする請求項1乃至7の何れか1項に記載の移動量判定装置。
The image acquisition unit is an ultrasonic probe used to acquire an ultrasonic image,
The movement amount determination device according to any one of claims 1 to 7, characterized in that.
前記移動量判定部が判定する前記超音波探触子の移動量は、中空の円筒形状を有する被検体に対する前記超音波探触子の回転角度である、
ことを特徴とする請求項12に記載の移動量判定装置。
The movement amount of the ultrasonic probe determined by the movement amount determination unit is the rotation angle of the ultrasonic probe with respect to the subject having a hollow cylindrical shape,
The movement amount determination device according to claim 12, wherein.
前記移動量判定部は、前記合成画像生成部が生成した合成画像の長さと、当該合成画像に含まれる、前記被検体に対する前記超音波探触子の一回転分の部分合成画像の長さとに基づいて、前記被検体に対する前記超音波探触子の回転角度を判定する、
ことを特徴とする請求項13に記載の移動量判定装置。
The movement amount determination unit determines the length of the combined image generated by the combined image generation unit and the length of the partial combined image included in the combined image for one rotation of the ultrasonic probe with respect to the subject. Based on, determine the rotation angle of the ultrasonic probe with respect to the subject,
14. The movement amount determination device according to claim 13, wherein:
測定対象物の画像を取得するために用いられる画像取得部の相対的な移動量を判定する移動量判定装置において実行される移動量判定方法であって、
特定のタイミング以降に前記画像取得部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を判定し、
前記特定のタイミング以降に前記画像取得部を用いて取得された複数の画像を、前記重なり部分で重ねて合成画像を生成し、
前記合成画像に基づいて、前記画像取得部の前記測定対象物に対する相対移動量を判定する、
ことを特徴とする移動量判定方法。
A movement amount determination method executed in a movement amount determination device that determines a relative movement amount of an image acquisition unit used to acquire an image of a measurement object,
In the image acquired using the image acquisition unit after a specific timing, every time the second and subsequent images are acquired, the overlapping portion between the acquired image and the previously acquired image is determined,
A plurality of images acquired by using the image acquisition unit after the specific timing are generated at the overlapping portion to generate a composite image,
Based on the composite image, determine the relative movement amount of the image acquisition unit with respect to the measurement object,
A movement amount determination method characterized by the above.
測定対象物の画像を取得するために用いられる画像取得部の相対的な移動量を判定する移動量判定装置のコンピュータに、
特定のタイミング以降に前記画像取得部を用いて取得される画像において、2つ目以降の画像が取得される毎に、取得された画像と前回に取得された画像との重なり部分を判定し、
前記特定のタイミング以降に前記画像取得部を用いて取得された複数の画像を、前記重なり部分で重ねて合成画像を生成し、
前記合成画像に基づいて、前記画像取得部の前記測定対象物に対する相対移動量を判定する、
という処理を実行させることを特徴とする移動量判定プログラム。
In the computer of the movement amount determination device that determines the relative movement amount of the image acquisition unit used to acquire the image of the measurement object,
In the image acquired using the image acquisition unit after a specific timing, every time the second and subsequent images are acquired, the overlapping portion between the acquired image and the previously acquired image is determined,
A plurality of images acquired by using the image acquisition unit after the specific timing are generated at the overlapping portion to generate a composite image,
Based on the composite image, determine the relative movement amount of the image acquisition unit with respect to the measurement object,
A movement amount determination program, which is characterized by causing the process to be executed.
JP2018200965A 2018-10-25 2018-10-25 Movement amount determining device, movement amount determining method, and movement amount determining program Pending JP2020067592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018200965A JP2020067592A (en) 2018-10-25 2018-10-25 Movement amount determining device, movement amount determining method, and movement amount determining program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200965A JP2020067592A (en) 2018-10-25 2018-10-25 Movement amount determining device, movement amount determining method, and movement amount determining program

Publications (1)

Publication Number Publication Date
JP2020067592A true JP2020067592A (en) 2020-04-30

Family

ID=70390278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200965A Pending JP2020067592A (en) 2018-10-25 2018-10-25 Movement amount determining device, movement amount determining method, and movement amount determining program

Country Status (1)

Country Link
JP (1) JP2020067592A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0542156A (en) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd Endoscope device
JP2001112758A (en) * 1999-10-18 2001-04-24 Olympus Optical Co Ltd Ultrasonic endoscope
JP2008061743A (en) * 2006-09-06 2008-03-21 Olympus Corp Endoscope apparatus
US20180296281A1 (en) * 2017-04-12 2018-10-18 Bio-Medical Engineering (HK) Limited Automated steering systems and methods for a robotic endoscope

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0542156A (en) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd Endoscope device
JP2001112758A (en) * 1999-10-18 2001-04-24 Olympus Optical Co Ltd Ultrasonic endoscope
JP2008061743A (en) * 2006-09-06 2008-03-21 Olympus Corp Endoscope apparatus
US20180296281A1 (en) * 2017-04-12 2018-10-18 Bio-Medical Engineering (HK) Limited Automated steering systems and methods for a robotic endoscope

Similar Documents

Publication Publication Date Title
US20210177373A1 (en) Ultrasound system with an artificial neural network for guided liver imaging
CN106605257B (en) With the boundary mark detection of room and time constraint in medical imaging
KR101565311B1 (en) 3 automated detection of planes from three-dimensional echocardiographic data
JP7195085B2 (en) Annotation device and annotation method
TW201923776A (en) Quality indicators for collection of and automated measurement on ultrasound images
US11030482B2 (en) Annotation device and annotation method
JP5532057B2 (en) Ultrasonic diagnostic apparatus and method for measuring the thickness of the intima
JP4616872B2 (en) Image display device and image display program
JP3679990B2 (en) Medical image processing apparatus and method
CN103919573A (en) Lesion Diagnosis Apparatus And Method
JP4356841B2 (en) Biological internal motion analysis processing apparatus, biological internal motion analysis processing program, and biological internal motion analysis processing method
JP7321836B2 (en) Information processing device, inspection system and information processing method
JP6875541B2 (en) Control method of acoustic wave diagnostic device and acoustic wave diagnostic device
JP7362354B2 (en) Information processing device, inspection system and information processing method
CN101732036A (en) Medical image analysis apparatus and image analysis control program
JP4559460B2 (en) Size measuring device, image display device, size measuring program, and image display program
JP6821048B2 (en) Image processing device, trained model generation method, and evaluation device
JP2022071822A (en) Image display method, display control device, and program
JP2020067592A (en) Movement amount determining device, movement amount determining method, and movement amount determining program
JP2015112410A (en) Ultrasonic diagnostic device and program
JP5409719B2 (en) Ultrasonic image processing device
JP2013188300A (en) Ultrasonic diagnostic apparatus
AU2021201735B2 (en) Representing an interior of a volume
JP3422927B2 (en) 3D image processing device
JP5746926B2 (en) Ultrasonic image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221