JP2012239644A - Image processing apparatus, endoscope apparatus and image processing method - Google Patents

Image processing apparatus, endoscope apparatus and image processing method Download PDF

Info

Publication number
JP2012239644A
JP2012239644A JP2011112594A JP2011112594A JP2012239644A JP 2012239644 A JP2012239644 A JP 2012239644A JP 2011112594 A JP2011112594 A JP 2011112594A JP 2011112594 A JP2011112594 A JP 2011112594A JP 2012239644 A JP2012239644 A JP 2012239644A
Authority
JP
Japan
Prior art keywords
motion information
unit
motion vector
motion
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011112594A
Other languages
Japanese (ja)
Inventor
Junpei Takahashi
順平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011112594A priority Critical patent/JP2012239644A/en
Publication of JP2012239644A publication Critical patent/JP2012239644A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an endoscope apparatus and an image processing method, etc., properly correcting blur even if an imaging visual field changes.SOLUTION: The image processing apparatus includes: an image obtaining part for obtaining a plurality of images in time series via an imaging part which can change the imaging visual field; a first motion information detection part for detecting motion information of the imaging visual field according to the operation of moving the imaging visual field of the imaging part as first motion information; a second motion information detection part for detecting second information which is motion information between images based on the plurality of images obtained in time series; and a blur-correction processing part for correcting blur of the images according to the first motion information and second motion information.

Description

画像処理装置、内視鏡装置、画像処理方法等に関する。   The present invention relates to an image processing apparatus, an endoscope apparatus, an image processing method, and the like.

従来より、民生用ビデオカメラなどの動画像のブレを補正する手法としては、電子式ブレ補正処理や光学式ブレ補正処理などの方式が広く用いられている。   Conventionally, methods such as an electronic shake correction process and an optical shake correction process have been widely used as a technique for correcting a shake of a moving image such as a consumer video camera.

内視鏡においては例えば、特許文献1にあるように、スコープ先端の動き量を検出し、検出された動き量に基づいてブレ補正処理を行う手法が開示されている。   In the endoscope, for example, as disclosed in Patent Document 1, a technique is disclosed in which the amount of movement of the scope tip is detected and blur correction processing is performed based on the detected amount of movement.

一方、内視鏡においては、スコープに設けられたアングルノブを操作し、画像の視野(以下、撮像視野又は観察視野)を変更することが行われている。具体的には、アングルノブの操作量に応じて、スコープ先端の湾曲度合(以下、アングル)が変化することにより、撮像視野が変更される。   On the other hand, in an endoscope, an angle knob provided in a scope is operated to change an image field (hereinafter referred to as an imaging field or an observation field). Specifically, the imaging field of view is changed by changing the degree of curvature of the scope tip (hereinafter, angle) in accordance with the amount of operation of the angle knob.

特開平5−49599号公報Japanese Patent Laid-Open No. 5-49599

上述のように、アングルノブを操作して撮像視野(観察視野)を変更したい場合に、電子式ブレ補正処理を施す場合を考える。この場合に、ドクターはアングルノブを操作して撮像視野を変更したいのにも関わらず、電子式ブレ補正処理により、撮像視野が固定されてしまう問題があることが判明した。   As described above, consider the case where the electronic blur correction process is performed when it is desired to change the imaging field (observation field) by operating the angle knob. In this case, although the doctor wanted to change the imaging field of view by operating the angle knob, it has been found that there is a problem that the imaging field of view is fixed by electronic blur correction processing.

一方、特許文献1には、スコープ先端の動き量の情報を用いたブレ補正処理の手法が開示されている。しかしながら、内視鏡装置においては、被写体である生体の拍動の影響によっても、撮像視野が変動してしまう。従って、スコープ先端の動き量の情報だけでは、ブレ補正処理が十分に機能しないという課題がある。   On the other hand, Patent Document 1 discloses a technique for blur correction processing using information on the amount of movement of the scope tip. However, in the endoscope apparatus, the imaging field of view fluctuates due to the influence of the pulsation of the living body that is the subject. Therefore, there is a problem that the blur correction process does not function sufficiently only with information on the amount of movement of the scope tip.

本発明の幾つかの態様によれば、撮像視野が変化した場合にも適切なブレ補正処理を実現できる画像処理装置、内視鏡装置及び画像処理方法等を提供できる。   According to some aspects of the present invention, it is possible to provide an image processing apparatus, an endoscope apparatus, an image processing method, and the like that can realize an appropriate blur correction process even when the imaging field of view changes.

本発明の一態様は、撮像視野を変更可能な撮像部を介して、複数の画像を時系列的に取得する画像取得部と、前記撮像部の前記撮像視野を動かす操作に応じた前記撮像視野の動き情報を、第1動き情報として検出する第1動き情報検出部と、時系列に取得された前記複数の画像に基づいて、画像間の動き情報である第2動き情報を検出する第2動き情報検出部と、前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記画像に対して行うブレ補正処理部とを含む画像処理装置に関係する。   One aspect of the present invention is an image acquisition unit that acquires a plurality of images in time series via an imaging unit that can change an imaging field, and the imaging field that corresponds to an operation of moving the imaging field of the imaging unit. A first motion information detector that detects the motion information of the second as motion information, and a second motion information that detects motion information between images based on the plurality of images acquired in time series. The present invention relates to an image processing apparatus including a motion information detection unit and a blur correction processing unit that performs a blur correction process on the image according to the first motion information and the second motion information.

本発明の一態様によれば、撮像視野を動かす操作に応じた撮像視野の動き情報が、第1動き情報として検出され、複数の画像間の動き情報が第2動き情報として検出される。そして、これらの第1動き情報と第2動き情報に応じたブレ補正処理が行われる。   According to one aspect of the present invention, motion information of the imaging field corresponding to an operation for moving the imaging field is detected as first motion information, and motion information between a plurality of images is detected as second motion information. And the blurring correction process according to these 1st motion information and 2nd motion information is performed.

このようにすれば、複数の画像間の動き情報である第2動き情報のみならず、操作に応じた撮像視野の動き情報である第1動き情報を反映させたブレ補正処理を実現できる。従って、撮像視野が変化した場合にも適切なブレ補正処理を実現できる画像処理装置の提供が可能になる。   In this way, it is possible to realize blur correction processing that reflects not only the second motion information that is motion information between a plurality of images but also the first motion information that is motion information of the imaging field of view according to the operation. Therefore, it is possible to provide an image processing apparatus capable of realizing an appropriate blur correction process even when the imaging field of view changes.

本発明の他の態様は、撮像視野の変更指示により前記撮像視野を変更可能な撮像部を介して、複数のフレーム画像を時系列的に取得する画像取得部と、前記変更指示による前記撮像部の前記撮像視野の動きを示す第1動き情報を検出する第1動き情報検出部と、前記フレーム画像の画像全体の動きを示す第2動き情報を検出する第2動き情報検出部と、前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記フレーム画像に対して行うブレ補正処理部とを含む画像処理装置に関係する。   Another aspect of the present invention includes an image acquisition unit that acquires a plurality of frame images in time series via an imaging unit that can change the imaging field of view by an instruction to change the imaging field, and the imaging unit that receives the change instruction. A first motion information detecting unit that detects first motion information indicating the motion of the imaging field of view, a second motion information detecting unit that detects second motion information indicating the motion of the entire image of the frame image, and the first The present invention relates to an image processing apparatus including a motion compensation processing unit that performs motion compensation processing according to one motion information and the second motion information on the frame image.

本発明の他の態様は、上記に記載の画像処理装置と、前記撮像部の前記撮像視野を動かす操作を行うための操作部とを含む内視鏡装置に関係する。   Another aspect of the present invention relates to an endoscope apparatus including the image processing apparatus described above and an operation unit for performing an operation of moving the imaging field of view of the imaging unit.

本発明の他の態様は、撮像視野を変更可能な撮像部を介して、複数の画像を時系列的に取得し、前記撮像部の前記撮像視野を動かす操作に応じた前記撮像視野の動き情報を、第1動き情報として検出し、時系列に取得された前記複数の画像に基づいて、画像間の動き情報である第2動き情報を検出し、前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記画像に対して行う画像処理方法に関係する。   According to another aspect of the present invention, movement information of the imaging field of view according to an operation of acquiring a plurality of images in time series and moving the imaging field of view of the imaging unit via an imaging unit capable of changing the imaging field of view. Is detected as first motion information, second motion information that is motion information between images is detected based on the plurality of images acquired in time series, and the first motion information and the second motion information are detected. This relates to an image processing method for performing blur correction processing corresponding to the image on the image.

本発明の他の態様は、撮像視野の変更指示により前記撮像視野を変更可能な撮像部を介して、複数のフレーム画像を時系列的に取得し、前記変更指示による前記撮像部の前記撮像視野の動きを示す第1動き情報を検出し、前記フレーム画像の画像全体の動きを示す第2動き情報を検出し、前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記フレーム画像に対して行う画像処理方法に関係する。   According to another aspect of the present invention, a plurality of frame images are acquired in time series via an imaging unit capable of changing the imaging field by an instruction to change the imaging field, and the imaging field of the imaging unit according to the change instruction First motion information indicating the motion of the frame image, second motion information indicating the motion of the entire image of the frame image is detected, and blur correction processing corresponding to the first motion information and the second motion information is performed on the frame. This relates to an image processing method performed on an image.

図1(A)〜図1(C)は本実施形態の比較例についての説明図。FIG. 1A to FIG. 1C are explanatory diagrams for a comparative example of the present embodiment. 本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment. 図3(A)、図3(B)は本実施形態の第1の手法の説明図。3A and 3B are explanatory diagrams of the first technique of the present embodiment. 図4(A)、図4(B)は本実施形態の第2の手法の説明図。FIGS. 4A and 4B are explanatory diagrams of the second method of the present embodiment. 本実施形態の画像処理装置及び内視鏡装置の第1の構成例。1 is a first configuration example of an image processing apparatus and an endoscope apparatus according to the present embodiment. ベイヤ配列の色フィルタの一例。An example of a color filter of a Bayer arrangement. 色フィルタの光透過特性の一例。An example of the light transmission characteristic of a color filter. アングルノブを有する挿入部(内視鏡スコープ)の例。The example of the insertion part (endoscope scope) which has an angle knob. 撮像視野の変化についての説明図。Explanatory drawing about the change of an imaging visual field. 電子式ブレ補正処理の説明図。Explanatory drawing of an electronic blurring correction process. 電子式ブレ補正処理の説明図。Explanatory drawing of an electronic blurring correction process. 電子式ブレ補正処理の説明図。Explanatory drawing of an electronic blurring correction process. 電子式ブレ補正処理の説明図。Explanatory drawing of an electronic blurring correction process. 電子式ブレ補正処理の説明図。Explanatory drawing of an electronic blurring correction process. 電子式ブレ補正処理の説明図。Explanatory drawing of an electronic blurring correction process. 第2動きベクトル検出部の構成例。The structural example of a 2nd motion vector detection part. 局所領域の設定手法の説明図。Explanatory drawing of the setting method of a local region. 第1動きベクトル検出部の構成例。The structural example of a 1st motion vector detection part. 第3動きベクトル算出部の構成例。The structural example of a 3rd motion vector calculation part. 本実施形態の画像処理装置及び内視鏡装置の第2の構成例。2 shows a second configuration example of an image processing apparatus and an endoscope apparatus according to the present embodiment. 撮像視野の変化方向の説明図。Explanatory drawing of the change direction of an imaging visual field. 第1動きベクトル検出部の構成例。The structural example of a 1st motion vector detection part. 回転角度の変化量と画像上での動きベクトルとの関係についての説明図。Explanatory drawing about the relationship between the variation | change_quantity of a rotation angle, and the motion vector on an image. 回転角度の変化量と画像上での動きベクトルとの関係についての説明図。Explanatory drawing about the relationship between the variation | change_quantity of a rotation angle, and the motion vector on an image. 回転角度の変化量と画像上での動きベクトルとの関係についての説明図。Explanatory drawing about the relationship between the variation | change_quantity of a rotation angle, and the motion vector on an image. 回転角度の変化量と画像上での動きベクトルとの関係についての説明図。Explanatory drawing about the relationship between the variation | change_quantity of a rotation angle, and the motion vector on an image. 第3動きベクトル算出部の構成例。The structural example of a 3rd motion vector calculation part.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
まず本実施形態の画像処理手法の概要について説明する。図1(A)〜図1(C)に前述の特許文献1の手法を比較例の手法として示す。
1. First, the outline of the image processing method of this embodiment will be described. 1A to 1C show the method of Patent Document 1 described above as a method of a comparative example.

この比較例の手法では、内視鏡装置の挿入部の先端部の移動距離(移動速度)に基づいて、図1(A)に示すように、メモリから読み出す画像信号の切り出し枠を設定する。図1(A)では、挿入部の先端部が第1の湾曲位置Aから第2の湾曲位置Bまで変位した場合の移動前後における切り出し枠の設定例である。メモリ制御部が、図1(A)のように設定された切り出し枠に応じた読み出しアドレスを生成することで、対応する画像信号がメモリから読み出される。   In the method of this comparative example, as shown in FIG. 1A, a cutout frame of an image signal to be read from the memory is set based on the moving distance (moving speed) of the distal end portion of the insertion portion of the endoscope apparatus. FIG. 1A shows an example of setting the cutout frame before and after movement when the distal end portion of the insertion portion is displaced from the first bending position A to the second bending position B. The memory control unit generates a read address corresponding to the cutout frame set as shown in FIG. 1A, so that the corresponding image signal is read from the memory.

そして、内視鏡装置の挿入部の先端部を小刻みに振動させながら挿入するジグリング操作を行った場合には、図1(B)に示すように、被写体31に対する撮像領域がAからBへと移動する。このとき、メモリに記憶された画像信号をそのまま読み出すと、図1(C)の左側に示すように、A、Bのそれぞれにおいて被写体31の表示位置が異なってしまい、画像にブレが生じてしまう。   When a jiggling operation is performed in which the distal end portion of the insertion portion of the endoscope apparatus is vibrated in small increments, the imaging region for the subject 31 changes from A to B as shown in FIG. Moving. At this time, if the image signal stored in the memory is read as it is, the display position of the subject 31 is different in each of A and B, as shown on the left side of FIG. .

そこでこの比較例の手法では、図1(A)に示すような切り出し枠を設定して、メモリから画像データを読み出すことで、ブレ補正処理を実現し、画像ブレがない良好な内視鏡画像を生成している。即ち比較例の手法では、挿入部の先端部の移動距離(移動速度)に基づいてブレ補正処理を行うことで、ジグリング操作により生じる画像ブレを防止している。   Therefore, in the method of this comparative example, a cutout frame as shown in FIG. 1A is set, and image data is read from the memory, thereby realizing blur correction processing and a good endoscopic image without image blurring. Is generated. That is, in the method of the comparative example, image blurring caused by the jiggling operation is prevented by performing blurring correction processing based on the moving distance (moving speed) of the distal end portion of the insertion portion.

しかしながら、前述のように内視鏡装置においては、被写体である生体の拍動の影響によっても、撮像視野が変動してしまい、この生体の拍動による画像ブレについては、挿入部の先端部の移動距離を用いても検出できない。従って、図1(A)〜図1(C)に示す比較例の手法では、このような生体の拍動による画像ブレについてはブレ補正処理を行うことができない。   However, as described above, in the endoscope apparatus, the imaging field of view fluctuates due to the influence of the pulsation of the living body that is the subject. It cannot be detected using the moving distance. Therefore, in the method of the comparative example shown in FIGS. 1A to 1C, it is impossible to perform the blur correction process for such image blur due to the pulsation of the living body.

また、内視鏡装置においては、撮像視野(観察視野)の変更指示を行うためのアングルノブが、挿入部の操作部に設けられており、ドクターは、このアングルノブを操作することで、自身が所望する撮像視野で被写体を観察することができる。   In the endoscope apparatus, an angle knob for instructing to change the imaging field of view (observation field of view) is provided in the operation unit of the insertion unit, and the doctor operates the angle knob by operating the angle knob. Can observe the subject in the desired field of view.

ところが、このようなアングルノブの操作を行った際に、内視鏡装置のブレ補正処理が働いてしまうと、このブレ補正処理により撮像視野が固定されてしまい、ドクターは、自身が所望する撮像視野で被写体を観察することができなくなってしまう。   However, when such an angle knob operation is performed, if the blur correction process of the endoscope apparatus is activated, the imaging field of view is fixed by this blur correction process, and the doctor can capture the desired imaging. The subject cannot be observed in the field of view.

本実施形態では、このような課題を解決するために、図2に示すように、第1動き情報と第2動き情報を検出し、これらの第1動き情報と第2動き情報に応じたブレ補正処理を行うことで、画像ブレを補正している。例えば図2に示すように、第1動き情報と第2動き情報に基づき第3動き情報を求め、求められた第3動き情報に基づいて、ブレ補正処理を行う。   In the present embodiment, in order to solve such a problem, as shown in FIG. 2, the first motion information and the second motion information are detected, and blurs corresponding to the first motion information and the second motion information are detected. Image blurring is corrected by performing correction processing. For example, as illustrated in FIG. 2, third motion information is obtained based on the first motion information and the second motion information, and blur correction processing is performed based on the obtained third motion information.

ここで第1動き情報は、撮像部の撮像視野(観察視野)を動かす操作に応じた撮像視野の動き情報である。例えば第1動き情報は、撮像視野の変更指示による撮像部の撮像視野の動きを示す動き情報である。一方、第2動き情報は、撮像視野を変更可能な撮像部を介して時系列に取得された複数の画像に基づいて検出される画像間の動き情報(フレーム間動き情報)である。例えば第2動き情報は、フレーム画像の画像全体の動きを示す動き情報である。   Here, the first motion information is motion information of the imaging field according to an operation of moving the imaging field (observation field) of the imaging unit. For example, the first motion information is motion information indicating the movement of the imaging field of the imaging unit in response to an instruction to change the imaging field. On the other hand, the second motion information is inter-image motion information (inter-frame motion information) detected based on a plurality of images acquired in time series via an imaging unit capable of changing the imaging field of view. For example, the second motion information is motion information indicating the motion of the entire frame image.

また図2に示すように、第3動き情報は、第2動き情報から第1動き情報に対応する成分を除外した情報として求められる。例えば画像間の動き情報として第2動き情報が検出され、撮像視野を動かす操作に応じて第1動き情報が検出されると、撮像視野を動かす操作に起因するブレ補正処理が行われないように、第1動き情報の成分を除外(キャンセル又は低減)するような補正処理が第2動き情報に対して行われることで、第3動き情報が求められる。そして、求められた第3動き情報に基づいてブレ補正処理を行う。このようにすれば、ドクター(ユーザ)が意識的に撮像視野を動かす操作を行った場合に、この操作がブレであると誤認識されて、ドクターの意思に反して撮像視野が固定されてしまう事態の発生を抑止できる。   As shown in FIG. 2, the third motion information is obtained as information obtained by excluding the component corresponding to the first motion information from the second motion information. For example, when the second motion information is detected as motion information between images and the first motion information is detected in response to an operation for moving the imaging field of view, the blur correction process due to the operation for moving the imaging field of view is not performed. The third motion information is obtained by performing a correction process that excludes (cancels or reduces) the component of the first motion information on the second motion information. Then, blur correction processing is performed based on the obtained third motion information. In this way, when the doctor (user) consciously performs an operation to move the imaging field of view, this operation is erroneously recognized as a blur, and the imaging field of view is fixed against the doctor's intention. The occurrence of the situation can be suppressed.

ここで、第3動き情報を求める手法としては、図3(A)、図3(B)で説明する第1の手法と、図4(A)、図4(B)で説明する第2の手法を想定できる。第1の手法は、後述する図5の第1の構成例で実現される手法であり、第2手法は、図20の第2の構成例で実現される手法である。   Here, as a method for obtaining the third motion information, the first method described with reference to FIGS. 3A and 3B and the second method described with reference to FIGS. 4A and 4B. A method can be assumed. The first method is a method realized by a first configuration example of FIG. 5 described later, and the second method is a method realized by a second configuration example of FIG.

例えば図3(A)に示すように第1の手法では、撮像視野を動かす操作が行われていない非操作状態(非操作期間)の際に取得された第2動き情報に基づいて、第3動き情報を求める。具体的には、撮像視野を動かす操作が行われている操作状態(操作期間)での第2動き情報については使用せずに、非操作状態の際の第2動き情報に基づいて第3動き情報を求め、求められた第3動き情報に基づきブレ補正処理を行う。これにより、第2動き情報から第1動き情報の成分を除外した情報を第3動き情報として求めて、ブレ補正処理を行うことが可能になる。   For example, as shown in FIG. 3A, in the first method, the third method is based on the second motion information acquired in the non-operation state (non-operation period) in which the operation for moving the imaging field of view is not performed. Find movement information. Specifically, the second movement information in the operation state (operation period) in which the operation for moving the imaging field of view is performed is not used, and the third movement is performed based on the second movement information in the non-operation state. Information is obtained, and blur correction processing is performed based on the obtained third motion information. As a result, information obtained by excluding the component of the first motion information from the second motion information is obtained as the third motion information, and the blur correction process can be performed.

更に具体的には図3(B)に示すように、操作状態か否かは、第1動き情報に基づき検出できる。例えば操作状態(操作期間)なのか、非操作状態(非操作期間)なのかを、第1動き情報に基づき判別する。具体的には、撮像部の撮像視野を動かす操作が、操作部を用いて行われる操作である場合には、操作部の操作情報(アングルノブの回転角度等)に基づいて、操作状態か否かを検出する。   More specifically, as shown in FIG. 3B, it can be detected based on the first motion information whether or not it is in the operating state. For example, it is determined based on the first motion information whether the operation state (operation period) or the non-operation state (non-operation period). Specifically, when the operation of moving the imaging field of the imaging unit is an operation performed using the operation unit, whether or not the operation state is based on operation information (such as the rotation angle of the angle knob) of the operation unit. To detect.

また図3(B)に示すように、操作状態の際には(操作期間では)、第2動き情報についての積算処理を行わず、非操作状態の際に(非操作期間において)、第2動き情報についての積算処理を行うことで、第3動き情報を求める。この場合に、積算処理における前回の演算結果を、減衰係数で減衰させる処理を行う。具体的には、前回までの積算結果と、前回までの積算結果を減衰させるための減衰係数と、今回の第2動き情報とに基づいて、積算演算を行って今回の積算結果を求める。また、第3動き情報で表される動きの大きさ(例えば第3動きベクトルの大きさ)が所与のしきい値よりも大きいと判断された場合には、ブレ補正処理をオフにする。例えば、ブレ補正処理が行われないような第3動き情報を出力するようにする。   Further, as shown in FIG. 3B, in the operation state (in the operation period), the second movement information is not integrated, and in the non-operation state (in the non-operation period), the second The third motion information is obtained by performing integration processing on the motion information. In this case, a process of attenuating the previous calculation result in the integration process by the attenuation coefficient is performed. Specifically, the integration result is obtained based on the integration result up to the previous time, the attenuation coefficient for attenuating the integration result up to the previous time, and the current second motion information. If it is determined that the magnitude of the motion represented by the third motion information (for example, the magnitude of the third motion vector) is larger than a given threshold value, the blur correction process is turned off. For example, the third motion information that does not perform the blur correction process is output.

一方、図4(A)に示すように、第2の手法では、第1動き情報と第2動き情報の差分情報を、第3動き情報として求める。即ち第1動き情報と第2動き情報の差分処理(減算処理)を行って、第3動き情報を求める。   On the other hand, as shown in FIG. 4A, in the second method, difference information between the first motion information and the second motion information is obtained as third motion information. That is, a difference process (subtraction process) between the first motion information and the second motion information is performed to obtain the third motion information.

具体的には図4(B)に示すように、第1動き情報を、第1動きベクトルとして検出し、第2動き情報を第2動きベクトルとして検出する。そして第3動き情報を第3動きベクトルとして求め、求められた第3動きベクトルに基づいて、ブレ補正処理を行う。   Specifically, as shown in FIG. 4B, the first motion information is detected as a first motion vector, and the second motion information is detected as a second motion vector. Then, the third motion information is obtained as a third motion vector, and blur correction processing is performed based on the obtained third motion vector.

例えば図4(B)に示すように、第1動きベクトルと第2動きベクトルの差分処理を行って、第1動きベクトルと第2動きベクトルの差分を表す差分動きベクトルを求める。そして、求められた差分動きベクトルに基づいて第3動きベクトルを求める。具体的には、例えば差分動きベクトルの平均化処理を行って平均動きベクトルを求め、差分動きベクトルと平均動きベクトルの差分に基づいて、第3動きベクトルを求める。例えば差分動きベクトルと平均動きベクトルの差分についての積算処理を行って、第3動きベクトルを求める。この際に図4(B)に示すように、差分動きベクトルの大きさが所与のしきい値よりも大きいか否かを判断する。そして、所与のしきい値よりも大きいと判断した場合には、差分動きベクトルの大きさを0(所与の値)に設定する。   For example, as shown in FIG. 4B, a difference motion vector representing the difference between the first motion vector and the second motion vector is obtained by performing a difference process between the first motion vector and the second motion vector. Then, a third motion vector is obtained based on the obtained difference motion vector. Specifically, for example, the difference motion vector is averaged to obtain an average motion vector, and the third motion vector is obtained based on the difference between the difference motion vector and the average motion vector. For example, the third motion vector is obtained by performing integration processing on the difference between the difference motion vector and the average motion vector. At this time, as shown in FIG. 4B, it is determined whether or not the magnitude of the difference motion vector is larger than a given threshold value. If it is determined that the difference is larger than the given threshold, the magnitude of the differential motion vector is set to 0 (given value).

以上のような本実施形態の第1、第2の手法によれば、画像間の動き情報である第2動き情報に応じたブレ補正処理を行う際に、第2動き情報から第1動き情報を除外した情報により、ブレ補正処理を行うことができる。従って、撮像視野が変化した場合にも適切なブレ補正処理を実現できる画像処理装置や内視鏡装置等の提供が可能になる。   According to the first and second methods of the present embodiment as described above, when performing blur correction processing according to the second motion information that is motion information between images, the second motion information is converted into the first motion information. The blur correction process can be performed with the information excluding. Therefore, it is possible to provide an image processing apparatus, an endoscope apparatus, and the like that can realize an appropriate shake correction process even when the imaging field of view changes.

2.第1の構成例
図5に、本実施形態の画像処理装置及びこれを含む内視鏡装置(内視鏡システム)の第1の構成例を示す。
2. First Configuration Example FIG. 5 shows a first configuration example of an image processing apparatus according to this embodiment and an endoscope apparatus (endoscope system) including the image processing apparatus.

図5の第1の構成例の内視鏡装置は、図3(A)、図3(B)の第1の手法を実現する構成例であり、光源部100と、挿入部200と、画像処理装置300と、表示部400と、外部I/F部500を含む。また第1の構成例の画像処理装置300は、画像取得部308と、第2動きベクトル検出部330と、操作状態取得部340と、第1動きベクトル検出部350aと、第3動きベクトル算出部360aと、ブレ補正処理部(画像抽出部)370と、表示画像生成部380と、制御部390を含む。画像取得部308は、例えば補間処理部310と、輝度画像生成部320により構成される。なお本実施形態の内視鏡装置、画像処理装置は図5の構成に限定されず、これらの構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また本実施形態の画像処理装置300は内視鏡装置以外の装置にも適用可能である。   The endoscope apparatus of the first configuration example of FIG. 5 is a configuration example that realizes the first technique of FIGS. 3A and 3B, and includes a light source unit 100, an insertion unit 200, and an image. The processing apparatus 300, the display part 400, and the external I / F part 500 are included. Further, the image processing apparatus 300 of the first configuration example includes an image acquisition unit 308, a second motion vector detection unit 330, an operation state acquisition unit 340, a first motion vector detection unit 350a, and a third motion vector calculation unit. 360 a, a shake correction processing unit (image extraction unit) 370, a display image generation unit 380, and a control unit 390. The image acquisition unit 308 includes, for example, an interpolation processing unit 310 and a luminance image generation unit 320. Note that the endoscope apparatus and image processing apparatus of the present embodiment are not limited to the configuration shown in FIG. 5, and various modifications such as omitting some of these components or adding other components are possible. It is. Further, the image processing apparatus 300 of the present embodiment can be applied to apparatuses other than the endoscope apparatus.

光源部100は、白色光を発生する白色光源110と、この白色光をライトガイドファイバ210に集光するためのレンズ120を含む。   The light source unit 100 includes a white light source 110 that generates white light and a lens 120 that collects the white light on the light guide fiber 210.

挿入部200(狭義には内視鏡スコープ)は、体腔への挿入を可能にするため、細長く且つ湾曲可能に形成されている。この挿入部200は、具体的には、図8に示すような形状を有している。   The insertion portion 200 (endoscope scope in a narrow sense) is formed to be elongated and bendable so as to be inserted into a body cavity. Specifically, the insertion portion 200 has a shape as shown in FIG.

挿入部200は、光源部100で集光された光を導くためのライトガイドファイバ210と、このライトガイドファイバ210により導かれた光を拡散させて被写体に照射する照明レンズ220と、撮像部228と、挿入部200の先端のアングルを変更するための操作部250を含む。撮像部228は、例えば、被写体からの反射光を集光する集光レンズ230と、この集光レンズ230により集光された反射光を検出するための撮像素子240とにより構成される。なお撮像部228の構成はこれに限定されない。   The insertion unit 200 includes a light guide fiber 210 for guiding the light collected by the light source unit 100, an illumination lens 220 for diffusing the light guided by the light guide fiber 210 and irradiating the subject, and an imaging unit 228. And an operation unit 250 for changing the angle of the distal end of the insertion unit 200. The imaging unit 228 includes, for example, a condenser lens 230 that collects reflected light from the subject, and an imaging element 240 that detects the reflected light collected by the condenser lens 230. Note that the configuration of the imaging unit 228 is not limited to this.

撮像素子240は、例えば図6に示すようなベイヤ配列の色フィルタを有する。図6に示した3種類の色フィルタr、g、bは、図7に示すようにrフィルタが580〜700[nm]、gフィルタが480〜600[nm]、bフィルタが400〜500[nm]の光を透過させる特性を有するものとする。   The image sensor 240 has, for example, a Bayer color filter as shown in FIG. As shown in FIG. 7, the three types of color filters r, g, and b shown in FIG. 6 are 580 to 700 [nm] for the r filter, 480 to 600 [nm] for the g filter, and 400 to 500 [nm] for the b filter. nm] light.

操作部250は、具体的には例えば、図8に示すアングルノブ10等により構成される。このアングルノブ10を操作することにより、挿入部200の先端のアングルの制御が可能になる。本実施形態では、アングルノブ10は、2種類のアングルノブ(例えば図8の12、14)により構成され、便宜上、垂直方向アングルノブと水平方向アングルノブと表記する。また、アングルノブ10は、適宜、単にアングルノブと表記する。このアングルノブは、内視鏡診断において、撮像視野(観察視野と同義。以下、同様)を変更する際に用いられる。また操作部250は、後述する操作状態取得部340に接続されている。   Specifically, the operation unit 250 includes, for example, the angle knob 10 shown in FIG. By operating the angle knob 10, the angle of the distal end of the insertion portion 200 can be controlled. In the present embodiment, the angle knob 10 is composed of two types of angle knobs (for example, 12 and 14 in FIG. 8), and for convenience, will be referred to as a vertical angle knob and a horizontal angle knob. The angle knob 10 is simply referred to as an angle knob as appropriate. This angle knob is used when changing an imaging field (synonymous with an observation field; the same applies hereinafter) in endoscopic diagnosis. The operation unit 250 is connected to an operation state acquisition unit 340 described later.

ここで、アングルノブの操作と、撮像視野(観察視野)の変化の関係について説明する。ここでは、画像の座標系として図9に示すxy座標系を用いる。本実施形態においては、垂直方向アングルノブが操作された場合、図9に示す“V”方向(y軸方向)に撮像視野が変化するものとする。また、水平方向アングルノブが操作された場合には、図9に示す“H”方向(x軸方向)に撮像視野が変化するものとする。   Here, the relationship between the operation of the angle knob and the change in the imaging field (observation field) will be described. Here, the xy coordinate system shown in FIG. 9 is used as the image coordinate system. In the present embodiment, when the vertical angle knob is operated, the imaging field of view changes in the “V” direction (y-axis direction) shown in FIG. When the horizontal direction angle knob is operated, the imaging field of view changes in the “H” direction (x-axis direction) shown in FIG.

次に、一般的な電子式ブレ補正処理について説明する。まず、ある時刻t−1において、挿入部200(撮像部228)の先端が図10のP1に示す位置にあるとする。この時、撮像素子240では、図11に示す画像が取得される。そして、時刻tにおいて、挿入部200の先端が図10のP2に示す位置に移動したとする。この場合、撮像素子240で取得される画像は、図12に示す通りとなり、図12のQ1に示す変位量がブレとして認識される。   Next, general electronic shake correction processing will be described. First, it is assumed that the tip of the insertion unit 200 (imaging unit 228) is at a position indicated by P1 in FIG. At this time, the image sensor 240 acquires the image shown in FIG. At time t, it is assumed that the distal end of the insertion portion 200 has moved to the position indicated by P2 in FIG. In this case, the image acquired by the image sensor 240 is as shown in FIG. 12, and the displacement amount indicated by Q1 in FIG. 12 is recognized as blurring.

上述のブレの問題は、撮像素子240で取得された画像をそのまま表示画像として用いるのではなく、図13のA1に示すように、撮像素子240で取得された画像の一部の領域のみを表示画像として利用し、この領域の座標を、Q1に示す変位量に相当する分だけシフトさせることで解決可能である。   The above-described blur problem does not use the image acquired by the image sensor 240 as a display image as it is, but displays only a partial region of the image acquired by the image sensor 240 as shown in A1 of FIG. This can be solved by using the image as an image and shifting the coordinates of this region by an amount corresponding to the displacement amount indicated by Q1.

具体的には、時刻t−1においては、図14のA2に示す領域を表示画像として利用し、時刻tにおいては、図14のA3に示す領域を表示画像として利用する。ここで、図14のQ1で示される変位量は、図12のQ1に示した変位量と等価である。なお、この変位量(動きベクトルに相当)は、時刻t−1及び時刻tで取得された画像を用いて、公知のブロックマッチング処理により検出すればよい。   Specifically, at time t−1, the area indicated by A2 in FIG. 14 is used as a display image, and at time t, the area indicated by A3 in FIG. 14 is used as a display image. Here, the displacement amount indicated by Q1 in FIG. 14 is equivalent to the displacement amount indicated by Q1 in FIG. In addition, what is necessary is just to detect this displacement amount (equivalent to a motion vector) by a well-known block matching process using the image acquired at the time t-1 and the time t.

以上のブレ補正処理を行えば、時刻t−1及び時刻tにおいて表示画像として用いられる画像は、どちらも図15に示す画像となり、図12に示した画像ブレを補正することが可能になる。   If the above blur correction process is performed, the images used as display images at time t-1 and time t are both images shown in FIG. 15, and the image blur shown in FIG. 12 can be corrected.

一方、前述のように内視鏡診断においては、アングルノブを操作して撮像視野(観察視野)を変更することが一般に行われる。従って、上述の電子式ブレ補正処理を内視鏡装置に適用した場合には、アングルノブを操作して撮像視野を変更したいのにも関わらず、電子式ブレ補正処理により撮像視野が固定されてしまうという問題を生じる。   On the other hand, as described above, in endoscopic diagnosis, it is common to change the imaging field (observation field) by operating the angle knob. Therefore, when the electronic blur correction process described above is applied to an endoscope apparatus, the imaging field of view is fixed by the electronic blur correction process even though the angle knob is operated to change the imaging field of view. Cause the problem of end.

そこで本実施形態では、後に詳述するように、アングルノブの操作を考慮したブレ補正処理を施すことで、上記問題を解決する。   Therefore, in the present embodiment, as described in detail later, the above-described problem is solved by performing a blur correction process in consideration of the operation of the angle knob.

外部I/F部500は、内視鏡装置に対するユーザからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。また、外部I/F部500は、入力された情報を制御部390へ出力するようになっている。   The external I / F unit 500 is an interface for performing input from the user to the endoscope apparatus, a power switch for turning on / off the power, a mode for switching shooting modes and other various modes. It includes a switching button and the like. In addition, the external I / F unit 500 outputs input information to the control unit 390.

補間処理部310は、ブレ補正処理部370と、輝度画像生成部320に接続されている。輝度画像生成部320は、第1動きベクトル検出部350aと第2動きベクトル検出部330に接続されている。操作状態取得部340は、第1動きベクトル検出部350aに接続されている。第1動きベクトル検出部350a及び第2動きベクトル検出部330は、第3動きベクトル算出部360aに接続されている。第3動きベクトル算出部360aは、ブレ補正処理部370に接続されている。ブレ補正処理部370は、表示画像生成部380に接続されている。表示画像生成部380は、表示部400に接続されている。制御部390は、第2動きベクトル検出部330とブレ補正処理部370に接続されており、これらを制御する。   The interpolation processing unit 310 is connected to the blur correction processing unit 370 and the luminance image generation unit 320. The luminance image generation unit 320 is connected to the first motion vector detection unit 350 a and the second motion vector detection unit 330. The operation state acquisition unit 340 is connected to the first motion vector detection unit 350a. The first motion vector detection unit 350a and the second motion vector detection unit 330 are connected to the third motion vector calculation unit 360a. The third motion vector calculation unit 360a is connected to the shake correction processing unit 370. The blur correction processing unit 370 is connected to the display image generation unit 380. The display image generation unit 380 is connected to the display unit 400. The control unit 390 is connected to the second motion vector detection unit 330 and the shake correction processing unit 370 and controls them.

画像取得部308は、補間処理部310と輝度画像生成部320により構成される。なお画像取得部308は、この構成には限定されず、撮像視野を変更可能な撮像部228(挿入部200)を介して、複数の画像を時系列的に取得できるものであればよい。   The image acquisition unit 308 includes an interpolation processing unit 310 and a luminance image generation unit 320. The image acquisition unit 308 is not limited to this configuration, and any image acquisition unit 308 may be used as long as it can acquire a plurality of images in time series via the imaging unit 228 (insertion unit 200) that can change the imaging field of view.

補間処理部310は、撮像素子240で取得される画像に対し、補間処理を施す。前述したように、撮像素子240は図6に示すベイヤ配列の色フィルタを有するため、撮像素子240で取得される画像の各画素は、R、G、B信号のうち、何れか1つの信号値を有するのみで、他の2種類の信号が欠落した状態である。そのため、補間処理部310では、取得された画像の各画素に対し補間処理を施すことで、欠落している信号値を補間し、各画素でR、G、B信号の全ての信号値を有する画像を生成する。ここで補間処理としては、例えば公知のバイキュービック補間処理を用いればよい。ここでは、補間処理部310で生成された画像をRGB画像と表記する。   The interpolation processing unit 310 performs an interpolation process on the image acquired by the image sensor 240. As described above, since the image sensor 240 has the Bayer array color filter shown in FIG. 6, each pixel of the image acquired by the image sensor 240 has any one signal value among R, G, and B signals. The other two types of signals are missing. Therefore, the interpolation processing unit 310 performs interpolation processing on each pixel of the acquired image to interpolate the missing signal value, and each pixel has all the signal values of R, G, and B signals. Generate an image. Here, as the interpolation process, for example, a known bicubic interpolation process may be used. Here, the image generated by the interpolation processing unit 310 is referred to as an RGB image.

補間処理部310は、生成したRGB画像を、ブレ補正処理部370、及び輝度画像生成部320に出力する。   The interpolation processing unit 310 outputs the generated RGB image to the shake correction processing unit 370 and the luminance image generation unit 320.

輝度画像生成部320は、補間処理部310より出力されるRGB画像より、輝度画像を生成する。具体的には、RGB画像の全ての画素について、下式(1)を用いて輝度信号Yを算出することで、輝度画像を生成する。   The luminance image generation unit 320 generates a luminance image from the RGB image output from the interpolation processing unit 310. Specifically, the luminance image is generated by calculating the luminance signal Y using the following equation (1) for all the pixels of the RGB image.

輝度画像生成部320は、生成した輝度画像を第2動きベクトル検出部330に出力すると同時に、第1動きベクトル検出部350aにトリガ信号を出力する。第1動きベクトル検出部350aは、このトリガ信号に基づいて動作することで、第2動きベクトル検出部330と同じタイミングで動きベクトルを検出することができる。なお、第1動きベクトル検出部350aの詳細は後述する。   The luminance image generation unit 320 outputs the generated luminance image to the second motion vector detection unit 330 and simultaneously outputs a trigger signal to the first motion vector detection unit 350a. The first motion vector detection unit 350a can detect a motion vector at the same timing as the second motion vector detection unit 330 by operating based on the trigger signal. Details of the first motion vector detection unit 350a will be described later.

第2動きベクトル検出部330(広義には第2動き情報検出部、第2動き情報算出部)は、輝度画像生成部320より出力される輝度画像に基づいて、第2動きベクトル(Vec_x2,Vec_y2)を検出(算出)する。   The second motion vector detection unit 330 (second motion information detection unit, second motion information calculation unit in a broad sense), based on the luminance image output from the luminance image generation unit 320, the second motion vector (Vec_x2, Vec_y2). ) Is detected (calculated).

ここで、第2動きベクトル検出部330の構成及び動作について説明する。第2動きベクトル検出部330は、図16に示すように、局所領域設定部331と、動きベクトル算出部332と、フレームメモリ333を含む。輝度画像生成部320及び制御部390は、局所領域設定部331に接続されている。局所領域設定部331は、動きベクトル算出部332に接続されている。フレームメモリ333は動きベクトル算出部332と双方向に接続されている。動きベクトル算出部332は、第3動きベクトル算出部360aに接続されている。   Here, the configuration and operation of the second motion vector detection unit 330 will be described. As illustrated in FIG. 16, the second motion vector detection unit 330 includes a local region setting unit 331, a motion vector calculation unit 332, and a frame memory 333. The luminance image generation unit 320 and the control unit 390 are connected to the local region setting unit 331. The local region setting unit 331 is connected to the motion vector calculation unit 332. The frame memory 333 is bidirectionally connected to the motion vector calculation unit 332. The motion vector calculation unit 332 is connected to the third motion vector calculation unit 360a.

局所領域設定部331は、輝度画像生成部320から出力される輝度画像に対し、図17で示されるような複数の局所領域を設定する。ここで設定する局所領域の大きさは、予め一定の値を設定しておくこともできるし、外部I/F部500により、ユーザが任意の値を設定できる構成としてもよい。この場合、ユーザの設定した設定値が外部I/F部500から制御部390に出力される。更に、制御部390から局所領域設定部331に、設定値が出力される。   The local area setting unit 331 sets a plurality of local areas as shown in FIG. 17 for the luminance image output from the luminance image generation unit 320. The size of the local area set here may be set to a fixed value in advance, or the external I / F unit 500 may be configured to allow the user to set an arbitrary value. In this case, the setting value set by the user is output from the external I / F unit 500 to the control unit 390. Further, the setting value is output from the control unit 390 to the local region setting unit 331.

局所領域設定部331は、輝度画像及び局所領域の情報を動きベクトル算出部332に出力する。   The local region setting unit 331 outputs the luminance image and the local region information to the motion vector calculation unit 332.

動きベクトル算出部332は、局所領域設定部331から出力される輝度画像、及びフレームメモリ333に保持されている画像より、動きベクトルを算出する。フレームメモリ333には、後述するように、今回のフレームの輝度画像の1フレーム前に取得された輝度画像(以下、過去画像)が保持されている。従って、動きベクトル算出部332で算出される動きベクトルは、フレーム間動きベクトル(画像間動きベクトル)となる。   The motion vector calculation unit 332 calculates a motion vector from the luminance image output from the local region setting unit 331 and the image held in the frame memory 333. As will be described later, the frame memory 333 holds a luminance image (hereinafter referred to as a past image) acquired one frame before the luminance image of the current frame. Accordingly, the motion vector calculated by the motion vector calculation unit 332 is an inter-frame motion vector (inter-image motion vector).

動きベクトル算出部332は、局所領域設定部331で設定された全ての局所領域について動きベクトルを算出する。更に、全ての局所領域より算出した動きベクトルの平均値を、第2動きベクトル(Vec_x2,Vec_y2)として、第3動きベクトル算出部360aに出力する。その後、動きベクトル算出部332は、今回のフレームの輝度画像をフレームメモリ333に出力する。フレームメモリ333は、動きベクトル算出部332より出力された輝度画像を、過去画像として保持する。従って、フレームメモリ333には、1フレーム前(広義には前回のフレーム)の輝度画像が保持されることになる。   The motion vector calculation unit 332 calculates motion vectors for all local regions set by the local region setting unit 331. Furthermore, the average value of the motion vectors calculated from all the local regions is output to the third motion vector calculation unit 360a as the second motion vector (Vec_x2, Vec_y2). Thereafter, the motion vector calculation unit 332 outputs the luminance image of the current frame to the frame memory 333. The frame memory 333 holds the luminance image output from the motion vector calculation unit 332 as a past image. Therefore, the frame memory 333 holds the luminance image of the previous frame (the previous frame in a broad sense).

ここで、動きベクトルの算出には、例えば公知のブロックマッチング処理を用いればよい。ブロックマッチング処理は、基準画像の任意のブロックに対して、相関が高いブロックの位置を対象画像内で探索する手法である。ブロック間の相対的なズレ量が、そのブロックの動きベクトルに対応する。本実施形態においては、輝度画像が基準画像、過去画像が対象画像に相当する。   Here, for example, a known block matching process may be used to calculate the motion vector. The block matching process is a technique for searching the target image for the position of a block having a high correlation with respect to an arbitrary block of the reference image. The relative shift amount between blocks corresponds to the motion vector of the block. In the present embodiment, the luminance image corresponds to the reference image, and the past image corresponds to the target image.

ブロックマッチング処理で相関の高いブロックを探索する手法としては、例えば絶対誤差SADを用いればよい。これは基準画像におけるブロック領域をI、対象画像におけるブロック領域をI’として、Iと相関が高いI’の位置を求める手法である。各ブロック領域での画素位置をp∈I及びq∈I’として、各画素の信号値をLp,Lqとすると、SADは下式(2)で定義される。   For example, an absolute error SAD may be used as a method for searching for a highly correlated block in the block matching process. This is a technique for obtaining the position of I 'having a high correlation with I, where I is the block area in the reference image and I' is the block area in the target image. SAD is defined by the following equation (2) where the pixel position in each block region is pεI and qεI ′, and the signal value of each pixel is Lp, Lq.

ここで、p及びqはそれぞれ2次元の値を持ち、I及びI’は2次元の領域を持つものとし、p∈Iは座標pが領域Iに含まれていることを示す。また、“‖m‖”は実数値mの絶対値を取得する処理を表すものとする。   Here, p and q each have a two-dimensional value, I and I 'have a two-dimensional area, and pεI indicates that the coordinate p is included in the area I. Further, “‖m 表 す” represents a process of acquiring the absolute value of the real value m.

操作状態取得部340は、操作部250におけるアングルノブの操作情報を取得する。ここで取得される操作情報は、水平方向アングルノブ(広義には水平方向操作部)と垂直方向アングルノブ(広義には水平方向操作部)の各々の回転角度[deg]である。ここでは、水平方向アングルノブの回転角度をθh[deg]、垂直方向アングルノブの回転角度をθv[deg]と表記する。また、アングルノブが操作されていない場合(アングルノブが初期位置にある場合)を“0[deg]”とし、アングルノブの右回り方向を、正の方向と定義する。   The operation state acquisition unit 340 acquires operation information of the angle knob in the operation unit 250. The operation information acquired here is the rotation angle [deg] of each of the horizontal angle knob (horizontal operation unit in a broad sense) and the vertical angle knob (horizontal operation unit in a broad sense). Here, the rotation angle of the horizontal angle knob is expressed as θh [deg], and the rotation angle of the vertical angle knob is expressed as θv [deg]. Further, when the angle knob is not operated (when the angle knob is in the initial position), “0 [deg]” is defined, and the clockwise direction of the angle knob is defined as a positive direction.

操作状態取得部340は、上記の回転角度θh,θv[deg]を第1動きベクトル検出部350aに出力する。   The operation state acquisition unit 340 outputs the rotation angles θh and θv [deg] to the first motion vector detection unit 350a.

第1動きベクトル検出部350a(広義には第1動き情報検出部、第1動き情報算出部)は、輝度画像生成部320からトリガ信号が出力された際に、操作状態取得部340より出力される回転角度θh、θv[deg]に基づいて、第1動きベクトル(Vec_x1,Vec_y1)を後述の手法で検出し、第3動きベクトル算出部360aに出力する。本実施形態において第1動きベクトル(Vec_x1,Vec_y1)は、挿入部200の先端の移動方向を表している。   The first motion vector detection unit 350a (first motion information detection unit, first motion information calculation unit in a broad sense) is output from the operation state acquisition unit 340 when a trigger signal is output from the luminance image generation unit 320. The first motion vectors (Vec_x1, Vec_y1) are detected by a method described later based on the rotation angles θh and θv [deg] to be output to the third motion vector calculation unit 360a. In the present embodiment, the first motion vector (Vec_x1, Vec_y1) represents the moving direction of the distal end of the insertion unit 200.

第1動きベクトル検出部350aは、図18に示すように、変化量算出部351と、回転角度記憶部352と、動きベクトル算出部353aを含む。操作状態取得部340は、変化量算出部351に接続されている。変化量算出部351は、回転角度記憶部352と双方向に接続されている。更に変化量算出部351は、動きベクトル算出部353aに接続されている。動きベクトル算出部353aは、第3動きベクトル算出部360aに接続されている。   As shown in FIG. 18, the first motion vector detection unit 350a includes a change amount calculation unit 351, a rotation angle storage unit 352, and a motion vector calculation unit 353a. The operation state acquisition unit 340 is connected to the change amount calculation unit 351. The change amount calculation unit 351 is bidirectionally connected to the rotation angle storage unit 352. Further, the change amount calculation unit 351 is connected to the motion vector calculation unit 353a. The motion vector calculation unit 353a is connected to the third motion vector calculation unit 360a.

変化量算出部351は、操作状態取得部340より出力される回転角度θh、θv[deg]と、回転角度記憶部352に保持されている回転角度θh_mem,θv_mem[deg]より、下式(3)を用いて回転角度の変化量θh_dif,θv_dif[deg]を算出する。   The change amount calculation unit 351 calculates the following expression (3) from the rotation angles θh and θv [deg] output from the operation state acquisition unit 340 and the rotation angles θh_mem and θv_mem [deg] held in the rotation angle storage unit 352. ) Is used to calculate the rotation angle variation θh_dif, θv_dif [deg].

ここで、回転角度記憶部352には、後述するように、1フレーム前の時点(前回トリガ信号が出力された時点)における回転角度が保持されている。従って、上式(3)は、フレーム間における回転角度の変化量に相当する。   Here, as will be described later, the rotation angle storage unit 352 holds the rotation angle at the time point one frame before (when the previous trigger signal is output). Therefore, the above equation (3) corresponds to the amount of change in the rotation angle between frames.

変化量算出部351は、上式(3)で算出した回転角度の変化量θh_dif,θv_dif[deg]を、動きベクトル算出部353aに出力する。更にその後、変化量算出部351は、操作状態取得部340より出力された回転角度θh,θv[deg]を、回転角度記憶部352に出力する。従って、回転角度記憶部352には、1フレーム前の時点における回転角度が保持されることになる。   The change amount calculation unit 351 outputs the rotation angle change amounts θh_dif and θv_dif [deg] calculated by the above equation (3) to the motion vector calculation unit 353a. After that, the change amount calculation unit 351 outputs the rotation angles θh and θv [deg] output from the operation state acquisition unit 340 to the rotation angle storage unit 352. Therefore, the rotation angle storage unit 352 holds the rotation angle at the time point one frame before.

動きベクトル算出部353aは、回転角度の変化量θh_dif,θv_dif[deg]に基づき、第1動きベクトル(Vec_x1,Vec_y1)を算出する。本実施形態において、第1動きベクトル(Vec_x1,Vec_y1)は、挿入部200の先端の移動方向を表す。具体的には、挿入部200の先端がxy軸の各方向に移動している場合には、動きベクトルの値を“0”とし、逆に移動していない場合には“1”とする。   The motion vector calculation unit 353a calculates the first motion vector (Vec_x1, Vec_y1) based on the rotation angle change amounts θh_dif, θv_dif [deg]. In the present embodiment, the first motion vector (Vec_x1, Vec_y1) represents the moving direction of the distal end of the insertion unit 200. Specifically, the value of the motion vector is set to “0” when the distal end of the insertion unit 200 moves in each direction of the xy axis, and “1” when the tip does not move.

例えば、回転角度の変化量が“θh_dif=θv_dif=0”の場合(アングルノブが操作されていない場合)には、挿入部200の先端が移動していないものと判断できるため、第1動きベクトル(Vec_x1,Vec_y1)は、(1,1)となる。一方、回転角度の変化量が“θh_dif≠0,θv_dif=0”の場合(水平方向アングルノブが操作されている場合)には、挿入部200の先端が水平方向(x軸方向)に動いているものと判断できるため、第1動きベクトル(Vec_x1,Vec_y1)は、(0,1)となる。同様に他の場合についても考えると、第1動きベクトル(Vec_x1,Vec_y1)は以下に示す通りとなる。
回転角度の変化量 第1動きベクトル(Vec_x1,Vec_y1)
θh_dif=0,θv_dif=0:(1, 1)
θh_dif≠0,θv_dif=0:(0, 1)
θh_dif=0,θv_dif≠0:(1, 0)
θh_dif≠0,θv_dif≠0:(0, 0)
第3動きベクトル算出部360a(広義には第3動き情報算出部)は、第1動きベクトル(Vec_x1,Vec_y1)、及び第2動きベクトル(Vec_x2,Vec_y2)に基づき、後述する手法を用いて第3動きベクトル(Vec_x3,Vec_y3)を算出する。
For example, when the change amount of the rotation angle is “θh_dif = θv_dif = 0” (when the angle knob is not operated), it can be determined that the distal end of the insertion unit 200 has not moved, so the first motion vector (Vec_x1, Vec_y1) is (1, 1). On the other hand, when the change amount of the rotation angle is “θh_dif ≠ 0, θv_dif = 0” (when the horizontal angle knob is operated), the distal end of the insertion portion 200 moves in the horizontal direction (x-axis direction). Therefore, the first motion vector (Vec_x1, Vec_y1) is (0, 1). Similarly, when considering other cases, the first motion vectors (Vec_x1, Vec_y1) are as follows.
Change amount of rotation angle First motion vector (Vec_x1, Vec_y1)
θh_dif = 0, θv_dif = 0: (1, 1)
θh_dif ≠ 0, θv_dif = 0: (0, 1)
θh_dif = 0, θv_dif ≠ 0: (1, 0)
θh_dif ≠ 0, θv_dif ≠ 0: (0, 0)
Based on the first motion vector (Vec_x1, Vec_y1) and the second motion vector (Vec_x2, Vec_y2), the third motion vector calculation unit 360a (third motion information calculation unit in a broad sense) uses the method described later. Three motion vectors (Vec_x3, Vec_y3) are calculated.

第3動きベクトル算出部360aは、図19に示すように、動きベクトル積算部361aと動きベクトル記憶部362を含む。第1動きベクトル検出部350aと第2動きベクトル検出部330と制御部390は、動きベクトル積算部361aに接続されている。動きベクトル積算部361aと動きベクトル記憶部362は双方向に接続されている。動きベクトル積算部361aは、ブレ補正処理部370に接続されている。   As illustrated in FIG. 19, the third motion vector calculation unit 360 a includes a motion vector integration unit 361 a and a motion vector storage unit 362. The first motion vector detection unit 350a, the second motion vector detection unit 330, and the control unit 390 are connected to the motion vector integration unit 361a. The motion vector integration unit 361a and the motion vector storage unit 362 are connected bidirectionally. The motion vector integration unit 361a is connected to the shake correction processing unit 370.

動きベクトル積算部361aは、第1動きベクトル(Vec_x1,Vec_y1)、第2動きベクトル(Vec_x2,Vec_y2)、及び動きベクトル記憶部362に保持されている動きベクトル(Vec_x_mem,Vec_y_mem)を用いて、第3動きベクトル(Vec_x3,Vec_y3)を算出する。ここで、動きベクトル記憶部362には、後述するように、1フレーム前(前回のフレーム)の時点における第3動きベクトルが保持されている。   The motion vector integrating unit 361a uses the first motion vector (Vec_x1, Vec_y1), the second motion vector (Vec_x2, Vec_y2), and the motion vector (Vec_x_mem, Vec_y_mem) held in the motion vector storage unit 362. Three motion vectors (Vec_x3, Vec_y3) are calculated. Here, as will be described later, the motion vector storage unit 362 holds the third motion vector at the time point one frame before (previous frame).

第3動きベクトル(Vec_x3,Vec_y3)の算出には下式(4)を用いる。   The following equation (4) is used to calculate the third motion vector (Vec_x3, Vec_y3).

なお、上式(4)に示したCx,Cyは減衰係数であり、1より小さい正の実数値を有するものとする。減衰係数Cx,Cyの効果については後述する。   Note that Cx and Cy shown in the above equation (4) are attenuation coefficients, and have positive real values smaller than 1. The effect of the attenuation coefficients Cx and Cy will be described later.

動きベクトル積算部361aは、第3動きベクトル(Vec_x3,Vec_y3)をブレ補正処理部370に出力する。更に動きベクトル積算部361aは、第3動きベクトル(Vec_x3,Vec_y3)を動きベクトル記憶部362に出力する。従って、動きベクトル記憶部362には、1フレーム前の時点における第3動きベクトルが保持される。なお、動きベクトル記憶部362に保持される動きベクトルの初期値は(0,0)とする。   The motion vector integration unit 361a outputs the third motion vector (Vec_x3, Vec_y3) to the blur correction processing unit 370. Further, the motion vector accumulation unit 361a outputs the third motion vector (Vec_x3, Vec_y3) to the motion vector storage unit 362. Accordingly, the motion vector storage unit 362 holds the third motion vector at the time point one frame before. Note that the initial value of the motion vector held in the motion vector storage unit 362 is (0, 0).

以上の処理により、初期フレームから現在のフレームまでの動きベクトルの積算値が、第3動きベクトル(Vec_x3,Vec_y3)として算出される。なお、ここで初期フレームとは、ブレ補正処理が開始された直後に撮像素子240で取得された画像を意味する。   Through the above processing, the integrated value of the motion vector from the initial frame to the current frame is calculated as the third motion vector (Vec_x3, Vec_y3). Here, the initial frame means an image acquired by the image sensor 240 immediately after the blur correction process is started.

本実施形態においては、上述のようにアングルノブが操作されている場合、第1動きベクトルの値が“0”となる。そのため、アングルノブが操作されている期間中に検出された第2動きベクトル(フレーム間動きベクトル)は、第3動きベクトルとして積算されないことになる。具体的には例えば、水平方向アングルノブが操作されている場合には、第1動きベクトルのx軸成分(Vec_x1)が“0”になるため、x軸方向のフレーム間動きベクトル(Vec_x2)が積算されない。従って、第3動きベクトルには、アングルノブの操作に起因した動きは含まれず、手ブレや、被写体である生体の拍動などの影響による動きのみが含まれることになる。   In the present embodiment, when the angle knob is operated as described above, the value of the first motion vector is “0”. Therefore, the second motion vector (inter-frame motion vector) detected during the period in which the angle knob is operated is not integrated as the third motion vector. Specifically, for example, when the horizontal angle knob is operated, the x-axis component (Vec_x1) of the first motion vector is “0”, so the inter-frame motion vector (Vec_x2) in the x-axis direction is Not accumulated. Therefore, the third motion vector does not include the movement due to the operation of the angle knob, and includes only the movement due to the influence of camera shake or the pulsation of the living body that is the subject.

また、ブレ補正処理の開始は、外部I/F部500よりユーザが与える構成とすれば良く、例えば電源が“ON”となった時にブレ補正処理が開始される構成としてもよいし、ブレ補正処理の開始・終了を制御するためのスイッチを設けてもよい。   The start of the blur correction process may be configured by the user from the external I / F unit 500. For example, the blur correction process may be started when the power is turned “ON”. A switch for controlling the start / end of processing may be provided.

ブレ補正処理部(画像抽出部)370は、第3動きベクトル算出部360aより出力される第3動きベクトル(Vec_x3,Vec_y3)に基づいて、補間処理部310から出力されるRGB画像より画像を抽出し、表示画像生成部380に出力する。これによりブレ補正処理が実現される。ここでは、抽出した画像をR’G’B’画像と表記する。画像の抽出は、具体的には下式(5)、(6)で定義される画像サイズ、及び始点座標の情報を用いて行う。   The shake correction processing unit (image extraction unit) 370 extracts an image from the RGB image output from the interpolation processing unit 310 based on the third motion vector (Vec_x3, Vec_y3) output from the third motion vector calculation unit 360a. And output to the display image generation unit 380. Thereby, blur correction processing is realized. Here, the extracted image is referred to as an R′G′B ′ image. Specifically, image extraction is performed using information on the image size and start point coordinates defined by the following equations (5) and (6).

まず、R’G’B’画像のサイズ(imx’,imy’)は、RGB画像のサイズを(imx,imy)とすると、下式(5)で定義される。   First, the size (imx ', imy') of the R'G'B 'image is defined by the following equation (5), where the size of the RGB image is (imx, imy).

上式(5)において、space_x,space_yは、自然数である。space_x,space_yは、予め一定の値を定めておいてもよいし、外部I/F部500により、ユーザが任意の値を設定する構成としてもよい。   In the above equation (5), space_x and space_y are natural numbers. For space_x and space_y, fixed values may be determined in advance, or the external I / F unit 500 may set arbitrary values.

また、R’G’B’画像を抽出する際の始点座標(st_x,st_y)は、下式(6)により求められる。   Further, the start point coordinates (st_x, st_y) when extracting the R′G′B ′ image are obtained by the following equation (6).

上式(6)に示したように、第3動きベクトル(Vec_x3,Vec_y3)が、space_x,space_yよりも小さい場合には、第3動きベクトル(Vec_x3,Vec_y3)に基づいて、R’G’B’画像を抽出する際の始点座標(st_x,st_y)が制御されるため、ブレ補正処理が有効に機能する。しかし、第3動きベクトル(Vec_x3,Vec_y3)が、space_x,space_yよりも大きい場合には、R’G’B’画像を抽出する際の始点座標(st_x,st_y)が固定値となるため、ブレ補正処理が機能しなくなる。   As shown in the above equation (6), when the third motion vector (Vec_x3, Vec_y3) is smaller than space_x, space_y, based on the third motion vector (Vec_x3, Vec_y3), R′G′B 'Because the start point coordinates (st_x, st_y) when extracting the image are controlled, the blur correction process functions effectively. However, when the third motion vector (Vec_x3, Vec_y3) is larger than space_x, space_y, the start point coordinates (st_x, st_y) when extracting the R′G′B ′ image are fixed values, and blur The correction process will not work.

一方、第3動きベクトル(Vec_x3,Vec_y3)は、上式(4)に示したように、初期フレームから現在のフレームまでの動きベクトルの積算値である。従って、例えばブレの方向が、ある一定の方向のみに発生するような特徴を有していた場合、時間経過と共に第3動きベクトル(Vec_x3,Vec_y3)の値が増大し、space_x,space_yを超えることが想定される。この場合、前述のようにブレ補正処理が機能しなくなってしまう。   On the other hand, the third motion vector (Vec_x3, Vec_y3) is an integrated value of motion vectors from the initial frame to the current frame, as shown in the above equation (4). Therefore, for example, when the blur direction has a characteristic that occurs only in a certain direction, the value of the third motion vector (Vec_x3, Vec_y3) increases with time and exceeds space_x, space_y. Is assumed. In this case, the blur correction process does not function as described above.

そのため、本実施形態では、上式(4)に示したように、1フレーム前の時点における第3動きベクトル(Vec_x_mem,Vec_y_mem)に対し、減衰係数Cx,Cyを乗算する。ここで、減算係数Cx,Cyは、1より小さい実数である。従って、第3動きベクトル(Vec_x3,Vec_y3)は、時間経過と共に緩やかに減少するようになり、第3動きベクトル(Vec_x3,Vec_y3)がspace_x,space_yより大きくなることを抑制できる。   Therefore, in the present embodiment, as shown in the above equation (4), the third motion vector (Vec_x_mem, Vec_y_mem) at the time point one frame before is multiplied by the attenuation coefficients Cx, Cy. Here, the subtraction coefficients Cx and Cy are real numbers smaller than 1. Accordingly, the third motion vector (Vec_x3, Vec_y3) gradually decreases with time, and it is possible to suppress the third motion vector (Vec_x3, Vec_y3) from becoming larger than space_x, space_y.

表示画像生成部380は、ブレ補正処理部370より出力される抽出画像に対し、既存のホワイトバランス、色変換、階調変換、電子ズーム処理を施し、表示画像を生成する。更に表示画像生成部380は、生成した表示画像を表示部400に出力する。   The display image generation unit 380 performs existing white balance, color conversion, gradation conversion, and electronic zoom processing on the extracted image output from the shake correction processing unit 370 to generate a display image. Further, the display image generation unit 380 outputs the generated display image to the display unit 400.

以上の処理により、画像に対しブレ補正処理を施す場合に、上述したような撮像視野が固定される課題を解決することができる。具体的には例えば、垂直方向アングルノブを操作している場合には、画像のy軸方向に対して、ブレ補正処理を行わないことにより、撮像視野が固定される課題を解決できる。   With the above processing, it is possible to solve the above-described problem that the imaging field of view is fixed when blur correction processing is performed on an image. Specifically, for example, when the vertical angle knob is operated, the problem that the imaging field of view is fixed can be solved by not performing the blur correction process in the y-axis direction of the image.

なお、本実施形態では、上述のように水平方向及び垂直方向アングルノブの操作を考慮したブレ補正処理を示したが、本発明はこれに限定されるものではない。他の手法としては、例えば、水平方向及び垂直方向アングルノブのうちの何れかが操作されている場合に、ブレ補正処理をOFFとする構成としてもよい。   In the present embodiment, as described above, the blur correction process considering the operation of the horizontal and vertical angle knobs is shown, but the present invention is not limited to this. As another method, for example, when any one of the horizontal and vertical angle knobs is operated, the blur correction process may be turned off.

この場合、何れかのアングルノブが操作されている際に、ブレ補正処理部370が、補間処理部310より出力されるRGB画像をそのまま表示画像生成部380に出力すればよい。操作状態取得部340は、何れかのアングルノブが操作されている場合に、アングルノブが操作されていることを示すトリガ信号をブレ補正処理部370に出力する構成とすればよい。以上の手法を用いても、撮像視野が固定される課題を解決可能である。   In this case, when any one of the angle knobs is operated, the blur correction processing unit 370 may output the RGB image output from the interpolation processing unit 310 to the display image generation unit 380 as it is. The operation state acquisition unit 340 may be configured to output a trigger signal indicating that the angle knob is operated to the shake correction processing unit 370 when any angle knob is operated. The problem that the imaging field of view is fixed can be solved even by using the above method.

以上のように本実施形態の画像処理装置300は、図5に示すように、画像取得部308と、第1動き情報検出部350aと、第2動き情報検出部330と、ブレ補正処理部370を含む。また本実施形態の内視鏡装置は、画像処理装置300と、撮像部228(挿入部200)の撮像視野を動かす操作を行うための操作部250を含む。   As described above, the image processing apparatus 300 according to the present embodiment includes the image acquisition unit 308, the first motion information detection unit 350a, the second motion information detection unit 330, and the shake correction processing unit 370 as illustrated in FIG. including. In addition, the endoscope apparatus of the present embodiment includes an image processing device 300 and an operation unit 250 for performing an operation of moving the imaging field of view of the imaging unit 228 (insertion unit 200).

画像取得部308は、撮像視野を変更可能な撮像部228(挿入部200)を介して、複数の画像を時系列的に取得する。例えば複数のフレーム画像を時系列的に取得する。   The image acquisition unit 308 acquires a plurality of images in time series via the imaging unit 228 (insertion unit 200) that can change the imaging field of view. For example, a plurality of frame images are acquired in time series.

第1動き情報検出部350aは、撮像部228の撮像視野を動かす操作に応じた撮像視野の動き情報を、第1動き情報として検出する。別の言い方をすれば、変更指示による撮像部228の撮像視野の動きを示す第1動き情報を検出する。具体的には、例えば前述の式(3)等で説明した処理を行うことで、第1動き情報(第1動きベクトル)を検出する。   The first motion information detection unit 350a detects the motion information of the imaging field in accordance with the operation of moving the imaging field of the imaging unit 228 as the first motion information. In other words, the first motion information indicating the motion of the imaging field of the imaging unit 228 according to the change instruction is detected. Specifically, for example, the first motion information (first motion vector) is detected by performing the processing described in the above equation (3) or the like.

また第2動き情報検出部330は、時系列に取得された複数の画像(複数のフレーム画像)に基づいて、画像間の動き情報(フレーム間動き情報)である第2動き情報を検出する。例えばフレーム画像の画像全体の動きを示す第2動き情報を検出する。具体的には、例えば前述の式(2)等で説明した処理を行うことで、第2動き情報(第2動きベクトル)を検出する。   Further, the second motion information detection unit 330 detects second motion information that is motion information between images (inter-frame motion information) based on a plurality of images (a plurality of frame images) acquired in time series. For example, the second motion information indicating the motion of the entire frame image is detected. Specifically, for example, the second motion information (second motion vector) is detected by performing the processing described in Equation (2) above.

そしてブレ補正処理部370は、第1動き情報と第2動き情報に応じたブレ補正処理を画像(フレーム画像)に対して行う。即ち第1動き情報と第2動き情報を反映させたブレ補正処理を、撮像部228により得られた画像に対して行う。具体的には、例えば前述の式(5)、(6)に示すような画像抽出処理を行うことで、ブレ補正処理を実現する。   The blur correction processing unit 370 performs blur correction processing on the image (frame image) according to the first motion information and the second motion information. In other words, the blur correction process reflecting the first motion information and the second motion information is performed on the image obtained by the imaging unit 228. Specifically, for example, image blur correction processing is realized by performing image extraction processing as shown in the above formulas (5) and (6).

このようにすれば、意識的に撮像視野を動かす操作が行われた場合に、この操作がブレであると誤検出されて、撮像視野が固定されてしまう事態の発生を抑止できる。また、第2動き情報を用いることで、例えば被写体である生体の拍動の影響による画像ブレについても抑止できるようになる。   In this way, when an operation for moving the imaging visual field consciously is performed, it is possible to suppress the occurrence of a situation in which this operation is erroneously detected as blurring and the imaging visual field is fixed. Further, by using the second motion information, for example, image blur due to the influence of the pulsation of a living body that is a subject can be suppressed.

ここで撮像視野(観察視野)は、撮像部228(挿入部)が被写体を見る視野範囲(視野領域)であり、観察の対象となる視野範囲である。また、撮像視野が変更可能とは、図9において、水平方向であるH方向(x軸方向)や垂直方向であるV方向(y軸方向)や、その合成方向に撮像視野を変更できることである。この撮像視野の変更は、ユーザの変更指示等により行われる。具体的には、例えば操作部250を介した撮像視野を動かす操作により行われる。また、時系列に取得された画像とは、例えば複数のフレームに亘って取得された画像(撮像画像)である。   Here, the imaging field of view (observation field of view) is a field of view range (field of view region) where the imaging unit 228 (insertion unit) views the subject, and is a field of view range to be observed. Further, in FIG. 9, the imaging field of view can be changed is that the imaging field of view can be changed in the H direction (x-axis direction) which is the horizontal direction, the V direction (y-axis direction) which is the vertical direction, and the synthesis direction thereof. . The imaging field of view is changed according to a user's change instruction or the like. Specifically, for example, it is performed by an operation of moving the imaging visual field via the operation unit 250. Moreover, the image acquired in time series is an image (captured image) acquired over a plurality of frames, for example.

また撮像部228の撮像視野を動かす操作とは、例えば図8に示すアングルノブなどにより実現される操作部250を介して行われる操作である。この操作は、人間であるユーザの操作であってもよいし、医療用のロボット等により行われる自動操作(所定アルゴリズムにより実行される操作)であってもよい。また、撮像視野を動かす操作に応じた撮像視野の動き情報とは、撮像視野を動かす操作が行われること(撮像視野の変更指示が行われること)を起因として生じる動き情報であり、例えば図9のH方向やV方向やその合成方向での撮像視野の動きを示す情報である。   The operation of moving the imaging field of the imaging unit 228 is an operation performed via the operation unit 250 realized by, for example, an angle knob shown in FIG. This operation may be an operation of a human user, or may be an automatic operation (operation executed by a predetermined algorithm) performed by a medical robot or the like. Further, the motion information of the imaging visual field according to the operation for moving the imaging visual field is motion information generated due to the operation of moving the imaging visual field (the instruction for changing the imaging visual field is performed), for example, FIG. This is information indicating the movement of the imaging field of view in the H direction, the V direction, and the synthesis direction thereof.

また画像間の動き情報は、例えば時系列に取得された複数の画像(フレーム画像)間での被写体の動き等を表す情報であり、例えば図12においてQ1により表される動き情報等である。   Further, the motion information between images is, for example, information representing the motion of a subject between a plurality of images (frame images) acquired in time series, for example, motion information represented by Q1 in FIG.

また第1動き情報と第2動き情報に応じたブレ補正処理は、第1動き情報及び第2動き情報自体又は第1動き情報と第2動き情報により得られた情報(例えば第3動き情報)に基づき行われるブレ補正処理である。   In addition, the blur correction processing according to the first motion information and the second motion information is the first motion information and the second motion information itself or information obtained from the first motion information and the second motion information (for example, third motion information). Is a blur correction process performed based on the above.

また第1動き情報、第2動き情報は、各々、例えば第1動きベクトル、第2動きベクトルであるが、これには限定されない。例えば第1動きベクトル、第2動きベクトルと数学的或いは演算処理的に等価な情報であってもよい。また第1動きベクトル、第2動きベクトルは、少なくも動きベクトルの方向の情報を有していればよい。   The first motion information and the second motion information are, for example, the first motion vector and the second motion vector, respectively, but are not limited thereto. For example, information that is mathematically or arithmetically equivalent to the first motion vector and the second motion vector may be used. Further, the first motion vector and the second motion vector need only have information on the direction of the motion vector.

また本実施形態では、第3動き情報算出部360aは、第1動き情報と第2動き情報に基づき、第3動き情報を求める。そしてブレ補正処理部370は、求められた第3動き情報に基づいて、ブレ補正処理を行う。例えば図10〜図15で説明した電子式ブレ補正処理などを行う。   In the present embodiment, the third motion information calculation unit 360a obtains the third motion information based on the first motion information and the second motion information. Then, the shake correction processing unit 370 performs shake correction processing based on the obtained third motion information. For example, the electronic blur correction process described with reference to FIGS.

即ち、このようなブレ補正処理は、通常は、画像間動き情報である第2動き情報のみに基づき行われる。この点、本実施形態では、このような第2動き情報のみならず、撮像視野を動かす操作に応じた撮像視野の動き情報である第1動き情報も反映させたブレ補正処理を行う。具体的には、図2等で説明したように、第3動き情報算出部360aは、第2動き情報から第1動き情報に対応する成分を除外した情報を、第3動き情報として求め、このようにして求められた第3動き情報に基づいて、ブレ補正処理を行う。具体的には、例えば前述の式(4)等で説明した処理を行うことで、第3動き情報(第3動きベクトル)を求める。   That is, such blur correction processing is normally performed based only on the second motion information that is inter-image motion information. In this regard, in the present embodiment, not only such second motion information but also blur correction processing that reflects first motion information that is motion information of the imaging field of view according to an operation of moving the imaging field of view is performed. Specifically, as described in FIG. 2 and the like, the third motion information calculation unit 360a obtains, as the third motion information, information obtained by excluding the component corresponding to the first motion information from the second motion information. Based on the third motion information obtained in this way, the blur correction process is performed. Specifically, for example, the third motion information (third motion vector) is obtained by performing the processing described in Equation (4) and the like.

このようにすれば、第2動き情報に対して第1動き情報を反映させた第3動き情報を用いて、ブレ補正処理を行うことができる。従って、第3動き情報を、通常の画像間動き情報(フレーム間動きベクトル)のように見なして、例えば通常の電子式ブレ補正処理等のアルゴリズムで、ブレ補正処理を実現できるようになるため、処理の簡素化等を図れる。   If it does in this way, a blurring correction process can be performed using the 3rd motion information which reflected the 1st motion information to the 2nd motion information. Therefore, since the third motion information is regarded as normal inter-image motion information (inter-frame motion vector), for example, the blur correction process can be realized by an algorithm such as a normal electronic blur correction process. Simplification of processing can be achieved.

ここで、第2動き情報から第1動き情報に対応する成分を除外した情報を第3動き情報として求める処理は、図5の第1の構成例では、図3(A)、図3(B)で説明した第1の手法により実現される。   Here, in the first configuration example of FIG. 5, the processing for obtaining information excluding the component corresponding to the first motion information from the second motion information as the third motion information is shown in FIGS. 3A and 3B. This is realized by the first method described in (1).

具体的には第3動き情報算出部360aは、撮像視野を動かす操作が行われている操作状態(操作期間)と操作が行われていない非操作状態(非操作期間)のうち、非操作状態の際に取得された第2動き情報(非操作期間で取得された第2動き情報)に基づいて、第3動き情報を求める。即ち、操作状態の際に取得された第2動き情報は、撮像視野を動かす操作に応じた動き情報(第1動き情報)に相当すると見なして、例えば非操作状態の際に取得された第2動き情報だけを用いて、第3動き情報を算出する。これは、前述したように、例えばアングルノブによる回転角度の変化量がθh_dif=θv_dif=0の場合には、非操作状態であると見なして、第1動き情報である第1動きベクトルを、(Vec_x1,Vec_y1)=(1,1)に設定することにより実現できる。   Specifically, the third motion information calculation unit 360a is in a non-operation state among an operation state (operation period) in which an operation for moving the imaging field of view is performed and a non-operation state in which no operation is performed (non-operation period). The third motion information is obtained based on the second motion information acquired at the time (second motion information acquired in the non-operation period). That is, the second motion information acquired in the operation state is regarded as corresponding to the motion information (first motion information) according to the operation to move the imaging field of view, and for example, the second motion information acquired in the non-operation state. The third motion information is calculated using only the motion information. As described above, for example, when the amount of change in the rotation angle by the angle knob is θh_dif = θv_dif = 0, the first motion vector, which is the first motion information, is regarded as being in a non-operation state. This can be realized by setting Vec_x1, Vec_y1) = (1, 1).

このようにすれば、操作状態なのか、非操作状態なのかを判別し、非操作状態での第2動き情報を第3動き情報と見なして処理を行うだけで、ブレ補正処理を実現できるようになる。従って、処理を更に簡素化できるようになり、例えば少ない処理負荷でのブレ補正処理を実現できるようになる。   In this way, it is possible to realize the shake correction process only by determining whether the operation state is in the non-operation state, and processing the second motion information in the non-operation state as the third motion information. become. Therefore, the process can be further simplified, and for example, a blur correction process with a small processing load can be realized.

更に具体的には、第3動き情報算出部360aは、操作状態の際には第2動き情報についての積算処理を行わず、非操作状態の際には第2動き情報についての積算処理を行うことで、第3動き情報を求める。具体的には、前述の式(4)において、非操作状態の際には、(Vec_x1,Vec_y1)=(1,1)になることで、第2動き情報について積算処理が行われて、第3動き情報(Vec_x3,Vec_y3)が求められるようになる。   More specifically, the third motion information calculation unit 360a does not perform integration processing for the second motion information in the operation state, and performs integration processing for the second motion information in the non-operation state. Thus, the third motion information is obtained. Specifically, in the above-described equation (4), in the non-operation state, (Vec_x1, Vec_y1) = (1, 1) is satisfied, so that the integration process is performed on the second motion information. Three motion information (Vec_x3, Vec_y3) is obtained.

このようにすれば、積算処理の制御を行うだけで、非操作状態の際に取得された第2動き情報に基づいて、第3動き情報を求めることが可能になり、処理の簡素化を図れる。   If it does in this way, it will become possible to obtain the 3rd movement information based on the 2nd movement information acquired at the time of a non-operation state only by controlling accumulation processing, and it can attain simplification of a process. .

また第3動き情報算出部360aは、図19に示すように、積算処理を行う積算部361a(動きベクトル積算部)と、積算処理の結果を記憶する記憶部362(動きベクトル記憶部)を含む。そして積算部361aは、記憶部362に記憶される前回までの積算結果(例えば1フレーム前の積算結果)と、今回の第2動き情報(今回のフレームでの第2動き情報)とに基づいて、積算演算を行って今回の積算結果を求め、求められた今回の積算結果を記憶部362に書き込む。即ち、前述の式(4)に示した積算処理を、図19に示すような構成の第3動き情報算出部360aで実現する。   As shown in FIG. 19, the third motion information calculation unit 360 a includes an integration unit 361 a (motion vector integration unit) that performs integration processing, and a storage unit 362 (motion vector storage unit) that stores the results of the integration processing. . Then, the integration unit 361a is based on the integration results up to the previous time (for example, the integration result one frame before) stored in the storage unit 362 and the current second motion information (second motion information in the current frame). Then, the integration calculation is performed to obtain the current integration result, and the obtained current integration result is written in the storage unit 362. That is, the integration process shown in the above equation (4) is realized by the third motion information calculation unit 360a configured as shown in FIG.

このようにすれば、積算処理による第3動き情報の算出を、簡素な構成の第3動き情報算出部360aで実行できるようになる。   In this way, calculation of the third motion information by the integration process can be performed by the third motion information calculation unit 360a having a simple configuration.

また、この場合に、図19の積算部361aは、前回までの積算結果(例えば1フレーム目の積算結果)と、前回までの積算結果を減衰させるための減衰係数と、今回の第2動き情報(今回のフレームの積算結果)とに基づいて、積算演算を行って今回の積算結果を求める。そしてブレ補正処理部370は、第3動き情報で表される動きの大きさが所与のしきい値よりも大きいと判断された場合には、ブレ補正処理をオフにする。   Also, in this case, the integration unit 361a in FIG. 19 performs the previous integration result (for example, the first frame integration result), the attenuation coefficient for attenuating the previous integration result, and the second motion information of this time. Based on (the integration result of the current frame), the integration calculation is performed to obtain the current integration result. When it is determined that the magnitude of the motion represented by the third motion information is greater than a given threshold, the blur correction processing unit 370 turns off the blur correction process.

具体的には、前述の式(4)に示すように、減衰係数Cx、Cy(Cx<1、Cy<1)を設定し、この減衰係数Cx、Cyを、例えば、記憶部362に保持されている動きベクトル(Vec_x_mem,Vec_y_mem)に乗算することで、前回までの積算結果を減衰させる積算処理を実現する。   Specifically, as shown in the above equation (4), attenuation coefficients Cx and Cy (Cx <1, Cy <1) are set, and the attenuation coefficients Cx and Cy are held in, for example, the storage unit 362. By multiplying the motion vector (Vec_x_mem, Vec_y_mem), the integration process for attenuating the previous integration result is realized.

このような減衰係数を用いれば、第3動き情報が時間経過と共に緩やかに減少するようになり、第3動き情報で表される動きの大きさが所与のしきい値(space_x,space_y)より大きくなることを抑制できるようになる。   If such an attenuation coefficient is used, the third motion information gradually decreases with time, and the magnitude of the motion represented by the third motion information is larger than a given threshold value (space_x, space_y). It becomes possible to suppress the increase.

そして、前述の式(6)で説明したように、第3動き情報で表される動きの大きさが所与のしきい値(space_x,space_y)よりも大きくなると、ブレ補正処理がオフになる。即ち、式(6)において、R’G’B’画像を抽出する際の始点座標(st_x,st_y)が固定値になることで、ブレ補正処理が実行されないようになる。   Then, as described in the above equation (6), when the magnitude of the motion represented by the third motion information is larger than a given threshold value (space_x, space_y), the blur correction process is turned off. . That is, in Expression (6), the start point coordinates (st_x, st_y) when extracting the R′G′B ′ image are fixed values, so that the blur correction process is not executed.

このようにすれば、例えばブレの方向が、ある一定の方向のみに発生するような特徴を有していた場合に、ブレ補正処理の機能をオフにすることが可能になる。例えば、後述するようにドクターがスコープの挿入・抜去を行っている場合には、ブレの方向が、ある一定の方向のみに発生するようになり、このような場合にブレ補正処理をオフにできるようになる。   In this way, for example, when the blur direction has a characteristic that occurs only in a certain direction, the function of the blur correction process can be turned off. For example, as described later, when a doctor inserts or removes a scope, the direction of blurring occurs only in a certain direction. In such a case, blurring correction processing can be turned off. It becomes like this.

また第1動き情報検出部350aは、第1動き情報に基づいて操作状態か否かを検出する。例えば前述の式(3)において、θh_dif,θv_difの両方が0である場合には、非操作状態(非操作期間)であると判断し、いずれか一方が0ではない場合には、操作状態(操作期間)であると判断する。このようにすれば、第1動き情報を判断するだけで、操作状態か非操作状態かを判別できるようになり、処理を簡素化できる。   In addition, the first motion information detection unit 350a detects whether or not the operation state is based on the first motion information. For example, in the above-described equation (3), when both θh_dif and θv_dif are 0, it is determined that the non-operation state (non-operation period), and when either one is not 0, the operation state ( Operation period). In this way, it is possible to determine whether the operation state or the non-operation state by only determining the first motion information, and the processing can be simplified.

例えば、撮像部228の撮像視野を動かす操作は、操作部250を用いて行われる操作である。この場合に第1動き情報検出部350aは、操作部250の操作情報に基づいて、操作状態か否かを検出する。即ち図5の操作状態取得部340が、操作部250からの操作情報を取得し、第1動き情報検出部350aは、このようにして取得された操作情報に基づいて、操作状態なのか、非操作状態なのかを判定する。このようにすれば、操作部250を介して撮像視野を動かす操作が行われたか否かを、操作情報を用いた簡素な処理で判別できるようになる。   For example, the operation of moving the imaging field of the imaging unit 228 is an operation performed using the operation unit 250. In this case, the first motion information detection unit 350a detects whether or not the operation state is set based on the operation information of the operation unit 250. That is, the operation state acquisition unit 340 in FIG. 5 acquires operation information from the operation unit 250, and the first motion information detection unit 350a determines whether the operation state is based on the operation information acquired in this way. It is determined whether the operation state. In this way, it is possible to determine whether or not an operation for moving the imaging field of view has been performed via the operation unit 250 by a simple process using the operation information.

そして例えば内視鏡装置の場合には、操作部250は、例えば図8に示す内視鏡スコープにおけるアングルノブ10である。そして第1動き情報検出部350aは、アングルノブの回転角度が時間的に変動する場合に、操作状態であると検出する。具体的には、回転角度の変化量であるθh_dif,θv_difのいずれか一方が0ではない場合には、操作状態であると判定する。一方、θh_dif,θv_difの両方が0である場合には、非操作状態であると判定する。   For example, in the case of an endoscope apparatus, the operation unit 250 is the angle knob 10 in the endoscope scope shown in FIG. 8, for example. Then, the first motion information detection unit 350a detects that it is in the operation state when the rotation angle of the angle knob varies with time. Specifically, when one of θh_dif and θv_dif, which is the amount of change in the rotation angle, is not 0, it is determined that the operation state is set. On the other hand, when both θh_dif and θv_dif are 0, it is determined that the state is a non-operation state.

また第2動き情報検出部330は、第2動き情報を第2動きベクトルとして検出する。そして第3動き情報算出部360aは、検出された第2動きベクトルのうち、撮像視野の移動方向と直交する方向の動きベクトルを、第3動き情報である第3動きベクトルとして求める。   In addition, the second motion information detection unit 330 detects the second motion information as a second motion vector. Then, the third motion information calculation unit 360a obtains a motion vector in a direction orthogonal to the moving direction of the imaging view among the detected second motion vectors as the third motion vector that is the third motion information.

具体的には、前述のように、θh_dif=0,θv_dif=0の場合には、第1動きベクトル(Vec_x1,Vec_y1)を(1, 1)とし、θh_dif≠0,θv_dif=0の場合には、(Vec_x1,Vec_y1)を(0, 1)とするなどの処理を行う。そして、このようにして求められた第1動きベクトル(Vec_x1,Vec_y1)で、前述の式(4)のように第3動きベクトル(Vec_x3,Vec_y3)を求める。このようにすることで、第2動きベクトルのうち、撮像視野の移動方向と直交する方向の動きベクトルを、第3動きベクトルとして求めることが可能になる。   Specifically, as described above, when θh_dif = 0 and θv_dif = 0, the first motion vector (Vec_x1, Vec_y1) is set to (1, 1), and when θh_dif ≠ 0 and θv_dif = 0. , (Vec_x1, Vec_y1) is set to (0, 1). Then, the third motion vector (Vec_x3, Vec_y3) is obtained from the first motion vector (Vec_x1, Vec_y1) obtained in this way as in the above-described equation (4). By doing in this way, it becomes possible to obtain | require the motion vector of the direction orthogonal to the moving direction of an imaging visual field as a 3rd motion vector among 2nd motion vectors.

また図5では、撮像部228は、人などの被検体に挿入される挿入部200の先端に設けられている。この場合に、撮像部228の撮像視野を動かす操作は、挿入部200の先端の湾曲部材を湾曲させて先端を所与の方向に向ける操作である。即ち、挿入部200である内視鏡スコープの先端の湾曲部材を湾曲させて所与の方向(ドクター等が所望する方向)に向ける操作である。   In FIG. 5, the imaging unit 228 is provided at the distal end of the insertion unit 200 that is inserted into a subject such as a person. In this case, the operation of moving the imaging field of the imaging unit 228 is an operation of bending the bending member at the distal end of the insertion unit 200 and directing the distal end in a given direction. That is, this is an operation in which the bending member at the distal end of the endoscope scope which is the insertion unit 200 is bent and directed in a given direction (a direction desired by a doctor or the like).

具体的には、撮像部228の撮像視野を動かす操作は、湾曲部材の湾曲状態を制御する操作部250を用いて行われる操作である。内視鏡装置を例にとれば、この操作部250は、図8に示すような、湾曲部材の湾曲状態を制御するアングルノブである。   Specifically, the operation of moving the imaging field of the imaging unit 228 is an operation performed using the operation unit 250 that controls the bending state of the bending member. Taking the endoscope apparatus as an example, the operation unit 250 is an angle knob for controlling the bending state of the bending member as shown in FIG.

即ち、挿入部200は、その大半の部分が柔軟性を有する軟性部であり、その先端部は、照明窓や観察窓等を設ける関係で硬質部になる。この硬質部と軟性部の間に、アングル部が設けられ、アングルノブ(アングル操作装置)を用いて、アングル部を湾曲させることによって、挿入部200の硬質部を所望の方向に向けられるようになる。なお、撮像視野を動かす操作は、このような操作に限定されるものではなく、本実施形態の画像処理装置が適用される装置に応じて、種々の変形実施が可能である。   That is, most of the insertion portion 200 is a flexible portion having flexibility, and the distal end portion is a hard portion because an illumination window, an observation window, and the like are provided. An angle portion is provided between the hard portion and the soft portion, and the angle portion is bent using an angle knob (angle operation device) so that the hard portion of the insertion portion 200 can be directed in a desired direction. Become. The operation for moving the imaging field of view is not limited to such an operation, and various modifications can be made depending on the apparatus to which the image processing apparatus of the present embodiment is applied.

また、撮像視野を動かす操作が操作部250を用いて行われる操作である場合に、第1動き情報検出部350aは、操作部250の操作情報に基づいて、撮像部の撮像視野を動かす操作を検出して第1動き情報を求める。   When the operation for moving the imaging field is an operation performed using the operation unit 250, the first motion information detection unit 350a performs an operation for moving the imaging field of the imaging unit based on the operation information of the operation unit 250. Detect and obtain first motion information.

アングルノブを例にとれば、操作情報として回転角度θh、θvが操作状態取得部340により取得される。そして、前述のように、この回転角度θh、θvから、回転角度の変化量θh_dif,θv_difが求められ、回転角度の変化量θh_dif,θv_difから第1動きベクトル(Vec_x1,Vec_y1)が求められる。そして前述の式(4)により第3動きベクトル(Vec_x3,Vec_y3)が求められる。このようにすれば、操作情報から簡素な検出処理で、第1動き情報を検出できるようになる。   Taking an angle knob as an example, the rotation angles θh and θv are acquired by the operation state acquisition unit 340 as operation information. As described above, the rotation angle changes θh_dif and θv_dif are obtained from the rotation angles θh and θv, and the first motion vector (Vec_x1, Vec_y1) is obtained from the rotation angle changes θh_dif and θv_dif. Then, the third motion vector (Vec_x3, Vec_y3) is obtained by the above equation (4). In this way, the first motion information can be detected from the operation information with a simple detection process.

また第1動き情報検出部350aは、操作部250の操作情報に基づいて、撮像部228の撮像視野の移動方向を検出する。例えば図9のH方向やV方向での移動方向を検出する。このようにすることで、第1動き情報である第1動きベクトルの方向を検出できるようになる。   The first motion information detection unit 350 a detects the moving direction of the imaging field of the imaging unit 228 based on the operation information of the operation unit 250. For example, the movement direction in the H direction or the V direction in FIG. 9 is detected. In this way, the direction of the first motion vector that is the first motion information can be detected.

具体的には、操作部250は、撮像部の撮像視野を図9の水平方向Hに動かすための水平方向操作部を含む。アングルノブを例にとれば、水平方向操作部は、図8に示す水平方向用アングルノブ(RLアングルノブ)である。この場合に第1動き情報検出部350aは、水平方向操作部の操作情報に基づいて、撮像部228の撮像視野の水平方向での移動を検出する。例えば図9の水平方向Hでの撮像視野の動きを検出する。   Specifically, the operation unit 250 includes a horizontal direction operation unit for moving the imaging field of the imaging unit in the horizontal direction H in FIG. Taking an angle knob as an example, the horizontal operation unit is a horizontal angle knob (RL angle knob) shown in FIG. In this case, the first motion information detection unit 350a detects the movement of the imaging field of the imaging unit 228 in the horizontal direction based on the operation information of the horizontal direction operation unit. For example, the movement of the imaging visual field in the horizontal direction H in FIG. 9 is detected.

また操作部250は、撮像部の撮像視野を図9の垂直方向Vに動かすための垂直方向操作部を含む。アングルノブを例にとれば、垂直方向操作部は、図8に示す垂直方向用アングルノブ(UDアングルノブ)である。この場合に第1動き情報検出部350aは、垂直方向操作部の操作情報に基づいて、撮像部228の撮像視野の垂直方向での移動を検出する。例えば図9の垂直方向Vでの撮像視野の動きを検出する。   The operation unit 250 includes a vertical operation unit for moving the imaging field of the imaging unit in the vertical direction V in FIG. Taking an angle knob as an example, the vertical operation unit is a vertical angle knob (UD angle knob) shown in FIG. In this case, the first motion information detection unit 350a detects the movement of the imaging field of the imaging unit 228 in the vertical direction based on the operation information of the vertical direction operation unit. For example, the movement of the imaging visual field in the vertical direction V in FIG. 9 is detected.

このようにすれば、ドクター等がアングルノブ等を用いて、水平方向や垂直方向に撮像視野を変更する操作を行った場合に、この操作による撮像視野の変化が画像ブレと見なされて撮像視野が固定されてしまう事態を抑止できるようになる。   In this way, when a doctor or the like performs an operation of changing the imaging field of view in the horizontal direction or the vertical direction using an angle knob or the like, the change in the imaging field due to this operation is regarded as image blurring and the imaging field of view is changed. It becomes possible to deter the situation that is fixed.

3.第2の構成例
図20に、本実施形態の画像処理装置及びこれを含む内視鏡装置(内視鏡システム)の第2の構成例を示す。
3. Second Configuration Example FIG. 20 shows a second configuration example of the image processing apparatus of the present embodiment and an endoscope apparatus (endoscope system) including the image processing apparatus.

図20の第2の構成例の内視鏡装置は、図4(A)、図4(B)の第2の手法を実現する構成例であり、光源部100と、挿入部200と、画像処理装置300と、表示部400と、外部I/F部500を含む。また第2の構成例の画像処理装置300は、画像取得部308と、第2動きベクトル検出部330と、操作状態取得部340と、第1動きベクトル検出部350bと、第3動きベクトル算出部360bと、ブレ補正処理部370と、表示画像生成部380と、制御部390を含む。画像取得部308は、例えば補間処理部310と、輝度画像生成部320により構成される。なお本実施形態の内視鏡装置、画像処理装置は図20の構成に限定されず、これらの構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また光源部100、表示部400、外部I/F部500等の構成は、図5の第1の構成例と同様であるため詳細な説明を省略する。以降の説明において、第1の構成例と同様の処理・構成を有するものについては、適宜説明を省略するものとする。   The endoscope apparatus of the second configuration example of FIG. 20 is a configuration example that realizes the second technique of FIGS. 4A and 4B, and includes a light source unit 100, an insertion unit 200, and an image. The processing apparatus 300, the display part 400, and the external I / F part 500 are included. The image processing apparatus 300 of the second configuration example includes an image acquisition unit 308, a second motion vector detection unit 330, an operation state acquisition unit 340, a first motion vector detection unit 350b, and a third motion vector calculation unit. 360 b, a shake correction processing unit 370, a display image generation unit 380, and a control unit 390. The image acquisition unit 308 includes, for example, an interpolation processing unit 310 and a luminance image generation unit 320. Note that the endoscope apparatus and the image processing apparatus according to the present embodiment are not limited to the configuration shown in FIG. 20, and various modifications such as omitting some of these components or adding other components are possible. It is. The configuration of the light source unit 100, the display unit 400, the external I / F unit 500, and the like is the same as that of the first configuration example of FIG. In the following description, descriptions of processes and configurations similar to those of the first configuration example will be omitted as appropriate.

挿入部200は、ライトガイドファイバ210と、照明レンズ220と、撮像部228と、操作部250と、レンズ制御部260と、メモリ270を含む。撮像部228は例えば集光レンズ230と撮像素子240により構成される。集光レンズ230と、レンズ制御部260と、メモリ270以外は、図5の第1の構成例と同様であるため、詳細な説明を省略する。なお、以下の説明では、挿入部200を単にスコープ(内視鏡スコープ)とも表記する。   The insertion unit 200 includes a light guide fiber 210, an illumination lens 220, an imaging unit 228, an operation unit 250, a lens control unit 260, and a memory 270. The imaging unit 228 includes, for example, a condenser lens 230 and an imaging element 240. Except for the condensing lens 230, the lens control unit 260, and the memory 270, the configuration is the same as the first configuration example of FIG. In the following description, the insertion unit 200 is also simply referred to as a scope (endoscope scope).

レンズ制御部260は、集光レンズ230に接続されている。また、メモリ270は、制御部390に接続されている。   The lens control unit 260 is connected to the condenser lens 230. Further, the memory 270 is connected to the control unit 390.

メモリ270には、各スコープ固有の識別番号が保持されている。従って、制御部390はメモリ270の識別番号を参照することにより、接続されているスコープの種類を識別可能である。   The memory 270 holds an identification number unique to each scope. Therefore, the control unit 390 can identify the type of the connected scope by referring to the identification number in the memory 270.

また、本実施形態において、集光レンズ230は、合焦位置dとズーム位置fを制御可能であるものとする。ここで、合焦位置dとは、ピントが合う場合における集光レンズ230と被写体との間の距離を表すものとする。また、ズーム位置fとは、集光レンズ230の光学中心と撮像素子240との距離を表すものとする。   In the present embodiment, it is assumed that the condenser lens 230 can control the focus position d and the zoom position f. Here, the focus position d represents the distance between the condenser lens 230 and the subject when the subject is in focus. The zoom position f represents the distance between the optical center of the condenser lens 230 and the image sensor 240.

合焦位置dは、例えばdmin〜dmax[mm]の範囲で制御できるものとする(dmax>dmin)。一般に、合焦位置dが小さい場合には、被写体に、より近接できるため、拡大観察が可能である。またズーム位置fは、例えばfmin〜fmax[mm]の範囲で制御できるものとする。一般に、ズーム位置fが大きい場合には画角が狭くなるため、拡大観察が可能である。そのため本実施形態では、合焦位置dが“dmax”であり且つズーム位置fが“fmin”である場合を、通常観察状態(非拡大観察状態)と定義する。一方、合焦位置dとズーム位置fが上記以外の値である場合には、拡大観察状態にあるものと定義する。なお、集光レンズ230の合焦位置d及びズーム位置fは、レンズ制御部260(合焦位置制御部、ズーム位置制御部)が制御(変更)する。   The in-focus position d can be controlled, for example, in the range of dmin to dmax [mm] (dmax> dmin). Generally, when the in-focus position d is small, the subject can be closer to the subject, so that magnified observation is possible. The zoom position f can be controlled in the range of fmin to fmax [mm], for example. In general, when the zoom position f is large, the angle of view becomes narrow, so that magnified observation is possible. Therefore, in the present embodiment, the case where the in-focus position d is “dmax” and the zoom position f is “fmin” is defined as a normal observation state (non-magnification observation state). On the other hand, when the in-focus position d and the zoom position f are values other than those described above, it is defined as being in a magnified observation state. The focusing position d and the zoom position f of the condenser lens 230 are controlled (changed) by the lens control unit 260 (focusing position control unit, zoom position control unit).

また、合焦位置d、ズーム位置fの値は、例えばユーザが外部I/F部500より設定する構成とすればよい。この場合、まずユーザが設定した合焦位置d、ズーム位置fが、制御部390に出力される。そして、制御部390が、設定された合焦位置d、ズーム位置fをレンズ制御部260に出力し、レンズ制御部260が、集光レンズ230の合焦位置d、ズーム位置fを変更する。更に制御部390は、合焦位置d、ズーム位置fを、後述する第1動きベクトル検出部350bにも出力するものとする。   Moreover, what is necessary is just to set it as the structure which a user sets from the external I / F part 500, for example, the value of the focus position d and the zoom position f. In this case, first, the focus position d and zoom position f set by the user are output to the control unit 390. Then, the control unit 390 outputs the set focus position d and zoom position f to the lens control unit 260, and the lens control unit 260 changes the focus position d and zoom position f of the condenser lens 230. Further, the control unit 390 outputs the in-focus position d and the zoom position f to the first motion vector detection unit 350b described later.

制御部390は、第1動きベクトル検出部350bと、第2動きベクトル検出部330と、ブレ補正処理部370と、レンズ制御部260に接続されている。第1動きベクトル検出部350b、及び第3動きベクトル算出部360b以外の処理は、第1の構成例と同様であるため説明を省略する。   The control unit 390 is connected to the first motion vector detection unit 350b, the second motion vector detection unit 330, the blur correction processing unit 370, and the lens control unit 260. Since the processes other than the first motion vector detection unit 350b and the third motion vector calculation unit 360b are the same as those in the first configuration example, the description thereof is omitted.

ここで、アングルノブ(操作部250)の回転角度と、撮像視野の変化の方向について説明する。本実施形態では、水平方向アングルノブを右周りに回転させた場合には、撮像視野が図21の“Ha”方向に変化するものとし、逆に左周りに回転させた場合は、撮像視野が図21の“Hb”方向に変化するものと定義する。また、垂直方向アングルノブについても同様に、アングルノブを右回りに回転させた場合に、撮像視野が図21の“Va”方向に変化するものとし、アングルノブを左周りに回転させた場合に、撮像視野が図21の“Vb”方向に変化するものと定義する。   Here, the rotation angle of the angle knob (operation unit 250) and the direction of change in the imaging field of view will be described. In this embodiment, when the horizontal angle knob is rotated clockwise, the imaging field of view changes in the “Ha” direction of FIG. 21, and conversely when rotated counterclockwise, the imaging field of view is changed. It is defined as changing in the “Hb” direction of FIG. Similarly, in the case of the vertical angle knob, when the angle knob is rotated clockwise, the imaging field of view changes in the “Va” direction of FIG. 21, and when the angle knob is rotated counterclockwise. The imaging field is defined as changing in the “Vb” direction of FIG.

また、本実施形態では、例えば水平方向アングルノブをθ[deg]だけ回転させた場合には、スコープ先端のアングルもθ[deg]だけ変化するものとする。   In the present embodiment, for example, when the horizontal angle knob is rotated by θ [deg], the angle at the scope tip also changes by θ [deg].

第1動きベクトル検出部350b(第1動き情報検出部)は、図22に示すように、変化量算出部351と、回転角度記憶部352と、動きベクトル算出部353bを含む。制御部390は、動きベクトル算出部353bに接続されている。動きベクトル算出部353bは、第3動きベクトル算出部360bに接続されている。操作状態取得部340は変化量算出部351に接続されている。変化量算出部351と、回転角度記憶部352は、第1の構成例と同様であるため、説明を省略する。   As illustrated in FIG. 22, the first motion vector detection unit 350b (first motion information detection unit) includes a change amount calculation unit 351, a rotation angle storage unit 352, and a motion vector calculation unit 353b. The control unit 390 is connected to the motion vector calculation unit 353b. The motion vector calculation unit 353b is connected to the third motion vector calculation unit 360b. The operation state acquisition unit 340 is connected to the change amount calculation unit 351. Since the change amount calculation unit 351 and the rotation angle storage unit 352 are the same as those in the first configuration example, description thereof is omitted.

動きベクトル算出部353bは、変化量算出部351より出力される回転角度の変化量θh_dif,θv_dif[deg]、及び制御部390より出力される合焦位置d[mm]、ズーム位置f[mm]に基づいて、第1動きベクトル(Vec_x1,Vec_y1)を求める。本実施形態において第1動きベクトル(Vec_x1,Vec_y1)は、後述するようにアングルノブの操作に起因する動きベクトルである。   The motion vector calculation unit 353b includes the rotation angle changes θh_dif and θv_dif [deg] output from the change calculation unit 351, the in-focus position d [mm] and the zoom position f [mm] output from the control unit 390. Based on the above, the first motion vector (Vec_x1, Vec_y1) is obtained. In the present embodiment, the first motion vector (Vec_x1, Vec_y1) is a motion vector resulting from the operation of the angle knob, as will be described later.

ここで、回転角度の変化量θh_dif,θv_dif[deg]と、画像上での動きベクトルの関係について説明する。ここでは、説明のために、水平方向アングルノブのみが操作される場合(θv_dif=0)を考える。   Here, the relationship between the change amounts θh_dif and θv_dif [deg] of the rotation angle and the motion vector on the image will be described. Here, for the sake of explanation, consider the case where only the horizontal angle knob is operated (θv_dif = 0).

今、ある時刻t−1において、挿入部200の先端と被写体が、図23に示す位置関係にある場合を想定する。そしてこの場合に撮像素子240で図25に示す画像が取得されるものと仮定する。なお、図23において、“S”はスコープのアングルが変更される場合の支点に相当する。また、“L”は支点と挿入部200の先端との間の距離であり、“d”は合焦位置である。   Now, assume that the tip of the insertion unit 200 and the subject are in the positional relationship shown in FIG. 23 at a certain time t-1. In this case, it is assumed that the image shown in FIG. In FIG. 23, “S” corresponds to a fulcrum when the angle of the scope is changed. “L” is a distance between the fulcrum and the tip of the insertion portion 200, and “d” is a focus position.

ここで、次の時刻tにおいて、水平方向アングルノブが左周りにθh_difだけ操作された場合を考える。このとき、挿入部200の先端のアングルも図24に示すように、θh_difだけ変化する。この場合、撮像素子240では、図26に示す画像が取得される。図26の“dx_img”は、アングルノブの操作に起因する動きベクトルに相当する。   Here, consider a case where the horizontal angle knob is operated counterclockwise by θh_dif at the next time t. At this time, the angle at the tip of the insertion portion 200 also changes by θh_dif as shown in FIG. In this case, the image sensor 240 acquires the image shown in FIG. “Dx_img” in FIG. 26 corresponds to a motion vector resulting from the operation of the angle knob.

アングルノブの操作に起因する動きベクトル“dx_img”は、図24に示した“dx”に相当する。従って、アングルノブの操作に起因する動きベクトル“dx_img”は、下式(7)を用いて算出することが可能である。   The motion vector “dx_img” resulting from the operation of the angle knob corresponds to “dx” shown in FIG. Therefore, the motion vector “dx_img” resulting from the operation of the angle knob can be calculated using the following equation (7).

なお、図24に示した“dx”は、実空間における距離(例えば[mm])であり、図26に示した“dx_img”は、画像上における距離[pixels]である。そのため、アングルノブの操作に起因する動きベクトル“dx_img”を算出するためには、上式(7)に示した変換係数“Cod[pixels/mm]”が必要となる。   Note that “dx” illustrated in FIG. 24 is a distance (for example, [mm]) in real space, and “dx_img” illustrated in FIG. 26 is a distance [pixels] on the image. Therefore, in order to calculate the motion vector “dx_img” resulting from the operation of the angle knob, the conversion coefficient “Cod [pixels / mm]” shown in the above equation (7) is required.

ここで、上記の変換係数“Cod”は、合焦位置d[mm]、ズーム位置f[mm]、及び撮像素子の画素ピッチP[mm/pixels]によって定まる。具体的には、上記変換係数“Cod”は、下式(8)を用いて算出可能である。   Here, the conversion coefficient “Cod” is determined by the focus position d [mm], the zoom position f [mm], and the pixel pitch P [mm / pixels] of the image sensor. Specifically, the conversion coefficient “Cod” can be calculated using the following equation (8).

以上より、第1動きベクトル(Vec_x1,Vec_y1)は、下式(9)を用いて算出することができる。動きベクトル算出部353bは、下式(9)を用いて第1動きベクトル(Vec_x1,Vec_y1)を算出し、第3動きベクトル算出部360bに出力する。   From the above, the first motion vector (Vec_x1, Vec_y1) can be calculated using the following equation (9). The motion vector calculation unit 353b calculates the first motion vector (Vec_x1, Vec_y1) using the following equation (9), and outputs the first motion vector to the third motion vector calculation unit 360b.

上式(8)及び(9)において、“L,P”の値は、接続されるスコープにより異なるが、制御部390は、メモリ270に保持されている識別番号を参照することで、接続されているスコープの種類を識別し、“L,P”の値を取得可能である。   In the above equations (8) and (9), the value of “L, P” varies depending on the connected scope, but the control unit 390 is connected by referring to the identification number held in the memory 270. It is possible to identify the type of scope that is present and obtain the values of “L, P”.

第3動きベクトル算出部360bは、第1動きベクトル(Vec_x1,Vec_y1)、及び第2動きベクトル(Vec_x2,Vec_y2)に基づき、後述する手法により、第3動きベクトル(Vec_x3,Vec_y3)を算出する。   Based on the first motion vector (Vec_x1, Vec_y1) and the second motion vector (Vec_x2, Vec_y2), the third motion vector calculation unit 360b calculates a third motion vector (Vec_x3, Vec_y3) by a method described later.

第3動きベクトル算出部360b(第3動き情報算出部)は、図27に示すように、動きベクトル減算部363と、動きベクトル判定部364と、平均動きベクトル算出部365と、動きベクトル積算部361bと、動きベクトル記憶部362を含む。第1動きベクトル検出部350bと第2動きベクトル検出部330は、動きベクトル減算部363に接続されている。動きベクトル減算部363は、動きベクトル判定部364に接続されている。動きベクトル判定部364は、平均動きベクトル算出部365と動きベクトル積算部361bに接続されている。平均動きベクトル算出部365は、動きベクトル積算部361bに接続されている。動きベクトル積算部361bと動きベクトル記憶部362は双方向に接続されている。動きベクトル積算部361bは、ブレ補正処理部370に接続されている。   As shown in FIG. 27, the third motion vector calculation unit 360b (third motion information calculation unit) includes a motion vector subtraction unit 363, a motion vector determination unit 364, an average motion vector calculation unit 365, and a motion vector integration unit. 361b and a motion vector storage unit 362. The first motion vector detection unit 350b and the second motion vector detection unit 330 are connected to the motion vector subtraction unit 363. The motion vector subtraction unit 363 is connected to the motion vector determination unit 364. The motion vector determination unit 364 is connected to the average motion vector calculation unit 365 and the motion vector integration unit 361b. The average motion vector calculation unit 365 is connected to the motion vector integration unit 361b. The motion vector integration unit 361b and the motion vector storage unit 362 are connected bidirectionally. The motion vector integration unit 361b is connected to the shake correction processing unit 370.

動きベクトル減算部363は、第2動きベクトル(Vec_x2,Vec_y2)より第1動きベクトル(Vec_x1,Vec_y1)を減算する処理を施す。ここでは減算処理後の動きベクトルを差分動きベクトル(Vec_sub_x,Vec_sub_y)と表記する。   The motion vector subtraction unit 363 performs a process of subtracting the first motion vector (Vec_x1, Vec_y1) from the second motion vector (Vec_x2, Vec_y2). Here, the motion vector after the subtraction process is expressed as a differential motion vector (Vec_sub_x, Vec_sub_y).

差分動きベクトル(Vec_sub_x,Vec_sub_y)は、下式(10)を用いて算出する。   The difference motion vector (Vec_sub_x, Vec_sub_y) is calculated using the following equation (10).

動きベクトル減算部363は、上式(10)により算出した差分動きベクトル(Vec_sub_x,Vec_sub_y)を、動きベクトル判定部364に出力する。   The motion vector subtraction unit 363 outputs the difference motion vector (Vec_sub_x, Vec_sub_y) calculated by the above equation (10) to the motion vector determination unit 364.

上述したように、第1動きベクトルは、アングル操作に起因した動きベクトル(撮像視野の動かす操作に起因する動きベクトル)であり、第2動きベクトルは、フレーム間動きベクトル(画像間動きベクトル)である。従って、上式(10)により算出される差分動きベクトルは、フレーム間動きベクトルから、アングル操作に起因した動きベクトルを除外した動きベクトルに相当する。しかし、この差分動きベクトルには、手ブレや被写体の拍動によるブレ以外にも、スコープの挿入・抜去に起因した動きベクトルも含まれる。   As described above, the first motion vector is a motion vector resulting from an angle operation (a motion vector resulting from an operation for moving the imaging field of view), and the second motion vector is an inter-frame motion vector (an inter-image motion vector). is there. Therefore, the differential motion vector calculated by the above equation (10) corresponds to a motion vector obtained by excluding the motion vector resulting from the angle operation from the inter-frame motion vector. However, this differential motion vector includes motion vectors resulting from the insertion / removal of the scope, in addition to camera shake and blur due to the pulsation of the subject.

そのため、この差分動きベクトルに基づいてブレ補正処理を施した場合、スコープの挿入・抜去により撮像視野を変更したいのに、ブレ補正処理により視野が固定されてしまう問題を生じる。そこで、本実施形態では上述の問題を改善するために、後述する手法により、スコープの挿入・抜去に起因した動きベクトルを除外する。   Therefore, when blur correction processing is performed based on the difference motion vector, there is a problem that the field of view is fixed by blur correction processing even though it is desired to change the imaging visual field by inserting or removing the scope. Therefore, in this embodiment, in order to improve the above-described problem, motion vectors resulting from the insertion / extraction of the scope are excluded by a method described later.

動きベクトル判定部364は、差分動きベクトル(Vec_sub_x,Vec_sub_y)に対し、しきい値(th_x,th_y)を用いた判定処理を施す。具体的な判定処理としては、例えば下式(11)を用いる。   The motion vector determination unit 364 performs determination processing using threshold values (th_x, th_y) on the differential motion vectors (Vec_sub_x, Vec_sub_y). As a specific determination process, for example, the following expression (11) is used.

動きベクトル判定部364は、上式(11)による判定処理後の差分動きベクトル(Vec_sub_x,Vec_sub_y)を、平均動きベクトル算出部365、及び動きベクトル積算部361bに出力する。   The motion vector determination unit 364 outputs the difference motion vector (Vec_sub_x, Vec_sub_y) after the determination processing according to the above equation (11) to the average motion vector calculation unit 365 and the motion vector integration unit 361b.

平均動きベクトル算出部365は、動きベクトル判定部364より出力される、差分動きベクトル(Vec_sub_x,Vec_sub_y)より平均動きベクトル(Vec_ave_x,Vec_ave_y)を算出する。   The average motion vector calculation unit 365 calculates an average motion vector (Vec_ave_x, Vec_ave_y) from the difference motion vector (Vec_sub_x, Vec_sub_y) output from the motion vector determination unit 364.

なお、ここでは、現在のフレーム(時刻t)より検出された差分動きベクトルを(Vec_sub_xt,Vec_sub_yt)、現フレームのnフレーム前に検出された差分動きベクトルを(Vec_sub_xt―n,Vec_sub_yt―n)と表記する。   Here, the differential motion vector detected from the current frame (time t) is (Vec_sub_xt, Vec_sub_yt), and the differential motion vector detected n frames before the current frame is (Vec_sub_xt-n, Vec_sub_yt-n). write.

このとき、平均動きベクトル(Vec_ave_x,Vec_ave_y)は、例えば下式(12)を用いて算出すればよい。   At this time, the average motion vector (Vec_ave_x, Vec_ave_y) may be calculated using, for example, the following equation (12).

但し、上式(12)において、Mは加算平均処理に用いるフレーム数に相当する。Mの値としては例えば、M=10とすればよい。また、Fnumは、ブレ補正が開始されてから取得されたフレーム数を表すものとする(初期フレームにおいて、Fnum=1とする)。   However, in the above equation (12), M corresponds to the number of frames used for the averaging process. For example, the value of M may be M = 10. Also, Fnum represents the number of frames acquired since the start of blur correction (Fnum = 1 in the initial frame).

動きベクトル積算部361bは、動きベクトル判定部364より出力される差分動きベクトル(Vec_sub_x,Vec_sub_y)、平均動きベクトル算出部365より出力される平均動きベクトル(Vec_ave_x,Vec_ave_y)、及び動きベクトル記憶部362に保持されている動きベクトル(Vec_x_mem,Vec_y_mem)を用いて、第3動きベクトル(Vec_x3,Vec_y3)を算出する。ここで、動きベクトル記憶部362には、後述するように、1フレーム前の時点における第3動きベクトルが保持されている。   The motion vector accumulation unit 361b includes a differential motion vector (Vec_sub_x, Vec_sub_y) output from the motion vector determination unit 364, an average motion vector (Vec_ave_x, Vec_ave_y) output from the average motion vector calculation unit 365, and a motion vector storage unit 362. The third motion vector (Vec_x3, Vec_y3) is calculated using the motion vector (Vec_x_mem, Vec_y_mem) held in the. Here, the motion vector storage unit 362 holds the third motion vector at the time point one frame before, as will be described later.

第3動きベクトル(Vec_x3,Vec_y3)の算出には、下式(13)を用いる。   The following equation (13) is used to calculate the third motion vector (Vec_x3, Vec_y3).

第3動きベクトル算出部360bは、第3動きベクトル(Vec_x3,Vec_y3)をブレ補正処理部370に出力する。更に第3動きベクトル算出部360bは、第3動きベクトル(Vec_x3,Vec_y3)を動きベクトル記憶部362に出力する。従って、動きベクトル記憶部362には、1フレーム前の時点における第3動きベクトルが保持される。なお、動きベクトル記憶部362に保持される動きベクトルの初期値は(0,0)とする。   The third motion vector calculation unit 360b outputs the third motion vector (Vec_x3, Vec_y3) to the shake correction processing unit 370. Further, the third motion vector calculation unit 360b outputs the third motion vector (Vec_x3, Vec_y3) to the motion vector storage unit 362. Accordingly, the motion vector storage unit 362 holds the third motion vector at the time point one frame before. Note that the initial value of the motion vector held in the motion vector storage unit 362 is (0, 0).

以上の処理により、初期フレームから現在のフレームまでの動きベクトルの積算値が、第3動きベクトル(Vec_x3,Vec_y3)として算出される。   Through the above processing, the integrated value of the motion vector from the initial frame to the current frame is calculated as the third motion vector (Vec_x3, Vec_y3).

以上に示したように、本実施形態においては、式(10)を用いてフレーム間動きベクトル(第2動きベクトル)から、アングルノブの操作に起因する動きベクトル(第1動きベクトル)を減算して、第3動きベクトルを算出する。従って、アングルノブ操作時に撮像視野が固定される課題を解決することができる。更に、式(11)〜(13)に示した手法を用いることで、スコープの挿入・抜去に起因した動きベクトルを除外することが可能である。   As described above, in this embodiment, the motion vector (first motion vector) resulting from the operation of the angle knob is subtracted from the inter-frame motion vector (second motion vector) using Equation (10). Thus, the third motion vector is calculated. Therefore, it is possible to solve the problem that the imaging visual field is fixed when the angle knob is operated. Furthermore, by using the methods shown in equations (11) to (13), it is possible to exclude motion vectors caused by scope insertion / removal.

ここで、式(11)〜(13)の効果について説明する。一般に、ドクターがスコープの挿入・抜去を行う場合には、撮像視野が大きく変動する。従って、スコープの挿入・抜去が行われている場合、フレーム間動きベクトルが大きくなるため、式(10)で算出される差分動きベクトルも大きくなる特徴がある。そのため、式(11)に示したように、検出された差分動きベクトルの大きさがしきい値(th_x,th_y)よりも大きい場合には、差分動きベクトルを強制的にゼロに設定し、ブレ補正処理を施さないようにする。   Here, the effects of the equations (11) to (13) will be described. In general, when a doctor inserts and removes a scope, the imaging field of view varies greatly. Therefore, when the scope is inserted / removed, the inter-frame motion vector becomes large, so that the difference motion vector calculated by Expression (10) also becomes large. Therefore, as shown in the equation (11), when the magnitude of the detected differential motion vector is larger than the threshold value (th_x, th_y), the differential motion vector is forcibly set to zero, and blur correction processing is performed. Do not apply.

また、ドクターがスコープの挿入・抜去を行う場合には、一定期間同じ動作が継続される特徴がある。そのため、この期間中に検出される差分動きベクトルの方向及び大きさは、複数のフレームに渡って、緩やかに変化する特徴がある。   In addition, when the doctor inserts / removes the scope, the same operation is continued for a certain period. For this reason, the direction and magnitude of the differential motion vector detected during this period has a characteristic that it gradually changes over a plurality of frames.

一方、生体の拍動や手ブレに起因した動きベクトルは、その方向及び大きさが頻繁に変化する特徴がある。従って、本実施形態において、式(12)に示したように、複数のフレームから検出した差分動きベクトルの平均をとることにより、生体の拍動や手ブレに起因した動きベクトル成分を除外することが可能である。従って、式(12)により算出される平均動きベクトルは、スコープの挿入・抜去に起因した動きベクトルとなる。   On the other hand, the motion vector resulting from the pulsation of the living body or camera shake has a feature that its direction and size change frequently. Therefore, in the present embodiment, as shown in the equation (12), by calculating the average of the difference motion vectors detected from a plurality of frames, the motion vector component due to the pulsation of the living body or camera shake is excluded. Is possible. Accordingly, the average motion vector calculated by Expression (12) is a motion vector resulting from the insertion / extraction of the scope.

そのため、式(13)に示したように、差分動きベクトル(Vec_sub_x,Vec_sub_y)より、平均動きベクトル(Vec_ave_x,Vec_ave_y)を減算することにより、生体の拍動や手ブレに起因した動きベクトルのみを算出することが可能である。   Therefore, as shown in Expression (13), by subtracting the average motion vector (Vec_ave_x, Vec_ave_y) from the differential motion vector (Vec_sub_x, Vec_sub_y), only the motion vector due to the pulsation or camera shake of the living body is obtained. It is possible to calculate.

以上の処理により、画像に対しブレ補正処理を施す場合に、上述したような撮像視野が固定される問題を解決することができる。具体的には、フレーム間動きベクトルより、アングルノブの操作、及びスコープの挿入・抜去に起因する動きベクトルを減算することで算出した動きベクトルを用いてブレ補正処理を行うことで、撮像視野が固定される課題を解決できる。   With the above processing, it is possible to solve the above-described problem that the imaging field of view is fixed when blur correction processing is performed on an image. Specifically, the image field of view is obtained by performing blur correction processing using the motion vector calculated by subtracting the motion vector resulting from the operation of the angle knob and the insertion / extraction of the scope from the inter-frame motion vector. Solve fixed issues.

なお、本実施形態では、上述のように水平方向及び垂直方向アングルノブの操作を考慮したブレ補正処理を示したが、本発明はこれに限定されるものではない。一般に、手ブレや被写体の拍動の影響で生じる画像のブレは、拡大観察時に顕著に現れる特徴がある。そのため、他の手法としては例えば、拡大観察時のみ上述のブレ補正処理が機能する構成としてもよい。   In the present embodiment, as described above, the blur correction process considering the operation of the horizontal and vertical angle knobs is shown, but the present invention is not limited to this. In general, blurring of an image caused by the effects of camera shake and pulsation of a subject has a feature that appears remarkably during magnified observation. Therefore, as another method, for example, the above-described blur correction process may function only during magnified observation.

この場合、ユーザが設定した合焦位置dが“dmax”であり、且つズーム位置fが“fmin”(通常観察に相当)の場合に、ブレ補正処理部370が、補間処理部310より出力されるRGB画像をそのまま表示画像生成部380に出力すればよい。この場合、制御部390は、ユーザが設定した合焦位置dが“dmax”であり、且つズーム位置fが“fmin”の場合に、ブレ補正処理部370に対し、ブレ補正処理を行わないことを示すトリガ信号を出力すればよい。   In this case, when the in-focus position d set by the user is “dmax” and the zoom position f is “fmin” (corresponding to normal observation), the blur correction processing unit 370 is output from the interpolation processing unit 310. The RGB image may be output to the display image generation unit 380 as it is. In this case, the control unit 390 does not perform the blur correction process on the blur correction processing unit 370 when the in-focus position d set by the user is “dmax” and the zoom position f is “fmin”. May be output.

以上のように図20に示す本実施形態の第2の構成例においても、画像取得部308が、複数の画像を時系列的に取得し、第1動き情報検出部350bが、撮像視野を動かす操作に応じた撮像視野の動き情報を、第1動き情報として検出し、第2動き情報検出部330が、画像間の動き情報である第2動き情報を検出する。そしてブレ補正処理部370が、第1動き情報と第2動き情報に応じたブレ補正処理を行う。   As described above, also in the second configuration example of the present embodiment illustrated in FIG. 20, the image acquisition unit 308 acquires a plurality of images in time series, and the first motion information detection unit 350 b moves the imaging field of view. The motion information of the imaging visual field corresponding to the operation is detected as the first motion information, and the second motion information detection unit 330 detects the second motion information that is motion information between images. Then, the blur correction processing unit 370 performs a blur correction process according to the first motion information and the second motion information.

また第3動き情報算出部360bが、第1動き情報と第2動き情報に基づき、第3動き情報を求める。具体的には第2動き情報から第1動き情報の成分を除外した情報を、第3動き情報として求め、ブレ補正処理部370は、このようにして求められた第3動き情報に基づいてブレ補正処理を行う。   Further, the third motion information calculation unit 360b obtains the third motion information based on the first motion information and the second motion information. Specifically, information obtained by excluding the component of the first motion information from the second motion information is obtained as third motion information, and the blur correction processing unit 370 performs the blur based on the third motion information thus obtained. Perform correction processing.

そして図20の第1の構成例では、図5の第1の構成例とは異なり、第3動き情報算出部360bは、図4(A)、図4(B)で説明したように、第1動き情報と第2動き情報の差分情報を、第3動き情報として求める。例えば前述した式(10)のような演算を行って、第3動き情報を求める。   In the first configuration example of FIG. 20, unlike the first configuration example of FIG. 5, the third motion information calculation unit 360 b performs the first operation as described in FIGS. 4A and 4B. Difference information between the first motion information and the second motion information is obtained as third motion information. For example, the third motion information is obtained by performing an operation such as the above-described equation (10).

このようにすれば、第1の構成例に比べて、より高性能なブレ補正処理を実現できるようになる。例えば第1の構成例においてアングルノブにより水平方向でのアングル操作が行われている場合には、画像間動き情報である第2動き情報に基づく水平方向でのブレ補正処理はキャンセルされてしまう。垂直方向でのアングル操作が行われている場合も同様である。即ち、図5の第1の構成例では、第2の構成例に比べて、処理の簡素化や処理負荷の低減が可能になるという利点があるものの、操作状態の際に取得された第2動き情報に基づくブレ補正処理が行われないという不利点がある。   In this way, it is possible to realize a blur correction process with higher performance than in the first configuration example. For example, when the angle operation is performed in the horizontal direction by the angle knob in the first configuration example, the blur correction process in the horizontal direction based on the second motion information that is the inter-image motion information is canceled. The same applies when an angle operation is performed in the vertical direction. That is, the first configuration example in FIG. 5 has advantages in that the processing can be simplified and the processing load can be reduced as compared with the second configuration example, but the second configuration information obtained in the operation state can be obtained. There is a disadvantage that blur correction processing based on motion information is not performed.

これに対して、図20の第2の構成例によれば、水平方向や垂直方向でのアングル操作が行われている場合にも、それに並行して、第2動き情報に基づくブレ補正処理を行うことが可能になる。例えば水平方向でのアングル操作が行われていた場合には、第2動き情報から、水平方向の移動に対応する第1動き情報の成分を除外した情報が、第3動き情報として算出される。そして、この第3動き情報に基づいて、画像間のブレ補正処理が通常どおり行われるようになる。従って、第1の構成例に比べて、より高性能なブレ補正処理を実現できる。   On the other hand, according to the second configuration example of FIG. 20, even when an angle operation is performed in the horizontal direction or the vertical direction, the blur correction process based on the second motion information is performed in parallel therewith. It becomes possible to do. For example, when the angle operation is performed in the horizontal direction, information excluding the first motion information component corresponding to the movement in the horizontal direction from the second motion information is calculated as the third motion information. Based on the third motion information, the blur correction process between images is performed as usual. Therefore, it is possible to realize a blur correction process with higher performance than in the first configuration example.

また第1動き情報検出部350bは、第1動き情報を第1動きベクトルとして検出し、第2動き情報検出部330は、第2動き情報を第2動きベクトルとして検出し、第3動き情報算出部360bは、第3動き情報を第3動きベクトルとして求める。そしてブレ補正処理部370は、この第3動きベクトルに基づいてブレ補正処理を行う。   The first motion information detection unit 350b detects the first motion information as the first motion vector, and the second motion information detection unit 330 detects the second motion information as the second motion vector, and calculates the third motion information. The unit 360b obtains the third motion information as the third motion vector. Then, the shake correction processing unit 370 performs a shake correction process based on the third motion vector.

このようにすれば、動きベクトル同士の演算で第3動きベクトルを求め、求められた第3動きベクトルに基づいて、動きベクトルを用いた一般的なブレ補正処理を行うことが可能になり、処理を簡素化できる。   In this way, it is possible to obtain the third motion vector by calculating the motion vectors, and to perform general blur correction processing using the motion vector based on the obtained third motion vector. Can be simplified.

具体的には第3動き情報算出部360bは、第1動きベクトルと第2動きベクトルの差分を表す差分動きベクトルを求め、この差分動きベクトルに基づいて第3動きベクトルを求める。例えば前述の式(10)に示すように、差分動きベクトル(Vec_sub_x,Vec_sub_y)を求めて、この差分動きベクトルを用いて第3動きベクトル(Vec_x3,Vec_y3)を算出する。   Specifically, the third motion information calculation unit 360b obtains a difference motion vector representing a difference between the first motion vector and the second motion vector, and obtains a third motion vector based on the difference motion vector. For example, as shown in the above equation (10), a difference motion vector (Vec_sub_x, Vec_sub_y) is obtained, and a third motion vector (Vec_x3, Vec_y3) is calculated using the difference motion vector.

このようにすれば、ベクトル演算を利用した簡素な演算処理で第3動きベクトルを求めることが可能になる。   In this way, it is possible to obtain the third motion vector by a simple calculation process using vector calculation.

また第3動き情報算出部360bは、差分動きベクトルの大きさが所与のしきい値よりも大きいと判断した場合には、差分動きベクトルの大きさを0に設定する。例えば前述の式(11)に示すように、差分動きベクトル(Vec_sub_x,Vec_sub_y)の大きさがしきい値(th_x,th_y)よりも大きい場合には、強制的にゼロに設定してブレ補正処理が行われないようにする。   If the third motion information calculation unit 360b determines that the magnitude of the difference motion vector is greater than a given threshold value, the third motion information calculation unit 360b sets the magnitude of the difference motion vector to zero. For example, as shown in the above equation (11), when the magnitude of the difference motion vector (Vec_sub_x, Vec_sub_y) is larger than the threshold value (th_x, th_y), it is forcibly set to zero and the blur correction process is performed. Don't break.

このようにすれば、ドクターがスコープの挿入・抜去を行っている場合に、ブレ補正処理を強制的にオフにできる。   In this way, the blur correction process can be forcibly turned off when the doctor is inserting or removing the scope.

また第3動き情報算出部360bは、差分動きベクトルの平均化処理を行って平均動きベクトルを求め、差分動きベクトルと平均動きベクトルの差分に基づいて、第3動きベクトルを求めてもよい。例えば平均動きベクトル(Vec_ave_x,Vec_ave_y)を求め、前述の式(13)に示すような差分動きベクトルと平均動きベクトルの差分処理を行って、第3動きベクトルを算出する。このようにすれば、例えば生体の拍動や手ブレ等に起因した動きベクトルだけを、第3動きベクトルとして求めることが可能になる。   In addition, the third motion information calculation unit 360b may perform an average motion vector difference process to obtain an average motion vector, and obtain a third motion vector based on the difference between the difference motion vector and the average motion vector. For example, an average motion vector (Vec_ave_x, Vec_ave_y) is obtained, and a difference motion vector and an average motion vector as shown in the above equation (13) are processed to calculate a third motion vector. In this way, it is possible to obtain only the motion vector resulting from, for example, the pulsation of the living body or camera shake as the third motion vector.

また第3動き情報算出部360bは、図27に示すように、差分動きベクトルと平均動きベクトルの差分についての積算処理を行う積算部361b(動きベクトル積算部)と、積算処理の結果を記憶する記憶部362(動きベクトル記憶部)を含む。そして積算部361bは、記憶部362に記憶される前回までの積算結果(例えば1フレーム前の積算結果)と、今回の差分動きベクトルと平均動きベクトルの差分(今回のフレームでの差分)とに基づいて、積算演算を行って今回の積算結果を求める。そして、求められた今回の積算結果を記憶部362に書き込む。即ち、前述の式(13)に示した積算処理を、図27に示すような構成の第3動き情報算出部360bで実現する。   Further, as shown in FIG. 27, the third motion information calculation unit 360b stores an integration unit 361b (motion vector integration unit) that performs an integration process on the difference between the difference motion vector and the average motion vector, and stores the result of the integration process. A storage unit 362 (motion vector storage unit) is included. Then, the integration unit 361b converts the previous integration result stored in the storage unit 362 (for example, the integration result one frame before) and the difference between the current differential motion vector and the average motion vector (difference in the current frame). Based on this, an integration calculation is performed to obtain a current integration result. Then, the obtained integration result is written in the storage unit 362. That is, the integration process shown in the above equation (13) is realized by the third motion information calculation unit 360b configured as shown in FIG.

このようにすれば、積算処理による第3動き情報を算出を、簡素な構成の第3動き情報算出部360bで実行できるようになる。   In this way, calculation of the third motion information by the integration process can be executed by the third motion information calculation unit 360b having a simple configuration.

また図20の第2の構成例では、撮像部228の合焦位置が変更可能になっている。例えば前述のように、ユーザが外部I/F部500により合焦位置を設定すると、制御部390の制御の下で、レンズ制御部260が、設定された合焦位置への変更を行う。すると、第1動き情報検出部350bは、撮像部228の撮像視野を動かす操作の操作情報と、合焦位置を表す情報である合焦位置情報とに基づいて、第1動き情報を検出する。例えば前述の式(9)に示すように、操作情報に相当する(θh_dif,θv_dif)と、合焦位置情報dとに基づいて、第1動き情報(Vec_x1,Vec_y1)を検出する。   In the second configuration example of FIG. 20, the focus position of the imaging unit 228 can be changed. For example, as described above, when the user sets the in-focus position using the external I / F unit 500, the lens control unit 260 changes the set in-focus position under the control of the control unit 390. Then, the first motion information detection unit 350b detects the first motion information based on the operation information of the operation for moving the imaging visual field of the imaging unit 228 and the focus position information that is information indicating the focus position. For example, as shown in the above equation (9), the first motion information (Vec_x1, Vec_y1) is detected based on (θh_dif, θv_dif) corresponding to the operation information and the focus position information d.

このようにすれば、合焦位置が変更されることにより、実空間における距離と画像上における距離との関係が変化しても、操作情報を反映させた適正な第1動き情報を得ることが可能になる。   In this way, by changing the in-focus position, even if the relationship between the distance in the real space and the distance on the image changes, it is possible to obtain appropriate first motion information that reflects the operation information. It becomes possible.

また、第2の構成例では、撮像部228は、合焦位置に加えて、ズーム位置も変更可能になっている。例えば外部I/F部500によりズーム位置が設定されると、レンズ制御部260が、設定されたズーム位置への変更を行う。すると、第1動き情報検出部350bは、操作情報に相当する(θh_dif,θv_dif)と、合焦位置情報dと、ズーム位置を表す情報であるズーム位置情報fとに基づいて、第1動き情報(Vec_x1,Vec_y1)を検出する。   In the second configuration example, the imaging unit 228 can change the zoom position in addition to the in-focus position. For example, when the zoom position is set by the external I / F unit 500, the lens control unit 260 changes to the set zoom position. Then, the first motion information detection unit 350b performs the first motion information based on (θh_dif, θv_dif) corresponding to the operation information, the focus position information d, and the zoom position information f that is information indicating the zoom position. (Vec_x1, Vec_y1) is detected.

このようにすれば、ズーム位置が変更されることにより、実空間における距離と画像上における距離との関係が変化しても、操作情報を反映させた適正な第1動き情報を得ることが可能になる。   In this way, by changing the zoom position, even if the relationship between the distance in the real space and the distance on the image changes, it is possible to obtain appropriate first motion information that reflects the operation information. become.

またブレ補正処理部370は、撮像部228が拡大観察状態である場合に、ブレ補正処理を行うようにしてもよい。例えば拡大観察状態では、合焦位置dを小さくし、被写体に、より近接できるようにする。またズーム位置fを大きくして画角を狭くし、被写体を、より拡大した状態で観察できるようにする。   In addition, the blur correction processing unit 370 may perform the blur correction processing when the imaging unit 228 is in the enlarged observation state. For example, in the magnified observation state, the in-focus position d is reduced so that it can be closer to the subject. Further, the zoom position f is increased to narrow the angle of view so that the subject can be observed in a more magnified state.

そして、このような拡大観察状態では、通常観察状態(非拡大観察状態)に比べて、生体の拍動や手ブレに起因した画像ブレが生じやすい。   In such a magnified observation state, image blur due to the pulsation of the living body and camera shake is likely to occur compared to the normal observation state (non-magnification observation state).

この点、ブレ補正処理部370が、拡大観察状態時においてブレ補正処理を行うようにすれば、拡大観察状態時に生体の拍動や手ブレがあっても、それに起因する画像ブレを最小限に抑えることが可能になる。また拡大観察状態時に、ドクターが非検体を探すために、アングルノブによるアングル操作を行った場合にも、その操作が原因で撮像視野が固定されてしまう不具合が生じるのを効果的に防止できるようになる。また、通常観察状態時にブレ補正処理を行わないようにすることで、ブレ補正が必要ではない状態の時に無用なブレ補正処理が行われてしまう事態を防止できる。   In this regard, if the shake correction processing unit 370 performs shake correction processing in the magnified observation state, even if there is a pulsation or a camera shake of the living body in the magnified observation state, image blur caused by the motion is minimized. It becomes possible to suppress. In addition, in the magnified observation state, when the doctor performs an angle operation using the angle knob to search for a non-specimen, it is possible to effectively prevent a problem that the imaging field of view is fixed due to the operation. become. In addition, by not performing the blur correction process in the normal observation state, it is possible to prevent a situation where an unnecessary blur correction process is performed when the blur correction is not necessary.

また本実施形態では、第1動き情報検出部350bは、第1動き情報を第1動きベクトルとして検出する。具体的には、第1動きベクトル検出部350bは、撮像視野の移動方向及び移動量を、第1動きベクトルとして検出する。また第2動き情報検出部330も、第2動き情報を第2動きベクトルとして検出する。   In the present embodiment, the first motion information detector 350b detects the first motion information as the first motion vector. Specifically, the first motion vector detection unit 350b detects the moving direction and the moving amount of the imaging field of view as the first motion vector. The second motion information detection unit 330 also detects the second motion information as a second motion vector.

このようにすれば、第1動きベクトルと第2動きベクトルのベクトル演算で第3動きベクトルを求め、求められた第3動きベクトルに基づいて、動きベクトルを用いた一般的なブレ補正処理を行うことが可能になり、処理を簡素化できる。   If it does in this way, a 3rd motion vector will be obtained by vector operation of the 1st motion vector and the 2nd motion vector, and general blur amendment processing using a motion vector will be performed based on the obtained 3rd motion vector. And the processing can be simplified.

また、第1動き情報を、撮像視野の移動方向及び移動量を表す第1動きベクトルとして検出すれば、撮像視野の移動方向のみならず、移動量も反映された第1動きベクトルを求めることができる。そして、この第1動きベクトルと第2動きベクトルの差分により、第3動きベクトルを求めて、ブレ補正処理を実現することが可能になる。従って、撮像視野の移動方向だけが反映された第1動きベクトルを用いる第1の構成例に比べて、撮像視野の移動量も反映させた第1動きベクトルを用いることが可能になる。この結果、撮像視野の動きをより正確に反映させたブレ補正処理を実現できるようになる。   Further, if the first motion information is detected as a first motion vector representing the moving direction and moving amount of the imaging field of view, the first motion vector reflecting not only the moving direction of the imaging field of view but also the moving amount can be obtained. it can. Then, it is possible to obtain the third motion vector from the difference between the first motion vector and the second motion vector to realize the blur correction process. Therefore, compared to the first configuration example using the first motion vector that reflects only the moving direction of the imaging field of view, it is possible to use the first motion vector that reflects the amount of movement of the imaging field of view. As a result, it is possible to realize blur correction processing that more accurately reflects the movement of the imaging field of view.

以上、本発明を適用した第1、第2の構成例、及びその変形例について説明したが、本発明はこれらの第1、第2の構成例やその変形例にそのまま限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また上記した第1、第2の構成例や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、第1、第2の構成例や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。更に、異なる実施形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において、種々の変形や応用が可能である。   The first and second configuration examples to which the present invention is applied and the modification examples thereof have been described above, but the present invention is not limited to these first and second configuration examples and the modification examples as they are. In the implementation stage, the constituent elements can be modified and embodied without departing from the spirit of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the first and second configuration examples and modifications described above. For example, some constituent elements may be deleted from all the constituent elements described in the first and second configuration examples and modifications. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1動き情報、第2動き情報、第3動き情報等)と共に記載された用語(第1動きベクトル、第2動きベクトル、第3動きベクトル等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また画像処理装置、内視鏡装置の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   In the specification or the drawings, terms (first motion vector, second motion vector) described at least once together with different terms (first motion information, second motion information, third motion information, etc.) having a broader meaning or the same meaning. , The third motion vector, etc.) can be replaced by the different terms anywhere in the specification or drawings. The configurations and operations of the image processing apparatus and the endoscope apparatus are not limited to those described in the present embodiment, and various modifications can be made.

10(12、14) アングルノブ、100 光源部、110 白色光源、
120 レンズ、200 挿入部、210 ライトガイドファイバ、
220 照明レンズ、228 撮像部、230 集光レンズ、240 撮像素子、
250 操作部、260 レンズ制御部、270 メモリ、300 画像処理装置、
308 画像取得部、310 補間処理部、320 輝度画像生成部、
330 第2動きベクトル検出部(第2動き情報検出部)、331 局所領域設定部、
332 動きベクトル算出部、333 フレームメモリ、340 操作状態取得部、
350a、350b 第1動きベクトル検出部(第1動き情報検出部)、
351 変化量算出部、352 回転角度記憶部、
353a、353b 動きベクトル算出部、
360a、360b 第3動きベクトル算出部(第3動き情報算出部)、
361a、361b 動きベクトル積算部、362 動きベクトル記憶部、
363 動きベクトル減算部、364 動きベクトル判定部、
365 平均動きベクトル算出部、370 ブレ補正処理部(画像抽出部)、
380 表示画像生成部、390 制御部、400 表示部、500 外部I/F部
10 (12, 14) Angle knob, 100 light source, 110 white light source,
120 lens, 200 insertion section, 210 light guide fiber,
220 illumination lens, 228 imaging unit, 230 condenser lens, 240 imaging device,
250 operation unit, 260 lens control unit, 270 memory, 300 image processing device,
308 image acquisition unit, 310 interpolation processing unit, 320 luminance image generation unit,
330 second motion vector detection unit (second motion information detection unit), 331 local region setting unit,
332 motion vector calculation unit, 333 frame memory, 340 operation state acquisition unit,
350a, 350b first motion vector detection unit (first motion information detection unit),
351 change amount calculation unit, 352 rotation angle storage unit,
353a, 353b motion vector calculation unit,
360a, 360b third motion vector calculation unit (third motion information calculation unit),
361a, 361b motion vector integration unit, 362 motion vector storage unit,
363 motion vector subtraction unit, 364 motion vector determination unit,
365 average motion vector calculation unit, 370 blur correction processing unit (image extraction unit),
380 Display image generation unit, 390 control unit, 400 display unit, 500 external I / F unit

Claims (36)

撮像視野を変更可能な撮像部を介して、複数の画像を時系列的に取得する画像取得部と、
前記撮像部の前記撮像視野を動かす操作に応じた前記撮像視野の動き情報を、第1動き情報として検出する第1動き情報検出部と、
時系列に取得された前記複数の画像に基づいて、画像間の動き情報である第2動き情報を検出する第2動き情報検出部と、
前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記画像に対して行うブレ補正処理部と、
を含むことを特徴とする画像処理装置。
An image acquisition unit that acquires a plurality of images in time series via an imaging unit that can change the imaging field of view;
A first motion information detection unit that detects motion information of the imaging field in accordance with an operation of moving the imaging field of the imaging unit as first motion information;
A second motion information detector that detects second motion information that is motion information between images based on the plurality of images acquired in time series;
A blur correction processing unit that performs blur correction processing on the image according to the first motion information and the second motion information;
An image processing apparatus comprising:
請求項1において、
前記第1動き情報と前記第2動き情報に基づき、第3動き情報を求める第3動き情報算出部を含み、
前記ブレ補正処理部は、
前記第3動き情報に基づいて、前記ブレ補正処理を行うことを特徴とする画像処理装置。
In claim 1,
A third motion information calculation unit for obtaining third motion information based on the first motion information and the second motion information;
The blur correction processing unit
An image processing apparatus that performs the blur correction process based on the third motion information.
請求項2において、
前記第3動き情報算出部は、
前記第2動き情報から前記第1動き情報に対応する成分を除外した情報を、前記第3動き情報として求めることを特徴とする画像処理装置。
In claim 2,
The third motion information calculation unit
An image processing apparatus, wherein information obtained by excluding a component corresponding to the first motion information from the second motion information is obtained as the third motion information.
請求項2において、
前記第3動き情報算出部は、
前記撮像視野を動かす前記操作が行われている操作状態と前記操作が行われていない非操作状態のうち、前記非操作状態の際に取得された前記第2動き情報に基づいて、前記第3動き情報を求めることを特徴とする画像処理装置。
In claim 2,
The third motion information calculation unit
Based on the second motion information acquired in the non-operation state among the operation state in which the operation for moving the imaging field of view is performed and the non-operation state in which the operation is not performed, the third movement information is obtained. An image processing apparatus characterized by obtaining motion information.
請求項4において、
前記第3動き情報算出部は、
前記操作状態の際には前記第2動き情報についての積算処理を行わず、前記非操作状態の際には前記第2動き情報についての積算処理を行うことで、前記第3動き情報を求めることを特徴とする画像処理装置。
In claim 4,
The third motion information calculation unit
The integration process for the second motion information is not performed in the operation state, and the integration process for the second motion information is performed in the non-operation state, thereby obtaining the third motion information. An image processing apparatus.
請求項5において、
前記第3動き情報算出部は、
前記積算処理を行う積算部と、
前記積算処理の結果を記憶する記憶部とを含み、
前記積算部は、
前記記憶部に記憶される前回までの積算結果と、今回の前記第2動き情報とに基づいて、前記積算演算を行って今回の積算結果を求め、求められた前記今回の積算結果を前記記憶部に書き込むことを特徴とする画像処理装置。
In claim 5,
The third motion information calculation unit
An integration unit for performing the integration process;
A storage unit for storing the result of the integration process,
The integrating unit is
Based on the previous integration result stored in the storage unit and the current second motion information, the integration operation is performed to obtain the current integration result, and the obtained current integration result is stored in the memory. An image processing apparatus, wherein the image processing apparatus writes data to a copy unit.
請求項6において、
前記積算部は、
前記前回までの積算結果と、前記前回までの積算結果を減衰させるための減衰係数と、今回の前記第2動き情報とに基づいて、前記積算演算を行って前記今回の積算結果を求め、
前記ブレ補正処理部は、
前記第3動き情報で表される動きの大きさが所与のしきい値よりも大きいと判断された場合には、前記ブレ補正処理をオフにすることを特徴とする画像処理装置。
In claim 6,
The integrating unit is
Based on the integration result up to the previous time, the attenuation coefficient for attenuating the integration result up to the previous time, and the current second motion information, the integration calculation is performed to obtain the current integration result,
The blur correction processing unit
An image processing apparatus, wherein when it is determined that the magnitude of motion represented by the third motion information is greater than a given threshold, the blur correction processing is turned off.
請求項4において、
前記第1動き情報検出部は、
前記第1動き情報に基づいて、前記操作状態か否かを検出することを特徴とする画像処理装置。
In claim 4,
The first motion information detection unit includes:
An image processing apparatus that detects whether or not the operation state is based on the first motion information.
請求項8において、
前記撮像部の前記撮像視野を動かす前記操作は、操作部を用いて行われる操作であり、
前記第1動き情報検出部は、
前記操作部の操作情報に基づいて、前記操作状態か否かを検出することを特徴とする画像処理装置。
In claim 8,
The operation of moving the imaging field of view of the imaging unit is an operation performed using an operation unit,
The first motion information detection unit includes:
An image processing apparatus that detects whether or not the operation state is set based on operation information of the operation unit.
請求項9において、
前記操作部は、内視鏡スコープにおけるアングルノブであり、
前記第1動き情報検出部は、
前記アングルノブの回転角度が時間的に変動する場合に、前記操作状態であると検出することを特徴とする画像処理装置。
In claim 9,
The operation unit is an angle knob in an endoscope scope,
The first motion information detection unit includes:
An image processing apparatus that detects the operation state when the rotation angle of the angle knob varies with time.
請求項2において、
前記第2動き情報検出部は、
前記第2動き情報を第2動きベクトルとして検出し、
前記第3動き情報算出部は、
前記第2動きベクトルのうち、前記撮像視野の移動方向と直交する方向の動きベクトルを、前記第3動き情報である第3動きベクトルとして求めることを特徴とする画像処理装置。
In claim 2,
The second motion information detector is
Detecting the second motion information as a second motion vector;
The third motion information calculation unit
An image processing apparatus, wherein a motion vector in a direction orthogonal to a moving direction of the imaging field of view is obtained as a third motion vector that is the third motion information among the second motion vectors.
請求項2において、
前記第3動き情報算出部は、
前記第1動き情報と前記第2動き情報の差分情報を、前記第3動き情報として求めることを特徴とする画像処理装置。
In claim 2,
The third motion information calculation unit
A difference information between the first motion information and the second motion information is obtained as the third motion information.
請求項2において、
前記第1動き情報検出部は、
前記第1動き情報を第1動きベクトルとして検出し、
前記第2動き情報検出部は、
前記第2動き情報を第2動きベクトルとして検出し、
前記第3動き情報算出部は、
前記第3動き情報を第3動きベクトルとして求め、
前記ブレ補正処理部は、
前記第3動きベクトルに基づいて、前記ブレ補正処理を行うことを特徴とする画像処理装置。
In claim 2,
The first motion information detection unit includes:
Detecting the first motion information as a first motion vector;
The second motion information detector is
Detecting the second motion information as a second motion vector;
The third motion information calculation unit
Obtaining the third motion information as a third motion vector;
The blur correction processing unit
An image processing apparatus that performs the blur correction process based on the third motion vector.
請求項13において、
前記第3動き情報算出部は、
前記第1動きベクトルと前記第2動きベクトルの差分を表す差分動きベクトルを求め、前記差分動きベクトルに基づいて前記第3動きベクトルを求めることを特徴とする画像処理装置。
In claim 13,
The third motion information calculation unit
An image processing apparatus, wherein a difference motion vector representing a difference between the first motion vector and the second motion vector is obtained, and the third motion vector is obtained based on the difference motion vector.
請求項14において、
前記第3動き情報算出部は、
前記差分動きベクトルの大きさが所与のしきい値よりも大きいと判断した場合には、前記差分動きベクトルの大きさを0に設定することを特徴とする画像処理装置。
In claim 14,
The third motion information calculation unit
An image processing apparatus, wherein when the magnitude of the difference motion vector is determined to be greater than a given threshold, the magnitude of the difference motion vector is set to zero.
請求項14において、
前記第3動き情報算出部は、
前記差分動きベクトルの平均化処理を行って平均動きベクトルを求め、前記差分動きベクトルと前記平均動きベクトルの差分に基づいて、前記第3動きベクトルを求めることを特徴とする画像処理装置。
In claim 14,
The third motion information calculation unit
An image processing apparatus, wherein an average motion vector is obtained by performing an averaging process on the difference motion vector, and the third motion vector is obtained based on a difference between the difference motion vector and the average motion vector.
請求項16において、
前記第3動き情報算出部は、
前記差分動きベクトルと前記平均動きベクトルの差分についての積算処理を行う積算部と、
前記積算処理の結果を記憶する記憶部とを含み、
前記積算部は、
前記記憶部に記憶される前回までの積算結果と、今回の前記差分動きベクトルと前記平均動きベクトルの差分とに基づいて、前記積算演算を行って今回の積算結果を求め、求められた前記今回の積算結果を前記記憶部に書き込むことを特徴とする画像処理装置。
In claim 16,
The third motion information calculation unit
An integration unit for performing integration processing on the difference between the difference motion vector and the average motion vector;
A storage unit for storing the result of the integration process,
The integrating unit is
Based on the integration result up to the previous time stored in the storage unit and the difference between the current difference motion vector and the average motion vector, the integration operation is performed to obtain the current integration result. An image processing apparatus, wherein the result of integration is written into the storage unit.
請求項1において、
前記撮像部は、被検体に挿入される挿入部の先端に設けられており、
前記撮像部の前記撮像視野を動かす前記操作は、前記挿入部の先端の湾曲部材を湾曲させて前記先端を所与の方向に向ける操作であることを特徴とする画像処理装置。
In claim 1,
The imaging unit is provided at a distal end of an insertion unit to be inserted into a subject,
The image processing apparatus according to claim 1, wherein the operation of moving the imaging field of view of the imaging unit is an operation of bending a bending member at a distal end of the insertion unit and directing the distal end in a given direction.
請求項18において、
前記挿入部は、内視鏡スコープであることを特徴とする画像処理装置。
In claim 18,
The image processing apparatus, wherein the insertion unit is an endoscope scope.
請求項18において、
前記撮像部の前記撮像視野を動かす前記操作は、前記湾曲部材の湾曲状態を制御する操作部を用いて行われる操作であることを特徴とする画像処理装置。
In claim 18,
The image processing apparatus according to claim 1, wherein the operation of moving the imaging field of view of the imaging unit is an operation performed using an operation unit that controls a bending state of the bending member.
請求項20において、
前記操作部は、前記湾曲部材の湾曲状態を制御するアングルノブであることを特徴とする画像処理装置。
In claim 20,
The image processing apparatus, wherein the operation unit is an angle knob that controls a bending state of the bending member.
請求項1において、
前記撮像部の前記撮像視野を動かす前記操作は、操作部を用いて行われる操作であり、
前記第1動き情報検出部は、
前記操作部の操作情報に基づいて、前記撮像部の前記撮像視野を動かす前記操作を検出して前記第1動き情報を求めることを特徴とする画像処理装置。
In claim 1,
The operation of moving the imaging field of view of the imaging unit is an operation performed using an operation unit,
The first motion information detection unit includes:
An image processing apparatus, wherein the first motion information is obtained by detecting the operation of moving the imaging field of view of the imaging unit based on operation information of the operation unit.
請求項22において、
前記第1動き情報検出部は、
前記操作部の前記操作情報に基づいて、前記撮像部の前記撮像視野の移動方向を検出することを特徴とする画像処理装置。
In claim 22,
The first motion information detection unit includes:
An image processing apparatus that detects a moving direction of the imaging field of view of the imaging unit based on the operation information of the operation unit.
請求項23において、
前記操作部は、
前記撮像部の前記撮像視野を水平方向に動かすための水平方向操作部を含み、
前記第1動き情報検出部は、
前記水平方向操作部の操作情報に基づいて、前記撮像部の前記撮像視野の水平方向での移動を検出することを特徴とする画像処理装置。
In claim 23,
The operation unit is
A horizontal operation unit for moving the imaging field of view of the imaging unit in a horizontal direction;
The first motion information detection unit includes:
An image processing apparatus that detects a movement of the imaging field of view of the imaging unit in a horizontal direction based on operation information of the horizontal direction operation unit.
請求項23において、
前記操作部は、
前記撮像部の前記撮像視野を垂直方向に動かすための垂直方向操作部を含み、
前記第1動き情報検出部は、
前記垂直方向操作部の操作情報に基づいて、前記撮像部の前記撮像視野の垂直方向での移動を検出することを特徴とする画像処理装置。
In claim 23,
The operation unit is
A vertical direction operation unit for moving the imaging field of view of the imaging unit in a vertical direction;
The first motion information detection unit includes:
An image processing apparatus that detects movement of the imaging field in the vertical direction of the imaging field based on operation information of the vertical direction operation unit.
請求項1において、
前記撮像部は合焦位置が変更可能であり、
前記第1動き情報検出部は、
前記撮像部の前記撮像視野を動かす前記操作の操作情報と、前記合焦位置を表す情報である合焦位置情報とに基づいて、前記第1動き情報を検出することを特徴とする画像処理装置。
In claim 1,
The imaging unit can change the in-focus position,
The first motion information detection unit includes:
An image processing apparatus that detects the first motion information based on operation information of the operation for moving the imaging field of view of the imaging unit and focusing position information that is information indicating the focusing position. .
請求項26において、
前記撮像部は前記合焦位置及びズーム位置が変更可能であり、
前記第1動き情報検出部は、
前記操作情報と、前記合焦位置情報と、前記ズーム位置を表す情報であるズーム位置情報とに基づいて、前記第1動き情報を検出することを特徴とする画像処理装置。
In claim 26,
The imaging unit can change the in-focus position and the zoom position,
The first motion information detection unit includes:
An image processing apparatus that detects the first motion information based on the operation information, the focus position information, and zoom position information that is information representing the zoom position.
請求項1において、
前記ブレ補正処理部は、
前記撮像部が拡大観察状態である場合に、前記ブレ補正処理を行うことを特徴とする画像処理装置。
In claim 1,
The blur correction processing unit
An image processing apparatus that performs the blur correction process when the imaging unit is in a magnified observation state.
請求項1において、
前記第1動き情報検出部は、
前記第1動き情報を第1動きベクトルとして検出することを特徴とする画像処理装置。
In claim 1,
The first motion information detection unit includes:
An image processing apparatus that detects the first motion information as a first motion vector.
請求項29において、
前記第1動きベクトル検出部は、
前記撮像視野の移動方向及び移動量を、前記第1動きベクトルとして検出すること特徴とする画像処理装置。
In claim 29,
The first motion vector detection unit includes:
An image processing apparatus that detects a moving direction and a moving amount of the imaging field of view as the first motion vector.
請求項1において、
前記第2動き情報検出部は、
前記第2動き情報を第2動きベクトルとして検出することを特徴とする画像処理装置。
In claim 1,
The second motion information detector is
An image processing apparatus for detecting the second motion information as a second motion vector.
撮像視野の変更指示により前記撮像視野を変更可能な撮像部を介して、複数のフレーム画像を時系列的に取得する画像取得部と、
前記変更指示による前記撮像部の前記撮像視野の動きを示す第1動き情報を検出する第1動き情報検出部と、
前記フレーム画像の画像全体の動きを示す第2動き情報を検出する第2動き情報検出部と、
前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記フレーム画像に対して行うブレ補正処理部と、
を含むことを特徴とする画像処理装置。
An image acquisition unit for acquiring a plurality of frame images in time series via an imaging unit capable of changing the imaging field of view by an instruction to change the imaging field;
A first motion information detection unit that detects first motion information indicating a motion of the imaging field of view of the imaging unit according to the change instruction;
A second motion information detector for detecting second motion information indicating the motion of the entire frame image;
A blur correction processing unit that performs blur correction processing on the frame image according to the first motion information and the second motion information;
An image processing apparatus comprising:
請求項1に記載の画像処理装置と、
前記撮像部の前記撮像視野を動かす操作を行うための操作部と、
を含むことを特徴とする内視鏡装置。
An image processing apparatus according to claim 1;
An operation unit for performing an operation of moving the imaging field of view of the imaging unit;
An endoscopic device comprising:
請求項32に記載の画像処理装置と、
前記撮像部の前記撮像視野を動かす操作を行うための操作部と、
を含むことを特徴とする内視鏡装置。
An image processing apparatus according to claim 32;
An operation unit for performing an operation of moving the imaging field of view of the imaging unit;
An endoscopic device comprising:
撮像視野を変更可能な撮像部を介して、複数の画像を時系列的に取得し、
前記撮像部の前記撮像視野を動かす操作に応じた前記撮像視野の動き情報を、第1動き情報として検出し、
時系列に取得された前記複数の画像に基づいて、画像間の動き情報である第2動き情報を検出し、
前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記画像に対して行うことを特徴とする画像処理方法。
A plurality of images are acquired in time series via an imaging unit capable of changing the imaging field of view,
Motion information of the imaging field corresponding to an operation of moving the imaging field of the imaging unit is detected as first motion information;
Based on the plurality of images acquired in time series, second motion information that is motion information between images is detected;
An image processing method, wherein blur correction processing corresponding to the first motion information and the second motion information is performed on the image.
撮像視野の変更指示により前記撮像視野を変更可能な撮像部を介して、複数のフレーム画像を時系列的に取得し、
前記変更指示による前記撮像部の前記撮像視野の動きを示す第1動き情報を検出し、
前記フレーム画像の画像全体の動きを示す第2動き情報を検出し、
前記第1動き情報と前記第2動き情報に応じたブレ補正処理を前記フレーム画像に対して行うことを特徴とする画像処理方法。
A plurality of frame images are acquired in time series via an imaging unit capable of changing the imaging field of view by an instruction to change the imaging field of view,
Detecting first movement information indicating movement of the imaging field of the imaging unit according to the change instruction;
Detecting second movement information indicating movement of the entire frame image;
An image processing method, wherein blur correction processing corresponding to the first motion information and the second motion information is performed on the frame image.
JP2011112594A 2011-05-19 2011-05-19 Image processing apparatus, endoscope apparatus and image processing method Withdrawn JP2012239644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011112594A JP2012239644A (en) 2011-05-19 2011-05-19 Image processing apparatus, endoscope apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011112594A JP2012239644A (en) 2011-05-19 2011-05-19 Image processing apparatus, endoscope apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2012239644A true JP2012239644A (en) 2012-12-10

Family

ID=47462000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011112594A Withdrawn JP2012239644A (en) 2011-05-19 2011-05-19 Image processing apparatus, endoscope apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2012239644A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190319A1 (en) * 2014-06-11 2015-12-17 ソニー株式会社 Image processing device, image processing method, program, and endoscope system
JP2016158886A (en) * 2015-03-02 2016-09-05 パナソニックIpマネジメント株式会社 Endoscope and endoscope system
WO2017169650A1 (en) * 2016-03-31 2017-10-05 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation device, image movement correcting method, and medical observation system
WO2017169139A1 (en) * 2016-03-29 2017-10-05 ソニー株式会社 Image processing device, image processing method, and medical system
JP2017185254A (en) * 2017-05-23 2017-10-12 ソニー株式会社 Endoscope system, endoscopic image processing device, and image processing method
WO2019106711A1 (en) * 2017-11-28 2019-06-06 オリンパス株式会社 Medical system and method for operating medical system
JPWO2018168261A1 (en) * 2017-03-16 2020-01-16 ソニー株式会社 CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
WO2023144986A1 (en) * 2022-01-28 2023-08-03 オリンパス株式会社 Endoscope system, control method, and recording medium

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229480B2 (en) 2014-06-11 2019-03-12 Sony Corporation Image processing device, image processing method, program, and endoscope system
WO2015190319A1 (en) * 2014-06-11 2015-12-17 ソニー株式会社 Image processing device, image processing method, program, and endoscope system
JP2016158886A (en) * 2015-03-02 2016-09-05 パナソニックIpマネジメント株式会社 Endoscope and endoscope system
WO2016139884A1 (en) * 2015-03-02 2016-09-09 パナソニックIpマネジメント株式会社 Endoscope and endoscope system
US11849913B2 (en) 2016-03-29 2023-12-26 Sony Group Corporation Image processing apparatus, image processing method, and medical system to correct image blurrings
WO2017169139A1 (en) * 2016-03-29 2017-10-05 ソニー株式会社 Image processing device, image processing method, and medical system
JP7127538B2 (en) 2016-03-29 2022-08-30 ソニーグループ株式会社 IMAGE PROCESSING DEVICE, OPERATING METHOD OF MEDICAL DEVICE, AND MEDICAL SYSTEM
US11301964B2 (en) 2016-03-29 2022-04-12 Sony Corporation Image processing apparatus, image processing method, and medical system to correct blurring without removing a screen motion caused by a biological body motion
JPWO2017169139A1 (en) * 2016-03-29 2019-02-07 ソニー株式会社 Image processing apparatus, image processing method, and medical system
EP3437547A4 (en) * 2016-03-31 2019-04-03 Sony Olympus Medical Solutions Inc. Medical observation device, image movement correcting method, and medical observation system
JPWO2017169650A1 (en) * 2016-03-31 2019-02-14 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation apparatus, video movement correction method, and medical observation system
CN109152519A (en) * 2016-03-31 2019-01-04 索尼奥林巴斯医疗解决方案公司 Medical observation device, image shift calibrating method and medical viewing system
US11422346B2 (en) 2016-03-31 2022-08-23 Sony Olympus Medical Solutions Inc. Medical observation device, image movement correcting method, and medical observation system
WO2017169650A1 (en) * 2016-03-31 2017-10-05 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation device, image movement correcting method, and medical observation system
JPWO2018168261A1 (en) * 2017-03-16 2020-01-16 ソニー株式会社 CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JP2017185254A (en) * 2017-05-23 2017-10-12 ソニー株式会社 Endoscope system, endoscopic image processing device, and image processing method
WO2019106711A1 (en) * 2017-11-28 2019-06-06 オリンパス株式会社 Medical system and method for operating medical system
JPWO2019106711A1 (en) * 2017-11-28 2020-12-03 オリンパス株式会社 Medical system and how to operate the medical system
US11241144B2 (en) 2017-11-28 2022-02-08 Olympus Corporation Medical system and operation method of medical system
WO2023144986A1 (en) * 2022-01-28 2023-08-03 オリンパス株式会社 Endoscope system, control method, and recording medium

Similar Documents

Publication Publication Date Title
JP2012239644A (en) Image processing apparatus, endoscope apparatus and image processing method
JP6911192B2 (en) Image processing methods, equipment and devices
JP5816511B2 (en) Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus
JP5562808B2 (en) Endoscope apparatus and program
JP5669529B2 (en) Imaging apparatus, program, and focus control method
WO2015098218A1 (en) Endoscopic device, method for controlling endoscopic device, and program
JP5953187B2 (en) Focus control device, endoscope system, and focus control method
WO2012032914A1 (en) Image processing device, endoscope device, image processing program and image processing method
JP2017006330A (en) Medical picture processing device, medical picture processing method, and medical observation system
JP6996901B2 (en) Endoscope system
US10617282B2 (en) Endoscope apparatus and method for focusing based on motion information
US20120147165A1 (en) Control device, endoscope apparatus, and focus control method
JP6574448B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
US9219854B2 (en) Imaging device, method for controlling imaging device, and information storage device
JP2014207645A (en) Image processing unit, image processing method and program
JP2009152698A (en) Imaging apparatus, control method therefor, and program
JP6767383B2 (en) Image processing equipment, image processing methods and programs
JP6736670B2 (en) Endoscope system
JP4125331B2 (en) Imaging apparatus and control method thereof
CN113573624A (en) Endoscopic system, non-transitory computer readable medium and method
JP6530067B2 (en) Endoscope apparatus and operating method of endoscope apparatus
JP2007036742A (en) Method and apparatus for synthesizing multiple images
JP6653386B2 (en) Image processing apparatus, endoscope system, program, and method of operating image processing apparatus
WO2017072860A1 (en) Imaging device, endoscope device, and method for operating imaging device
JPWO2016080351A1 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, AND OPERATION METHOD OF IMAGING DEVICE

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805