JP6042798B2 - Image processing apparatus and endoscope system - Google Patents

Image processing apparatus and endoscope system Download PDF

Info

Publication number
JP6042798B2
JP6042798B2 JP2013262608A JP2013262608A JP6042798B2 JP 6042798 B2 JP6042798 B2 JP 6042798B2 JP 2013262608 A JP2013262608 A JP 2013262608A JP 2013262608 A JP2013262608 A JP 2013262608A JP 6042798 B2 JP6042798 B2 JP 6042798B2
Authority
JP
Japan
Prior art keywords
video
light
image
observation
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013262608A
Other languages
Japanese (ja)
Other versions
JP2015116389A (en
Inventor
田子 宏樹
宏樹 田子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013262608A priority Critical patent/JP6042798B2/en
Publication of JP2015116389A publication Critical patent/JP2015116389A/en
Application granted granted Critical
Publication of JP6042798B2 publication Critical patent/JP6042798B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)

Description

本発明は、内視鏡装置にて取得した内視鏡の映像信号を、対象物に照射した光の波長ごとに分離して表示する技術に関する。   The present invention relates to a technique for separating and displaying an endoscope video signal acquired by an endoscope apparatus for each wavelength of light irradiated on an object.

内視鏡システムにおいては、光源装置から発せられた光を内視鏡装置のスコープを通じて対象物である被検体の体腔内に照射し、胃や腸の表面または表面から内部に入り込んだ光の反射光を観察する。観察には、紫外領域から可視領域、及び赤外領域までの光を含む通常光のほかにも、所定の波長領域の光を使用することがある。   In an endoscope system, light emitted from a light source device is irradiated into a body cavity of a subject, which is a target, through a scope of the endoscope device, and reflection of light that has entered the inside of the stomach or intestines from the surface. Observe the light. For observation, light in a predetermined wavelength region may be used in addition to normal light including light from the ultraviolet region to the visible region and the infrared region.

通常光を使用する通常光観察においては、被検体の胃や腸等の表面が肌色やピンク色として認識される。その一方で、特殊光を使用する特殊光観察においては、例えば青〜緑側の波長の短い光を観察対象物に照射した場合には、照射した波長の短い光が被検体の表面または表面に近いごく浅い部分にしか届かないことにより、それ以外の部分が目立たなくなる。これにより、特殊光観察画像では、表面の変化を強調したり、表面に近い内部の構造を明確にすることが可能となる。   In normal light observation using normal light, the surface of the subject, such as the stomach and intestine, is recognized as a skin color or pink color. On the other hand, in special light observation using special light, for example, when the observation object is irradiated with light having a short wavelength on the blue to green side, the light having the short wavelength is applied to the surface or surface of the subject. By reaching only a very shallow part, the other parts become inconspicuous. Thereby, in the special light observation image, it becomes possible to emphasize the change of the surface or clarify the internal structure close to the surface.

このように、胃や腸の病変部が強調され、病変特有の内部構造がはっきり画像に表されることから、特殊光観察は、胃がん、大腸がん、食道がん等の早期発見に利用されている。   In this way, the lesions of the stomach and intestines are emphasized, and the internal structure peculiar to the lesions is clearly displayed in the image. ing.

しかし、特殊光観察においては、使用する波長領域が通常光観察の場合と比べて狭くなるために、得られる画像は、暗いものとなる。このため、内視鏡検査においては、通常光と特殊光との両方を使用して観察を行う。一般的には、図6に例示するように、フィルタにより光源装置から出力される光の波長領域を制限することにより通常光と特殊光とを切り替える構成とし、切り替えを手動で行う場合は、例えば内視鏡装置の利用者である医師が手元の操作部に設けられているボタン等のユーザ操作部等により行う。光源にフィルタがかかっているときは、特殊光観察映像が得られ、フィルタがかかっていないときは、通常光観察映像が得られる。   However, in the special light observation, the wavelength region to be used is narrower than that in the case of the normal light observation, so that the obtained image is dark. For this reason, in endoscopy, observation is performed using both normal light and special light. In general, as illustrated in FIG. 6, the filter is configured to switch between normal light and special light by limiting the wavelength region of light output from the light source device using a filter. A doctor who is a user of the endoscope apparatus performs the operation using a user operation unit such as a button provided on the operation unit at hand. When the light source is filtered, a special light observation image is obtained, and when the light source is not filtered, a normal light observation image is obtained.

上記のとおり、特殊光観察によれば、病変部を確認し易くなる。その一方で、特殊光観察では、映像が暗くなるため、検査の開始から終了まで、常に特殊光観察により検査を行うことは難しい。このため、従来においては、通常、医師は、病変と疑われる箇所においては特殊光観察とし、他の箇所については通常光観察を行っている。しかし、実際の医療現場からは、内視鏡検査においては、明るく明瞭な画像の得られる通常光観察映像と、病変部が強調表示された画像の得られる特殊光観察映像との両方を同時に観察可能な技術が求められている。   As described above, according to the special light observation, it becomes easy to confirm the lesioned part. On the other hand, in special light observation, since an image becomes dark, it is difficult to always perform inspection by special light observation from the start to the end of the inspection. For this reason, conventionally, a doctor usually performs special light observation at a place suspected of being a lesion and performs normal light observation at other places. However, from the actual medical field, in endoscopy, both normal light observation video that provides a bright and clear image and special light observation video that provides an image with the lesion highlighted are simultaneously observed. Possible technology is required.

通常光観察と特殊光観察とを自動的に切り替える公知の技術としては、例えば、生成したタイミング信号にしたがって光源装置から出力される光を通常光または特殊光に切り替えて、通常光映像信号と特殊光映像信号とを得ることについて開示されている(例えば、特許文献1、2)。   As a known technique for automatically switching between normal light observation and special light observation, for example, the light output from the light source device is switched to normal light or special light according to the generated timing signal, and the normal light video signal and special light observation are switched. It is disclosed that an optical video signal is obtained (for example, Patent Documents 1 and 2).

特開2004−321244号公報JP 2004-321244 A 特開2008−86759号公報JP 2008-86759 A

上記の公知の技術によれば、タイミング信号に応じて光源装置から出力される光を切り替え、通常光観察画像と特殊光観察画像とを並列に出力する。しかし、かかる方法によれば、光源装置から出力される光の切り替えのタイミングと、映像の撮像のタイミングとが一致するようにタイミング制御を行う必要がある。光の切り替えと撮像とでタイミングがずれた場合には、適切に2種類の観察映像を並列に取得することはできない。また、このようなタイミングの制御を適切に行うには、極めて複雑な処理が必要となる。このため、実際上は、上記の公知の技術により2種類の観察映像を同時に取得して並列に表示する技術を実施することには、非常な困難を伴う。   According to the above known technique, the light output from the light source device is switched according to the timing signal, and the normal light observation image and the special light observation image are output in parallel. However, according to such a method, it is necessary to perform timing control so that the timing of switching the light output from the light source device matches the timing of image capturing. When the timing is shifted between light switching and imaging, it is not possible to appropriately acquire two types of observation images in parallel. Further, in order to appropriately perform such timing control, extremely complicated processing is required. For this reason, in practice, it is extremely difficult to implement a technique for simultaneously acquiring and displaying two types of observation images in parallel by the above-described known technique.

本発明は、照射する光の波長の異なる複数種類の映像信号を、同時に取得した場合であっても、簡便な方法により、波長に応じて分離することのできる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of separating according to wavelengths by a simple method even when a plurality of types of video signals having different wavelengths of light to be irradiated are simultaneously acquired. .

本発明の一態様に係る画像処理装置によれば、対象物に、光源装置から出力される波長の異なる第1及び第2の光を交互に照射して取得される映像信号であって、それぞれ第1及び第2の光による第1及び第2の映像信号が混在した1つの映像ストリームから、映像信号からフレーム画像を抽出する抽出部と、前記フレーム画像を解析し、該フレーム画像が前記第1及び第2の映像信号がそれぞれ有する特徴のいずれを備えるかを判定することにより、該フレーム画像が第1または第2の映像信号のいずれであるかを判定する検出部と、前記検出部の検出結果に基づき、前記映像ストリームから第1の映像信号の映像ストリーム及び第2の映像信号の映像ストリームを分離して出力する出力部と、を有することを特徴とする。   According to the image processing device of one aspect of the present invention, each of the image signals obtained by alternately irradiating the target with the first and second lights having different wavelengths output from the light source device, An extraction unit that extracts a frame image from a video signal from one video stream in which the first and second video signals by the first and second lights are mixed, and the frame image is analyzed. A detection unit for determining whether the frame image is the first or second video signal by determining which of the features each of the first and second video signals has; And an output unit that separates and outputs the video stream of the first video signal and the video stream of the second video signal from the video stream based on the detection result.

本発明によれば、照射する光の波長の異なる複数種類の映像信号を、同時に取得した場合であっても、簡便な方法により、波長に応じて分離することが可能となる。   According to the present invention, even when a plurality of types of video signals having different wavelengths of light to be irradiated are simultaneously acquired, it is possible to separate them according to the wavelength by a simple method.

実施形態に係る画像処理装置を含む内視鏡システムの全体ブロック図である。1 is an overall block diagram of an endoscope system including an image processing device according to an embodiment. 実施形態に係る内視鏡システムによる観察映像の映像ストリームの分離方法についての全体説明図である。It is a whole explanatory view about the separation method of the video stream of the observation picture by the endoscope system concerning an embodiment. 内視鏡システムによる各処理段階における観察映像のデータ構成を例示する図である。It is a figure which illustrates the data structure of the observation image | video in each process step by an endoscope system. 観察画像の種類を判定する第1の方法を説明する図である。It is a figure explaining the 1st method of determining the kind of observation image. 観察画像の種類を判定する第2の方法を説明する図である。It is a figure explaining the 2nd method of determining the kind of observation image. 従来における観察映像の映像ストリームを表示する技術について説明する図である。It is a figure explaining the technique which displays the video stream of the observation video in the past.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
図1は、本実施形態に係る画像処理装置を含む内視鏡システムの全体ブロック図である。図1に示す内視鏡システム100は、ビデオプロセッサ1、スコープ2、光源装置3及びモニタ4を有する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is an overall block diagram of an endoscope system including an image processing apparatus according to the present embodiment. An endoscope system 100 illustrated in FIG. 1 includes a video processor 1, a scope 2, a light source device 3, and a monitor 4.

光源装置3は、通常光観察用光源31、NBI(Narrow Band Imaging、狭帯域光観察)用光源32、NBI用フィルタ33、光源制御部34及び光源切替スイッチ部35を有する。図1に示すように、本実施形態においては、光源装置3は、2台の光源31、32を備え、光源制御部34が、ビデオプロセッサ1からの命令にしたがって、光源切替スイッチ部35を制御する。光源切替スイッチ部35は、通常光観察用光源31またはNBI用光源32のいずれか一方から光が出力されるよう、切り替えを行う。   The light source device 3 includes a normal light observation light source 31, an NBI (Narrow Band Imaging) light source 32, an NBI filter 33, a light source control unit 34, and a light source changeover switch unit 35. As shown in FIG. 1, in the present embodiment, the light source device 3 includes two light sources 31 and 32, and the light source control unit 34 controls the light source changeover switch unit 35 according to a command from the video processor 1. To do. The light source changeover switch unit 35 performs switching so that light is output from either the normal light observation light source 31 or the NBI light source 32.

2台の光源31、32のうち、NBI用光源32には、NBI用フィルタ33が取り付けられている。これにより、NBI用フィルタ33の取り付けられているNBI用光源32から出力する光は、RGBのうち、G(緑色)及びB(青色)のみに絞られることとなる。   An NBI filter 33 is attached to the NBI light source 32 of the two light sources 31 and 32. Thus, the light output from the NBI light source 32 to which the NBI filter 33 is attached is limited to G (green) and B (blue) of RGB.

光源装置3は、出力した光を、図1においては不図示のライトガイドケーブルを通じてスコープ2に伝送する。
スコープ2は、観察対象5すなわち被検体の体腔内に挿入されて、光源装置3から供給された光を、照射口21を通じて観察対象5に照射する。レンズ22は、観察対象5に照射した光の反射光を結像し、CCD(Charge Coupled Device)23は、これを電気信号に変換してビデオプロセッサ1に出力する。スコープ制御部24は、CCD23の駆動タイミングの制御等を行う。
The light source device 3 transmits the output light to the scope 2 through a light guide cable not shown in FIG.
The scope 2 is inserted into the observation target 5, that is, the body cavity of the subject, and irradiates the observation target 5 with the light supplied from the light source device 3 through the irradiation port 21. The lens 22 forms an image of the reflected light of the light irradiated on the observation object 5, and a CCD (Charge Coupled Device) 23 converts this into an electric signal and outputs it to the video processor 1. The scope control unit 24 controls the drive timing of the CCD 23 and the like.

ビデオプロセッサ1は、プロセッサ10とFPGA(field-programmable gate array)6、8とを統合させて構成され、スコープ2で取得した映像信号を処理し、モニタ4に出力する。本実施形態においては、ビデオプロセッサ1は、ボタン等からなるユーザ操作部7を介してその旨が設定された場合には、通常光観察の映像ストリームとNBIの映像ストリームとが混在する映像ストリームの入力を受け付け、これを分離して、同時に2種類の観察映像を並列にモニタ4に出力することができる。   The video processor 1 is configured by integrating a processor 10 and FPGAs (field-programmable gate arrays) 6 and 8, processes a video signal acquired by the scope 2, and outputs the processed video signal to the monitor 4. In the present embodiment, the video processor 1, when set to that effect via the user operation unit 7 including buttons or the like, is a video stream in which the normal light observation video stream and the NBI video stream are mixed. The input can be received and separated, and two types of observation images can be simultaneously output to the monitor 4 in parallel.

プロセッサ10は、共有メモリ11、フロントエンド処理部12、画像処理部(図1においてはISP(Image Signal Prosessing)処理部)13、メモリ14、システム制御部15、映像合成処理部16及びバックエンド処理部17を有し、FPGA6から入力された映像信号に必要な処理を施して、FPGA8を通じてモニタ4に出力する。   The processor 10 includes a shared memory 11, a front-end processing unit 12, an image processing unit (an ISP (Image Signal Processing) processing unit in FIG. 1) 13, a memory 14, a system control unit 15, a video composition processing unit 16, and a back-end process. The video signal input from the FPGA 6 is subjected to necessary processing, and is output to the monitor 4 through the FPGA 8.

このうち、共有メモリ11は、FPGA6から入力されたRAWデータ(映像ストリーム)を一時的に保持しておき、フロントエンド処理部12にRAWデータを渡す。詳しくは後述するが、ユーザ操作部7により光源装置3の出力を切り替え、通常光観察映像とNBI映像との両方を交互に撮影する撮影モードが設定されている場合は、プロセッサ10に入力されるRAWデータは、2種類の観察映像信号が混在している。複数種類(実施例では2種類)の観察映像信号が混在した映像ストリームを取得する撮影モードを、以下においては、「並列撮影モード」という。   Among these, the shared memory 11 temporarily holds the RAW data (video stream) input from the FPGA 6 and passes the RAW data to the front end processing unit 12. As will be described later in detail, when the user operation unit 7 switches the output of the light source device 3 and the photographing mode for alternately photographing both the normal light observation video and the NBI video is set, the signal is input to the processor 10. RAW data is a mixture of two types of observation video signals. Hereinafter, a shooting mode for acquiring a video stream in which a plurality of types (two types in the embodiment) of observation video signals are mixed is referred to as “parallel shooting mode”.

フロントエンド処理部12は、画像処理部13において画像処理を行う際の前段処理を実行する。例えば、モニタ4に表示するために画像サイズの縮小や拡大等の処理を実行する。   The front end processing unit 12 performs pre-processing when performing image processing in the image processing unit 13. For example, processing such as reduction or enlargement of the image size is executed for display on the monitor 4.

画像処理部13は、フロントエンド処理部12にて必要な前段処理を施した映像信号に対し、必要な画像処理を施す。画像処理部において実行する画像処理の詳細については、公知の技術であるので詳細な説明は省略する。また、画像処理部13は、撮影モードが上記の撮影モードに設定されている場合は、入力された映像ストリームから、フレーム画像を抽出する。そして、画像処理部13は、各フレーム画像を解析し、そのフレーム画像がそれぞれの観察映像の映像信号が有する特徴のいずれを備えるかに基づき、通常光観察の映像ストリームまたはNBIの映像ストリームのいずれに含まれるものであるかを判定する。そして、画像処理部13は、撮影モードが上記の並列撮影モードに設定されている場合は、通常光観察の映像ストリームと、NBIの映像ストリームとに分離し、映像合成処理部16に出力する。   The image processing unit 13 performs necessary image processing on the video signal that has been subjected to necessary pre-processing by the front-end processing unit 12. The details of the image processing executed in the image processing unit are well-known techniques, and a detailed description thereof will be omitted. Further, when the shooting mode is set to the above-described shooting mode, the image processing unit 13 extracts a frame image from the input video stream. Then, the image processing unit 13 analyzes each frame image, and based on which of the features of the video signal of each observation video the frame image has, which of the normal light observation video stream or the NBI video stream It is determined whether it is included in. Then, when the shooting mode is set to the parallel shooting mode, the image processing unit 13 separates the normal light observation video stream and the NBI video stream and outputs the separated video stream to the video synthesis processing unit 16.

映像合成処理部16は、画像処理部13が出力した映像ストリームを合成して、モニタ4に表示する映像を作成する。具体的には、内視鏡映像や、内視鏡映像以外のモニタ4に表示させる情報、例えば、患者情報、年月日や時刻その他各種の検査に関する情報を、それぞれ画面上の所定の位置に配置した映像を作成する。映像合成処理部16は、作成したモニタ4表示用の映像信号を、バックエンド処理部17に出力する。   The video composition processing unit 16 composes the video stream output from the image processing unit 13 and creates a video to be displayed on the monitor 4. Specifically, endoscope images and information to be displayed on the monitor 4 other than the endoscope images, for example, patient information, date, time, and other information related to various examinations are respectively displayed at predetermined positions on the screen. Create the placed video. The video composition processing unit 16 outputs the created video signal for display on the monitor 4 to the back-end processing unit 17.

なお、実施例では、画像処理部13において観察映像の種類ごとに2つの映像ストリームに分離する構成としているが、これには限定されない。例えば、画像処理部13においては、フレーム画像ごとに、そのフレーム画像が2種類の観察映像のうちいずれに含まれるかを示す情報を付与しておき、映像合成処理部16においてこの情報を参照することにより、2つの映像ストリームに分離する構成としてもよい。   In the embodiment, the image processing unit 13 is configured to separate the two video streams for each type of observation video, but is not limited thereto. For example, in the image processing unit 13, information indicating which of the two types of observation images the frame image is included in is given to each frame image, and this information is referred to in the video composition processing unit 16. Thus, it may be configured to be separated into two video streams.

バックエンド処理部17は、モニタ4表示用の映像信号に対してインターレース/プログレッシブ変換等の必要な処理を実行し、後段のFPGA8に出力する。こうして、スコープ2で撮影した内視鏡映像が、FPGA8を通じてモニタ4に出力される。   The back-end processing unit 17 performs necessary processing such as interlace / progressive conversion on the video signal for display on the monitor 4 and outputs it to the FPGA 8 at the subsequent stage. In this way, the endoscopic image captured by the scope 2 is output to the monitor 4 through the FPGA 8.

モニタ4は、ビデオプロセッサ1から入力された映像信号に必要な処理を施し、画面上に映像を表示させる。
このように、本実施形態に係る内視鏡システム100によれば、並列撮影モードが設定されている場合は、光源装置3が、波長が互いに異なる光を交互に出力する。ビデオプロセッサ1の画像処理部13は、並列撮影モードにおいては、スコープ2から入力された2種類の観察映像が混在する映像ストリームを解析し、観察映像の種類ごとに分離し、モニタ4に出力する。モニタ4は、ビデオプロセッサ1から受信した2つの映像ストリームを、同時に出力表示することができる。
The monitor 4 performs necessary processing on the video signal input from the video processor 1 and displays the video on the screen.
Thus, according to the endoscope system 100 according to the present embodiment, when the parallel photographing mode is set, the light source device 3 alternately outputs light having different wavelengths. In the parallel shooting mode, the image processing unit 13 of the video processor 1 analyzes a video stream in which two types of observation video input from the scope 2 are mixed, separates each type of observation video, and outputs the separated video to the monitor 4. . The monitor 4 can output and display two video streams received from the video processor 1 simultaneously.

なお、図1においては1台のモニタ4に2つの映像を並列に表示する場合を例示しているが、これに限定されるものではない。例えば、ビデオプロセッサ1が2台のモニタ4A、4Bと接続され、モニタ4A、4Bのそれぞれに各観察映像の映像ストリームを出力する構成とすることもできる。かかる構成によれば、ビデオプロセッサ1は、通常光観察映像用の画像処理部13AとNBI映像用の画像処理部13Bとを備える。各画像処理部13は、それぞれの後段の映像合成処理部16A、16BやFPGA8A、8B等を通じてそれぞれのモニタ4A、4Bに自装置にて検出した観察映像の映像ストリームを出力することとなる。   Although FIG. 1 illustrates the case where two images are displayed in parallel on one monitor 4, the present invention is not limited to this. For example, the video processor 1 may be connected to two monitors 4A and 4B, and a video stream of each observation video may be output to each of the monitors 4A and 4B. According to this configuration, the video processor 1 includes the image processing unit 13A for normal light observation video and the image processing unit 13B for NBI video. Each image processing unit 13 outputs the video stream of the observation video detected by the own device to each of the monitors 4A and 4B through the subsequent video composition processing units 16A and 16B and FPGAs 8A and 8B.

図2は、本実施形態に係る内視鏡システム100による観察映像の映像ストリームの分離方法についての全体説明図であり、図3は、内視鏡システム100による各処理段階における観察映像のデータ構成を例示する図である。図2及び図3を参照して、ビデオプロセッサ1において、スコープ2から入力された2種類の観察映像が混在する映像ストリームを観察映像の種類により分離し、モニタ4に同時に並列で表示させる方法について、具体的に説明する。   FIG. 2 is an overall explanatory diagram of a method for separating a video stream of an observation video by the endoscope system 100 according to the present embodiment, and FIG. 3 is a data configuration of the observation video at each processing stage by the endoscope system 100. FIG. Referring to FIGS. 2 and 3, the video processor 1 separates a video stream in which two types of observation video input from the scope 2 are mixed according to the type of the observation video, and simultaneously displays them on the monitor 4 in parallel. This will be described in detail.

上記のとおり、ユーザ操作部7を介して設定された撮影モードに応じて、光源装置3の光源制御部34は、切替スイッチ部35に切替制御信号を送信する。ユーザによって通常光観察映像またはNBI映像のうちいずれか一方を撮影するモードが選択された場合には、光源制御部34は、光源31、32のうち、一方の撮影モードに対応する方を選択する旨の切替制御信号を生成し、切替スイッチ部35に送信する。上述の並列撮影モードが選択された場合には、光源制御部34は、通常光観察用光源31及びNBI用光源32の間で接続先を高速に切り替える旨の切替制御信号を生成し、切替スイッチ部35に送信する。切替スイッチ部35は、光源制御部34から受信した切替制御信号にしたがって、接続先の光源を決定し、並列撮影モードが設定されている場合は、2台の光源31、32の間で高速に接続先の切り替えを行う。   As described above, the light source control unit 34 of the light source device 3 transmits a switching control signal to the changeover switch unit 35 in accordance with the shooting mode set via the user operation unit 7. When the user selects a mode for capturing one of the normal light observation image and the NBI image, the light source control unit 34 selects one of the light sources 31 and 32 that corresponds to one of the image capturing modes. A change control signal indicating this is generated and transmitted to the changeover switch unit 35. When the above-described parallel photographing mode is selected, the light source control unit 34 generates a switching control signal for switching the connection destination between the normal light observation light source 31 and the NBI light source 32 at a high speed. To the unit 35. The changeover switch unit 35 determines a connection destination light source according to the switching control signal received from the light source control unit 34, and when the parallel shooting mode is set, the changeover switch unit 35 speeds up between the two light sources 31 and 32 at high speed. Switch the connection destination.

なお、通常光観察またはNBIのいずれか一方の撮影モードが設定されている場合については、切替スイッチ部35により2台の光源31、32のうち撮影モードに応じた光源を接続先に設定する点以外については従来と同様である。このため、以下においては、従来技術に係わる説明は省略し、並列撮影モードが設定されている場合の内視鏡システム1を構成する各装置の動作を中心に説明することとする。   In the case where either the normal light observation mode or the NBI shooting mode is set, the light source corresponding to the shooting mode is set as the connection destination among the two light sources 31 and 32 by the changeover switch unit 35. Other than this, it is the same as the conventional one. For this reason, in the following, the description related to the prior art is omitted, and the operation of each device constituting the endoscope system 1 when the parallel imaging mode is set will be mainly described.

切替スイッチ部35が、通常光観察用光源31とNBI用光源32とで接続先を高速で切り替えると、スコープ2の撮像部が取得する各フレームの画像は、通常光観察画像IまたはNBI画像Iのいずれかである。スコープ2からビデオプロセッサ1に入力される映像ストリームSには、通常光観察画像IとNBI画像Iが混在することとなる。なお、図2では、図1のレンズ22及びCCD23をスコープ2の「撮像部」としている。 When the changeover switch unit 35 switches the connection destination between the normal light observation light source 31 and the NBI light source 32 at a high speed, the image of each frame acquired by the imaging unit of the scope 2 is the normal light observation image IO or NBI image. it is one of the I N. The video stream S supplied from the scope 2 to the video processor 1, so that the normal light observation image I O and NBI image I N are mixed. In FIG. 2, the lens 22 and the CCD 23 in FIG.

図2の映像検出部19は、ビデオプロセッサ1の画像処理部13の構成の一つである。映像検出部19は、各フレーム画像Iのうち、「映像データ」のフィールドを解析して、それが通常光観察画像IであるのかNBI画像Iであるのかを判定する。フレーム画像Iの「映像データ」に基づき、どのようにしてその画像Iが通常光観察画像IあるいはNBI画像Iのいずれであるかを判定するかについては、後に、図4及び図5を参照して説明することとする。 The video detection unit 19 in FIG. 2 is one of the configurations of the image processing unit 13 of the video processor 1. Image detection unit 19, among the frame image I, by analyzing the fields of the "video data", determines whether it is a it to either NBI image I N a normal light observation image I O. Based on the "image data" in the frame image I, for how a the image I to determine which one of the normal light observation image I O, or NBI image I N is later, to FIGS It will be described with reference to it.

画像処理部13は、画像処理部13内の映像検出部19において、いずれの観察画像であるかを判定する映像検出処理を実行すると、処理結果にしたがって、各フレーム画像Iを、通常光観察映像ストリームS及びNBI映像ストリームSに振り分ける。このようにして、2つに分離された各映像ストリームSO、は、同時にそれぞれモニタ4A、4Bに表示される。図1の説明においても述べたように、1台のモニタ4に2種類の観察映像を並べて表示する構成としてもよい。 When the image processing unit 19 in the image processing unit 13 performs a video detection process for determining which observation image is being detected, the image processing unit 13 converts each frame image I into a normal light observation video according to the processing result. It distributes the stream S O and NBI video stream S N. The video streams S O and S N separated into two in this way are simultaneously displayed on the monitors 4A and 4B, respectively. As described in the description of FIG. 1, two types of observation images may be displayed side by side on one monitor 4.

なお、本実施形態においては、光源装置3の切替スイッチ部35が2つの光源31、32の切り替えを行うタイミングと、スコープ2のCCD23が撮像を行うタイミングとは、同期を取っていない。このため、図2や図3に例示するように、2種類の観察映像が交互に取得されるとは限らない。そこで、画像処理部13の映像検出部19は、フレーム画像Iごとに解析を行い、フレーム画像Iごとに、それぞれ通常光観察画像IまたはNBI画像Iのいずれであるのかを判定していく必要がある。これについて、図4及び図5を参照して説明する。 In the present embodiment, the timing at which the changeover switch unit 35 of the light source device 3 switches between the two light sources 31 and 32 and the timing at which the CCD 23 of the scope 2 performs imaging are not synchronized. For this reason, as illustrated in FIGS. 2 and 3, two types of observation images are not always acquired alternately. Therefore, the image detecting unit 19 of the image processing section 13 analyzes each frame image I, for each frame image I, will determine either a is whether the normal light observation image I O, or NBI image I N respectively There is a need. This will be described with reference to FIGS.

図4は、観察画像の種類を判定する第1の方法を説明する図である。
第1の方法によれば、フレーム画像の色に関する特徴を利用して、そのフレーム画像の種類を判定する。具体的には、画像処理部13の映像検出部19は、画像処理部13に入力される映像ストリームSのフレーム画像ごとにRAWデータをデモザイク処理し、各ピクセルごとに色データ(RGBフォーマット)を得る。そして、得られた色データ(RGB)を用いて、そのフレーム画像が通常光観察画像IまたはNBI画像Iのいずれであるかを判定する。
FIG. 4 is a diagram for explaining a first method for determining the type of observation image.
According to the first method, the type of the frame image is determined using the characteristics related to the color of the frame image. Specifically, the video detection unit 19 of the image processing unit 13 performs demosaic processing on the RAW data for each frame image of the video stream S input to the image processing unit 13, and generates color data (RGB format) for each pixel. obtain. Then, using the obtained color data (RGB), and determines whether the frame image is a one of the normal light observation image I O, or NBI image I N.

一般的に、図4に模式的に示すように、NBI画像IのピクセルPであれば、R(赤色)に対し、G(緑色)及びB(青色)が強くなる一方で、通常光観察画像IのピクセルPであれば、RがGやBよりもやや強くなる。この特徴を利用して、フレーム画像の全てのピクセルのRGBデータから、R、G及びBの各値を求め、RのGやBに対する比率を所定のしきい値と比較する。 In general, as schematically shown in FIG. 4, if the pixel P N of the NBI image I N, with respect to R (red), while G (green) and B (blue) becomes strong, normal light In the case of the pixel P O of the observation image IO , R is slightly stronger than G or B. Using this feature, R, G, and B values are obtained from the RGB data of all the pixels of the frame image, and the ratio of R to G and B is compared with a predetermined threshold value.

RのGやBに対する比率が当該しきい値を超える場合には、そのフレーム画像は、通常光観察映像ストリームSに含まれるものであると判断する。RのGやBに対する比率が当該しきい値以下である場合には、そのフレーム画像は、NBI映像ストリームSに含まれるものであると判断する。 When the ratio R of the G and B exceeds the threshold value, the frame image is determined to be intended to be within the normal light observation image stream S O. When the ratio of R to G or B is equal to or less than the threshold value, it is determined that the frame image is included in the NBI video stream SN .

例えばフルHDであれば、1920×1080ピクセル=2,073,600ピクセルをRGBデータに変換する。そして、全てのピクセルのR、G及びBについて、例えば合計値や平均値を求めて上記の比較を行い、2種類の映像ストリームSまたはSのいずれに含まれるフレーム画像であるかを判定する。 For example, in the case of full HD, 1920 × 1080 pixels = 2,073,600 pixels are converted into RGB data. Then, for R, G, and B of all the pixels, for example, a total value or an average value is obtained, and the above comparison is performed to determine which of the two types of video streams S O or S N is a frame image. To do.

このように、通常光観察映像とNBI映像とで明確に異なるRGBデータの特徴を利用することで、簡便に観察映像の種類ごとに映像ストリームを分離することが可能となる。   As described above, by utilizing the characteristics of RGB data that are clearly different between the normal light observation video and the NBI video, it is possible to easily separate the video streams for each type of the observation video.

図5は、観察画像の種類を判定する第2の方法を説明する図である。
第2の方法によれば、フレーム画像の輝度に関する特徴を利用して、そのフレーム画像の種類を判定する。具体的には、画像処理部13の映像検出部19は、画像処理部13に入力される映像ストリームSのフレーム画像ごとに、上記のRAWデータについてデモザイク処理して得られたRGBフォーマットの色データを更にYUVフォーマットに変換する。そして、得られた色データ(YUV)を用いて、そのフレーム画像が通常光観察画像IまたはNBI画像Iのいずれであるかを判定する。
FIG. 5 is a diagram for explaining a second method for determining the type of observation image.
According to the second method, the type of the frame image is determined using the feature related to the luminance of the frame image. Specifically, the video detection unit 19 of the image processing unit 13 obtains RGB format color data obtained by demosaicing the RAW data for each frame image of the video stream S input to the image processing unit 13. Is further converted to YUV format. Then, using the obtained color data (YUV), and determines whether the frame image is a one of the normal light observation image I O, or NBI image I N.

一般的に、NBI等の特殊光では、一部の波長の光しか照射されないため、特殊光観察映像は、通常光観察映像と比較して、全体的に暗い映像となる。この特徴を利用して、フレーム画像の各ピクセルの色データ(YUV)の中から、Y(輝度)のデータを抽出し、Yが所定のしきい値と比較する。Yの値が当該しきい値を超える場合には、そのフレーム画像は、相対的に明るい映像、すなわち、通常光観察映像ストリームSに含まれるものであると判断する。Yの値は、ITU−R BT709では、16≦Y≦235である。この範囲内で、適切なしきい値を設定する。 In general, special light such as NBI irradiates only a part of the wavelength of light. Therefore, the special light observation image is an overall dark image compared to the normal light observation image. Using this feature, Y (luminance) data is extracted from the color data (YUV) of each pixel of the frame image, and Y is compared with a predetermined threshold value. If the value of Y exceeds the threshold value, the frame image is relatively bright image, i.e., determines that are included in the normal light observation image stream S O. The value of Y is 16 ≦ Y ≦ 235 in ITU-R BT709. Set an appropriate threshold within this range.

Yの値が当該しきい値以下である場合には、そのフレーム画像は、相対的に暗い映像、すなわち、NBI映像ストリームSに含まれるものであると判断する。上記のとおり、実施例では、RAWデータをデモザイク処理して得られるRGBフォーマットの色データを、公知の計算式によりYUVフォーマットに変換する。得られたYUVフォーマットのデータを用いて、Yの合計値や平均値より上記比較を行い、2種類の映像ストリームSまたはSのいずれに含まれるフレーム画像であるかを判定し、分離して出力する。YUVフォーマットへの変換については、映像検出部19以外の構成がこれを実行し、変換後のYUVデータを映像検出部19に与える構成としてもよい。
このように、通常光観察映像とNBI映像とで明確に異なるY(輝度)の特徴を利用することで、簡便に観察映像の種類ごとに映像ストリームを分離することが可能となる。
If the value of Y is less than or equal to the threshold value, it is determined that the frame image is included in a relatively dark video, that is, the NBI video stream SN . As described above, in the embodiment, the RGB format color data obtained by demosaicing the RAW data is converted into the YUV format by a known calculation formula. Using the obtained YUV format data, the above comparison is made based on the total value or average value of Y, and it is determined whether the image is a frame image included in the two types of video streams SO or SN , and separated. Output. Regarding the conversion to the YUV format, a configuration other than the video detection unit 19 may execute this, and the converted YUV data may be provided to the video detection unit 19.
As described above, by using the characteristic of Y (luminance) that is clearly different between the normal light observation video and the NBI video, the video stream can be easily separated for each type of the observation video.

このように、本実施形態に係る内視鏡システム100によれば、光源装置3は、観察対象5である被検体に、波長の異なる通常光及び特殊光(狭帯域光)を交互に照射する。スコープ2は、通常光観察映像及びNBI映像の2種類の映像信号が混在する1つの映像ストリームを取得する。ビデオプロセッサ1の画像処理部13(の映像検出部19)は、スコープ2から入力された当該映像ストリームを構成する各フレーム画像について、通常光観察映像信号及びNBI映像信号のいずれの特徴を備えるかを判定する。これにより、画像処理部13(の映像検出部19)は、各フレーム画像が通常光観察映像信号またはNBI映像信号のいずれであるかを判定する。こうして、判定された観察映像の種類ごとに、2つの映像ストリームに分離して出力する。したがって、光の波長の異なる複数種類の内視鏡の映像信号を、波長を交互に切り替えて同時に取得した場合であっても、タイミング制御等の複雑な処理を要することなく、簡便な方法により、照射した光の波長に応じて、すなわち観察映像の種類に応じて、分離して並列に出力することが可能となる。   Thus, according to the endoscope system 100 according to the present embodiment, the light source device 3 alternately irradiates the subject that is the observation target 5 with normal light and special light (narrowband light) having different wavelengths. . The scope 2 acquires one video stream in which two types of video signals of normal light observation video and NBI video are mixed. Which of the characteristics of the normal light observation video signal and the NBI video signal is included in each frame image constituting the video stream input from the scope 2 by the image processing unit 13 (the video detection unit 19) of the video processor 1? Determine. Accordingly, the image processing unit 13 (the video detection unit 19 thereof) determines whether each frame image is a normal light observation video signal or an NBI video signal. In this way, for each determined type of observation video, it is separated into two video streams and output. Therefore, even when video signals of a plurality of types of endoscopes having different wavelengths of light are acquired by alternately switching wavelengths, a simple method without requiring complicated processing such as timing control, Depending on the wavelength of the irradiated light, that is, depending on the type of observation image, it can be separated and output in parallel.

なお、図1等においては、光源装置3は2台の光源31、32を備え、光源32にはNBI用フィルタ33が取り付けられてそれぞれの光源が異なる波長の光を出力する構成を例に説明しているが、これに限定されるものではない。例えば、光源装置3は光源を1台のみ備え、光路上にNBI用フィルタを挿脱する制御を行って、通常光観察映像及びNBI映像を含む映像ストリームを取得する構成であってもよい。ビデオプロセッサ1は、入力された映像ストリームに対して上記と同様の処理を実施することにより、観察映像の種類により分離することができる。   In FIG. 1 and the like, the light source device 3 includes two light sources 31 and 32. The light source 32 is provided with an NBI filter 33, and each light source outputs light having a different wavelength. However, the present invention is not limited to this. For example, the light source device 3 may be configured to include only one light source and perform control for inserting / removing an NBI filter on the optical path to obtain a video stream including a normal light observation video and an NBI video. The video processor 1 can perform separation according to the type of observation video by performing the same processing as described above on the input video stream.

また、上記の説明においては、内視鏡検査や内視鏡手術において、スコープ2で取得した映像をリアルタイムでモニタ4に表示するときに映像ストリームを観察映像の種類により分離して表示する方法について述べているが、これに限定されるものではない。例えば、光源装置3を波長の異なる2台の光源31、32で切り替えて同時に2つの観察映像についての映像ストリームを取得してこれを記憶部等に記憶しておき、のちにこれを再生するときに、再生装置において、上記の方法により映像ストリームを観察映像の種類により分離して表示する方法に適用することも可能である。   Further, in the above description, in the endoscopic examination or endoscopic operation, when displaying the video acquired by the scope 2 on the monitor 4 in real time, the video stream is separated and displayed according to the type of observation video. Although described, the present invention is not limited to this. For example, when the light source device 3 is switched between the two light sources 31 and 32 having different wavelengths, the video streams for the two observation videos are acquired at the same time, stored in the storage unit, etc., and then reproduced. In addition, the playback apparatus can be applied to a method of displaying a video stream separated according to the type of observation video by the above method.

また、本発明は上述した実施形態そのままに限定されるものではく、実施段階でのその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素を適宜組み合わせても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このような、発明の趣旨を逸脱しない範囲内において種々の変形や応用が可能であることはもちろんである。   Further, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, all the constituent elements shown in the embodiments may be appropriately combined. Furthermore, constituent elements over different embodiments may be appropriately combined. It goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1 ビデオプロセッサ
2 スコープ
3 光源装置
4 モニタ
5 観察対象(被検体)
10 プロセッサ
13 画像処理部(ISP処理部)
19 映像検出部
34 光源制御部
35 光源切替スイッチ部
100 内視鏡システム
1 Video Processor 2 Scope 3 Light Source Device 4 Monitor 5 Observation Object (Subject)
10 processor 13 image processing unit (ISP processing unit)
DESCRIPTION OF SYMBOLS 19 Image | video detection part 34 Light source control part 35 Light source changeover switch part 100 Endoscope system

Claims (4)

対象物に、光源装置から出力される波長の異なる第1及び第2の光を交互に照射して取得される映像信号であって、それぞれ第1及び第2の光による第1及び第2の映像信号が混在した1つの映像ストリームから、映像信号からフレーム画像を抽出する抽出部と、
前記フレーム画像を解析し、該フレーム画像が前記第1及び第2の映像信号がそれぞれ有する特徴のいずれを備えるかを判定することにより、該フレーム画像が第1または第2の映像信号のいずれであるかを判定する検出部と、
前記検出部の検出結果に基づき、前記映像ストリームから第1の映像信号の映像ストリーム及び第2の映像信号の映像ストリームを分離して出力する出力部と、
を有することを特徴とする画像処理装置。
A video signal obtained by alternately irradiating an object with first and second lights having different wavelengths output from a light source device, wherein the first and second lights are respectively obtained by the first and second lights. An extraction unit for extracting a frame image from the video signal from one video stream in which the video signals are mixed;
By analyzing the frame image and determining which of the features each of the first and second video signals has, the frame image is either the first or second video signal. A detection unit for determining whether there is,
An output unit that separates and outputs the video stream of the first video signal and the video stream of the second video signal from the video stream based on the detection result of the detection unit;
An image processing apparatus comprising:
前記第1及び第2の光は、それぞれ通常光領域及び特殊光領域の光であり、
前記検出部は、前記フレーム画像の色情報のうち、Rの値のG及びBの値に対する比率が所定のしきい値を超えるか否かに基づき、該フレーム画像が通常光による映像信号または特殊光による映像信号のいずれに該当するかを判定する
ことを特徴とする請求項1記載の画像処理装置。
The first and second lights are light in a normal light region and a special light region, respectively.
The detection unit determines whether the frame image is a video signal based on normal light or a special signal based on whether the ratio of the R value to the G and B values in the color information of the frame image exceeds a predetermined threshold. The image processing apparatus according to claim 1, wherein the image processing apparatus determines which of the video signals by light corresponds.
前記第1及び第2の光は、それぞれ通常光領域及び特殊光領域の光であり、
前記検出部は、前記フレーム画像の色情報のうち、輝度Yの値が所定のしきい値を超えるか否かに基づき、通常光による映像信号または特殊光による映像信号を識別する
ことを特徴とする請求項1記載の画像処理装置。
The first and second lights are light in a normal light region and a special light region, respectively.
The detection unit identifies a video signal based on normal light or a video signal based on special light based on whether or not the value of luminance Y exceeds a predetermined threshold among the color information of the frame image. The image processing apparatus according to claim 1.
前記第1及び第2の光をそれぞれ出力する第1及び第2の光源装置と、
前記出力部により分離された前記第1及び第2の映像信号の映像ストリームを表示する表示部と、
を更に備える請求項1乃至3のいずれか1項に記載の画像処理装置を有する内視鏡システム。
First and second light source devices for outputting the first and second lights, respectively;
A display unit for displaying video streams of the first and second video signals separated by the output unit;
An endoscope system comprising the image processing device according to any one of claims 1 to 3.
JP2013262608A 2013-12-19 2013-12-19 Image processing apparatus and endoscope system Expired - Fee Related JP6042798B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013262608A JP6042798B2 (en) 2013-12-19 2013-12-19 Image processing apparatus and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013262608A JP6042798B2 (en) 2013-12-19 2013-12-19 Image processing apparatus and endoscope system

Publications (2)

Publication Number Publication Date
JP2015116389A JP2015116389A (en) 2015-06-25
JP6042798B2 true JP6042798B2 (en) 2016-12-14

Family

ID=53529674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013262608A Expired - Fee Related JP6042798B2 (en) 2013-12-19 2013-12-19 Image processing apparatus and endoscope system

Country Status (1)

Country Link
JP (1) JP6042798B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5670264B2 (en) * 2011-06-13 2015-02-18 富士フイルム株式会社 Endoscope system and method for operating endoscope system
JP6103824B2 (en) * 2012-06-04 2017-03-29 オリンパス株式会社 Fluorescence endoscope device

Also Published As

Publication number Publication date
JP2015116389A (en) 2015-06-25

Similar Documents

Publication Publication Date Title
US10966592B2 (en) 3D endoscope apparatus and 3D video processing apparatus
JP5997817B2 (en) Endoscope system
JP4009626B2 (en) Endoscope video signal processor
US8734333B2 (en) Endoscope system, endoscope video processor and method of driving endoscope system
US20120274754A1 (en) Image processing device, endoscope system, information storage device, and image processing method
JP5143293B2 (en) Endoscope device
JP2010063589A (en) Endoscope system and drive control method thereof
US9635343B2 (en) Stereoscopic endoscopic image processing apparatus
JP2010063590A (en) Endoscope system and drive control method thereof
US20170296034A1 (en) Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device
JP5308884B2 (en) Endoscopic processor device and method of operating the same
JP7335399B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, AND METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS
US20150363942A1 (en) Image processing device, endoscope apparatus, image processing method, and information storage device
JP2011062378A (en) Endoscope system
JPH0761309B2 (en) Endoscope device
US10729309B2 (en) Endoscope system
US9589103B2 (en) Medical image recording/reproducing apparatus, medical image recording/reproducing method and computer readable medium
JP6430880B2 (en) Endoscope system and method for operating endoscope system
JP6042798B2 (en) Image processing apparatus and endoscope system
CN114269221A (en) Medical image processing device, endoscope system, medical image processing method, and program
JP2003250759A (en) Endoscope imaging system
WO2022210508A1 (en) Processor device, medical image processing device, medical image processing system, and endoscopic system
US20240087090A1 (en) Processor for electronic endoscope and electronic endoscopic system
JP6801990B2 (en) Image processing system and image processing equipment
KR101630364B1 (en) medical imaging system using endoscope and method for controlling the same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161110

R151 Written notification of patent or utility model registration

Ref document number: 6042798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees