WO2007023631A1 - 内視鏡挿入形状解析装置及び内視鏡挿入形状解析システム - Google Patents
内視鏡挿入形状解析装置及び内視鏡挿入形状解析システム Download PDFInfo
- Publication number
- WO2007023631A1 WO2007023631A1 PCT/JP2006/314574 JP2006314574W WO2007023631A1 WO 2007023631 A1 WO2007023631 A1 WO 2007023631A1 JP 2006314574 W JP2006314574 W JP 2006314574W WO 2007023631 A1 WO2007023631 A1 WO 2007023631A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- shape
- endoscope
- information
- display
- analysis
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00055—Operational features of endoscopes provided with output arrangements for alerting the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/005—Flexible endoscopes
- A61B1/0051—Flexible endoscopes with controlled bending of insertion part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/005—Flexible endoscopes
- A61B1/009—Flexible endoscopes with bending or curvature detection of the insertion part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7232—Signal processing specially adapted for physiological signals or for diagnostic purposes involving compression of the physiological signal, e.g. to extend the signal recording period
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Definitions
- the present invention relates to an endoscope insertion shape analysis apparatus and an endoscope insertion shape analysis system for analyzing a situation where an insertion of an endoscope insertion part is interrupted and / or the insertion is inhibited. .
- an endoscope shape detection device that detects the insertion shape of an endoscope using a source coil or the like has been proposed as a device that can know a bent state or the like when an endoscope is inserted. Has been.
- an endoscopic image is recorded and recorded, and used for training to learn endoscopic operations to confirm the observation site at a later date.
- Japanese Patent Application Laid-Open No. 2004-147778 discloses an endoscope in which endoscope insertion shape data and endoscope image data are stored together, and both images can be reproduced in synchronization and freely compared.
- An image processing device is proposed!
- the device detects, for example, the shape of the endoscope insertion portion when the endoscope is inserted into the large intestine by the endoscope insertion shape observation device. At the same time, shape analysis is performed by the image processing device, and the shape of the endoscope insertion portion is related. Provide analysis results.
- the analysis result relates to the shape of the insertion portion and the endoscope operation of the operator, and indicates whether or not the shape of the endoscope insertion portion is a predetermined shape and a predetermined shape change. This is achieved by judging the strength of the heat.
- the present invention has been made in view of the above circumstances, and endoscope insertion shape analysis capable of stably performing shape analysis and analyzing the insertion state of the endoscope with the entire shape of the insertion portion. For the purpose of providing equipment!
- the present invention provides an endoscope insertion shape analysis apparatus and endoscope insertion shape analysis that can more reliably confirm insertion auxiliary information corresponding to a predetermined response operation state of an insertion portion with respect to an insertion operation or the like.
- a further objective is to provide a system.
- FIG. 1 is a block diagram showing the overall configuration of an electronic endoscope system according to Embodiment 1 of the present invention.
- FIG. 4 is a block diagram of an analysis window displayed on the display of the image processing apparatus of FIG. 1.
- FIG. 5 is a flowchart regarding processing of examination information and an endoscopic image and insertion shape data in the image processing apparatus of FIG. Figure
- FIG. 6 is a detailed flowchart of the shape analysis process in FIG.
- FIG. 7 is a diagram for explaining the processing in FIG.
- FIG. 8 is a diagram showing the structure of a dictionary file stored in the storage device of the image processing apparatus in FIG.
- FIG. 9 First diagram showing shapes classified in the dictionary file of FIG.
- FIG. 10 Second diagram showing shapes classified in the dictionary file of FIG.
- FIG. 11 Third diagram showing shapes classified in the dictionary file of FIG.
- FIG. 12 Fourth diagram showing shapes classified in the dictionary file of FIG.
- FIG. 14 is a diagram showing a ring buffer built in a memory of an image processing apparatus according to Embodiment 2 of the present invention.
- FIG. 15 is a flowchart for explaining the processing flow of the image processing apparatus using the ring buffer of FIG.
- FIG. 16 is a diagram for explaining the processing of FIG.
- FIG. 17 is a diagram showing a dictionary file stored in the storage device of the image processing apparatus that can be used in the processing of FIG.
- FIG. 18 is a diagram showing a code correction dictionary stored in the storage device of the image processing apparatus that can be used in the processing of FIG.
- FIG. 19 is a block diagram showing the overall configuration of an electronic endoscope system according to Embodiment 3 of the present invention.
- FIG. 20 is a block diagram showing the configuration of a PC operation program of the image processing apparatus in FIG.
- FIG. 21 A diagram showing a registration window in which the output destination registration block of the operation program in FIG. 20 is expanded.
- FIG. 22 is a first flowchart showing the flow of processing of the operation program of FIG.
- FIG. 23 is a second flowchart showing the process flow of the operation program of FIG.
- FIG. 24 is a third flowchart showing the flow of processing of the operation program of FIG.
- FIG. 25 is an overall configuration diagram of an in-vivo insertion monitoring system including Example 4 of the present invention.
- FIG. 26 is a diagram showing coordinates of a source coil provided in an insertion portion detected by the endoscope insertion shape observation apparatus according to Embodiment 4 of the present invention.
- FIG. 27 is an explanatory diagram showing insertion shape data generated by the endoscope insertion shape observation apparatus according to Embodiment 4 of the present invention.
- FIG. 28 is a diagram showing a functional block configuration and the like realized by the image processing apparatus according to the fourth embodiment of the present invention.
- FIG. 29 Explanatory drawing showing the data flow and processing flow by the analysis processing block shown in FIG.
- FIG. 30 is an explanatory diagram showing an operation of controlling the display duration of the insertion auxiliary information according to a difference value between the update timing of the insertion auxiliary information and the current time according to Embodiment 4 of the present invention.
- FIG. 31 is a diagram showing a modified example related to the display characteristics of the auxiliary insertion information according to Embodiment 4 of the present invention.
- FIG. 32 is a diagram showing a configuration of functional blocks realized by the image processing apparatus in Embodiment 5 of the present invention.
- FIG. 33 Explanatory drawing showing the data flow and processing flow by the analysis processing block shown in FIG.
- FIG. 34 Specific example of programming of processing contents of processing script according to embodiment 5 of the present invention Best mode for carrying out the invention
- an electronic endoscope system 1 as an endoscope insertion shape analysis device is composed of an endoscope device 2, an endoscope insertion shape observation device 3, and an image processing device 4. Yes.
- the endoscope apparatus 2 includes an electronic endoscope 21, a video processor 22, a light source device 23, and an observation monitor 24!
- the electronic endoscope 21 is configured so that observation light for illuminating an observation site in the distal end force lumen of the insertion portion 21a is irradiated by a light guide (not shown) provided in the insertion portion 21a. It is.
- the electronic endoscope 21 is provided with an electronic imaging device (for example, CCD) force (not shown) at the distal end of an elongated insertion portion 21a to be inserted into the body cavity of the subject. Further, the electronic endoscope 21 is driven and controlled by the electronic image pickup device, and generates and outputs an image pickup video signal of the observation site in the lumen.
- CCD electronic imaging device
- a bending portion 21b is provided at the distal end portion of the insertion portion 21a of the electronic endoscope 21, and a bending operation can be performed at the operation portion 21c provided on the proximal end side of the insertion portion 21a. .
- a release switch 25 is provided in the operation unit 21c of the electronic endoscope 21.
- the operation unit 21c is provided with a cable for driving and controlling the electronic image pickup device with the video processor 22 and for transmitting and receiving a picked up image signal.
- the operation unit 21c is provided with a light guide cable (not shown) for guiding observation light from the light source device 23 to the light guide.
- the electronic endoscope 21 is provided with a plurality of source coils (to be described later) constituting a detection function for detecting the insertion position and shape of the insertion portion 21a in the lumen.
- the insertion position and shape detection function is a sense coil unit having a plurality of source coils arranged along the insertion axis of the insertion portion 21a and a plurality of sense coils provided in the endoscope insertion shape observation device 3. It consists of 31.
- the plurality of source coils are arranged in the insertion portion 21a of the endoscope at predetermined intervals determined for each type of endoscope.
- the video processor 22 controls driving of the electronic image sensor of the electronic endoscope 21. Furthermore, the video processor 22 performs predetermined signal processing on the video signal of the moving image that has been photoelectrically converted and generated by the electronic image sensor, and generates a YZC signal or RGB signal composed of a luminance signal and a color signal. .
- the YZC signal or RGB signal consisting of the luminance signal and color signal generated by the video processor 22 is directly sent to the observation monitor 24 and the image processing device 4. It will be output immediately! /
- the video processor 22 can output a still image of the captured image.
- the video processor 22 has an input function (not shown) for inputting examination information related to the endoscopic examination.
- the light source device 23 includes a lamp (not shown) that is an illumination light source and a lighting circuit (not shown) of the lamp.
- the light source device 23 supplies the illumination light projected when the lamp is lit to the light guide of the electronic endoscope 21, and the illumination light is projected to the observation portion of the distal end force lumen of the insertion portion 21a.
- the observation monitor 24 displays an endoscopic image based on the YZC signal or RGB signal generated by the video processor 22.
- the endoscope insertion shape observation device 3 is a peripheral device of the endoscope device 2, and includes a sense coil unit 31, a shape processing device 32, and a monitor 33.
- the sense coil unit 31 is a unit that detects magnetic fields from a plurality of source coils provided in the insertion portion 21 a of the electronic endoscope 21.
- the shape processing device 32 is a device that estimates the shape of the endoscope insertion portion based on the magnetic field detected by the sense coil unit 31.
- the monitor 33 is a device that displays the shape of the endoscope insertion portion estimated by the shape processing device 32.
- the shape processing device 32 outputs a drive signal for driving the source coil to the electronic endoscope 21 to generate a magnetic field in the source coil.
- the shape processing device 32 calculates the position coordinate data of each source coil based on the detection signal from the sense coil unit 31 that has detected the generated magnetic field, and performs an internal view based on the calculated position coordinate data.
- the shape of the mirror insertion part is estimated.
- the shape processing device 32 generates an insertion portion shape image signal for displaying the estimated shape of the endoscope insertion portion on the monitor.
- the shape processing device 32 may be configured to generate three-dimensional coordinate information indicating the shape of the endoscope insertion portion to be output to the image processing device 4 and insertion shape data such as shape display attributes.
- the plurality of source coils, the sense coil unit 31, and the shape processing device 32 constitute the shape detecting means.
- the rotation angle of the insertion portion shape image generated and processed by the shape processing device 32 and displayed on the monitor 33 and shape display attributes such as enlargement / reduction are not shown. It can be changed by inputting instructions on the operation panel. Further, the insertion shape data generated by the shape processing device 32 can be output to the image processing device 4.
- the image processing apparatus 4 is also configured with a personal computer (hereinafter simply referred to as a PC) 41, a mouse 42, a keyboard 43, and a force that constitute shape analysis means and pattern classification means.
- the mouse 42 and the keyboard 43 are input devices for inputting various instructions to the PC 41.
- the display 44 is a device that reproduces and displays various information data and image information processed by the PC 41. Further, the display 44 as a display means displays the endoscope image captured by the electronic endoscope 21 and the shape of the endoscope insertion portion detected by the shape processing device 32 on one screen. Speak.
- the PC 41 is a first communication port 41a, a second communication port 41b, a moving image input board 4lc, a memory 41e having a power of, for example, a semiconductor element, and an information storage means having a power of, for example, a hard disk. Storage device 4 If.
- the PC 41 as the shape analysis means calculates, that is, analyzes and obtains a specific position or the like that inhibits the insertion of the endoscope based on the insertion shape data or the like.
- the first communication port 41a takes in the insertion shape data output from the communication port 32a of the shape processing device 32 of the endoscope insertion shape observation device 3.
- the second communication port 41b captures endoscopy information output from the communication port 22a of the video processor 22 of the endoscope apparatus 2! /.
- the moving image input board 41c converts the moving image signal generated by the video processor 22 of the endoscope apparatus 2 into predetermined compressed image data.
- the video signal of the moving image generated by the video processor 22 is input to the moving image input board 41c of the image processing device 4.
- the moving image input board 41c converts the video signal of the moving image into predetermined compressed moving image video signal data, for example, compressed image data in MJPEG format.
- the converted compressed image data is stored in the storage device 41f of the PC 41.
- examination information related to the endoscopic examination is input from the video processor 22.
- inspection information is displayed on the observation monitor 24 as character and number information. Further, the inspection information data can be transmitted from the communication port 22a to the image processing device 4 via the second communication port 41b and recorded in the memory 41e or the storage device 4 If.
- the examination information includes, for example, the patient's name, date of birth, sex, age, patient code, and the like.
- the image processing device 4 is connected to the video processor 22 as necessary, and receives various information data from the video processor 22 and stores them in the memory 41e or the storage device 41f. .
- the endoscope insertion shape observing device 3 has M pieces of built-in insertion parts 21a of the electronic endoscope 21 for each frame of the picked-up video signal picked up by the electronic image pickup device of the electronic endoscope 21. generating the insertion shape data including three-dimensional coordinates of the source coils.
- the endoscope insertion shape observation device 3 generates an insertion portion shape image based on the insertion shape data, displays it on the monitor 33, and outputs and supplies the insertion shape data to the image processing device 4.
- M source coils for estimating the insertion shape are built in the insertion portion 21 a of the electronic endoscope 21. Then, the position force reference point of each source coil is configured.
- the coordinate system of the source coil detected by the endoscope insertion shape observation device 3 is expressed by the following equation 1 as the three-dimensional coordinates of the m-th source coil counted from the tip of the insertion portion 21a of the j-th frame. It ’s like that.
- j the jth frame of the captured video signal imaged by the electronic image sensor.
- the structure of the insertion shape data indicating the coordinate system of the source coil detected by the endoscope insertion shape observation device 3 is a structure as shown in Fig. 3, and the data related to one frame is one. Sent as a packet.
- One packet contains format type information, insertion shape Data creation time, display attribute information, attached information, and source coil coordinate data.
- the format type defines the data size assigned to each of the insertion shape data creation time, display attribute, additional information, and coil coordinates.
- the data size is defined as the number of source coil data determined for each endoscope type, insertion shape data creation time, accuracy of coil coordinates, information attribute included in display attributes and attached information. means.
- the source coils are arranged side by side in the order of the force toward the operation portion 21c provided on the proximal end side of the insertion portion 21a. That is, the coordinate data of these source coils are the three-dimensional coordinates of the source coils built in the insertion portion 21a of the electronic endoscope 21. It is assumed that the three-dimensional coordinates (0, 0, 0) are set as the coordinates of the source coil outside the detection range by the endoscope insertion shape observation device 3.
- the processing contents are the inspection information and the endoscope image from the video processor 22 of the endoscope apparatus 2 and the insertion shape data from the shape processing apparatus 32 of the endoscope insertion shape observation apparatus 3.
- the processing operation is realized by having the inspection application program (hereinafter referred to simply as an application) provided in the image processing apparatus 4 be expanded / executed on the PC 41 and executed. .
- the video processor 22 inputs examination information, and the PC 41 of the image processing apparatus 4 starts an examination application.
- the display 44 is configured to display an analysis window 50 shown in FIG.
- Fig. 4 shows the display contents during the processing of the insert shape data.
- the analysis window 50 includes a file menu 51, a warning information display area 52, an examination information display area 53, an endoscope image display area 54, an endoscope insertion shape display area 55, an attached information display area 56, and display parameters.
- a time series sub-information display area 60, a slider 61, a start button 62, and a stop button 63 are included.
- the X-axis of the time-series graph area 59 and the time-series sub-information display area 60 is a time axis, which is the horizontal direction in FIG.
- the time series graph area 59 and the time series sub-information display area 60 are graphed by moving the plot position to the right in Fig. 4 while plotting points each time insertion shape data is acquired, that is, over time. This is the area to create.
- the position of the plotted point in the Y-axis direction is determined by the feature value representing the shape of the endoscope insertion portion 21a calculated by the PC 41 of the image processing apparatus 4.
- the angle, insertion length, and stop coil position as a specific position calculated by the endoscope image processing device 4 are plotted. That is, processing is performed so that the calculated specific position is visualized by a graph.
- the Y-axis scale and 0 point position are set individually.
- the Y-axis direction is the vertical direction in FIG.
- buttons of the display parameter check box 57 there are an angle, an insertion length, and a stop coil position. Select the type of parameters to be displayed in the time series graph area 59 by checking the check box.
- a selection window (not shown) for selecting an insertion shape file and an image file recorded in the past by the image processing apparatus 4 is displayed. It is possible to select and read.
- the insertion shape file is a collection file of insertion shape data generated by the endoscope insertion shape observation device 3 during the examination.
- the image file is a set file of compressed image data generated by the moving image input board 41c of the image processing apparatus 4.
- step S 1 the PC 41 reads the initialization file power of the application initialization information.
- the initialization file is stored in advance in the storage device 41f of the PC 41.
- PC41 then stores the read initialization file information in PC41.
- the analysis window 50 is displayed on the display 44 after being stored in the memory 41e.
- the initialization information includes the name of the electronic endoscope 21 that can be used in the electronic endoscope system 1 and the data size information for each format type of the insertion shape data. It is out. Further, the initialization information includes the distance between the source coils when the insertion portion 21a of the electronic endoscope 21 is straightened, and parameters used for the shape analysis processing.
- the distance between the source coils is hereinafter referred to as source coil distance information.
- the initialization information includes display position coordinates on the display 44 of the analysis window 50. Based on the display position coordinates, the PC 41 displays the analysis window 50 on the display 44.
- step S2 the PC 41 enters a mode for receiving and storing examination information and endoscope image data from the video processor 22, and insertion shape data from the shape processing device 32 of the endoscope insertion shape observation device 3. Set.
- step S3 the PC 41 determines whether or not the operator operates the mouse 42 or the keyboard 43 and the start button 62 displayed in the analysis window 50 is pressed.
- the system waits until the start button 62 is pressed, and when it is pressed, step S4 and subsequent steps are executed.
- step S4 the PC 41 opens the first communication port 41a, and starts communication with the endoscope insertion shape observation device 3. Further, in step S5, the PC 41 opens the second communication port 41b and starts communication with the video processor 22.
- step S6 the PC 41 transmits a test information acquisition command to the video processor 22 through the second communication port 41b to the communication port 22a of the video processor 22.
- the video processor 22 that has received the inspection information acquisition command transmits the inspection information to the PC 41.
- the PC 41 records and stores the inspection information transmitted from the video processor 22 in step S6 in the storage device 41f and displays it in the inspection information display area 53 of the analysis window 50 in step S7.
- step S8 the PC 41 transmits an insertion shape data acquisition command from the first communication port 41a to the communication port 32a of the shape processing device 32 of the endoscope insertion shape observation device 3.
- the shape processing device 32 that has received the insertion shape data acquisition command receives the insertion shape data acquisition command.
- the transmission of status data is started. The transmission continues until the communication between the PC 41 and the shape processing device 32 is completed and the communication port 32a is closed.
- step S9 the PC 41 receives the insertion shape data transmitted from the shape processing device 32 in step S8. Then, the PC 41 associates the received insertion shape data with the examination information recorded and saved in step S7, and records and saves it as an insertion shape file in the storage device 4 If provided in the PC 41. At the same time, the insertion shape data is recorded on the memory 41e in the PC 41 as needed.
- step S10 the PC 41 uses the moving image input board 41c to convert the moving image video signal input from the video processor 22 into compressed image data in the MJPEG format. Furthermore, the PC 41 associates the compressed image data with the examination information recorded and saved in step S7, saves it as an image file in the storage device 41f of the PC 41, and also inputs the moving image input to the moving image input board 41c. Is displayed in the endoscopic image display area 5 4 of the analysis window 50.
- step S11 the PC 41 executes an analysis process of each step shown in FIG.
- the PC 41 determines in step S12 whether or not the stop button 63 of the analysis window 50 has been pressed, and if it is determined that the stop button 63 has been pressed, step 41 is performed. Return to S8 and move the slider 61 in the analysis window 50 one step to the right.
- the PC 41 closes the first communication port 41a and the second communication port 41b in step S13, and the endoscope insertion shape observation device 3 and the video port sensor. Communication of information data with 22 is terminated.
- step S 11 the shape analysis process in step S 11 will be described with reference to FIG.
- step S21 the PC 41 obtains the format type information of the frame packet of the insertion shape data of the previous frame and the endoscope type information included in the attached information.
- the PC 41 Based on the format type of the acquired insertion shape data, the PC 41 holds the frame bucket corresponding to the format type in step S1 of FIG.
- the data size information of the information contained in the data is acquired, and the frame packet of the inserted shape data is decomposed into each data.
- the format type name is attached to the analysis window 50. It is displayed in the information display area 56.
- the PC 41 also acquires the name of the electronic endoscope 21 for the attached information power generated by the decomposition process, and displays it in the attached information display area 56 of the analysis window 50. At the same time, the PC 41 obtains the distance information between the source coils corresponding to the name of the electronic endoscope 21 stored in the memory 41e in step S1 of FIG. 5 based on the acquired name of the electronic endoscope 21. get.
- step S22 various analysis processes of the following processes (1) to (7) are executed.
- Process (1) Insertion length calculation process (Process to count the tip force of the source coil existing within the measurement range)
- Process (4) Calculation of radius of curvature (Calculation of local radius of curvature of insertion part 21a)
- Process (6) Calculation of movement amount per frame (Calculation processing of movement amount of each source coil based on difference of position coordinates of source coil between previous frame and current frame)
- Process (7) Calculation of propulsion amount per frame (calculation of the value when the movement amount is projected in the direction of the insertion axis at the position of each source coil)
- step S23 as shown in Fig. 7, a flag is generated for each analysis value calculated in step S22, and the flag is arranged and converted into a byte code by considering it as a bit string. Code the result.
- the PC 41 stores the dictionary file shown in FIG. 8 in the storage device 41f.
- This dictionary file manages bytecodes, endoscope shape classification IDs, endoscope shape classification information, endoscope shape classification auxiliary information, and operation auxiliary information associated with the bytecodes in association with each other.
- the endoscope shape classification ID is obtained by classifying all shapes that can be taken by the endoscope shape and assigning IDs to the shapes.
- the shape when the lower endoscope is inserted is a linear shape (FIG. 9), a stick shape (FIG. 10), a bent shape ( Fig. 11), loop shape (Fig. 12) and hip-crushed shape (Fig. 13). ) Is stored in the dictionary file as endoscope shape classification information.
- the endoscope shape classification auxiliary information is information on the rotational direction in the insertion axis direction when the insertion portion 21a is viewed from the direction toward the tip of the root force with respect to the spiral shape at the time of looping or breaking the waist. .
- the operation assisting information includes an insertion portion 21a necessary for removing factors that hinder the forward movement of the tip, such as a loop, a spiral shape, or a stick, with respect to the endoscope shape corresponding to each cord.
- Operation information For example, when the operation assistance information is a rotation operation, the operator twists the base of the insertion portion 21a in the direction indicated by the operation assistance information, so that the loop or spiral shape of the insertion portion 21a is released, and the insertion portion 21a The shape is changed so that becomes straight.
- step S24 the dictionary file search and acquisition results are displayed in the warning information display area 52 (see FIG. 4) of the analysis window 50 using the bytecode generated in step S23 as a key. Specifically, information corresponding to the bytecode obtained in step S23 is searched and acquired from the dictionary file, and character information (endoscope shape classification information, endoscope shape classification auxiliary information, operation auxiliary information) is obtained. Displayed in warning information display area 52 of analysis window 50. If there is no information corresponding to the Neut code, display processing is not performed.
- step S25 an endoscope shape image of two-dimensional projection related to the insertion shape data is generated and displayed in the endoscope insertion shape display area 55 of the analysis window 50, and the process proceeds to step S12.
- the shape of the endoscope insertion portion is coded one by one, and the endoscope shape pattern and operation assistance information corresponding to the code are displayed. It is possible to easily construct a simple shape determination processing system, and the accuracy of auxiliary information presented to the operator is improved.
- the shape of the endoscope insertion portion is determined. It is possible to categorize the no-turn and provide information according to each pattern, to perform a stable shape analysis, and to analyze the insertion state of the endoscope with the entire shape of the insertion portion.
- information corresponding to each code is also displayed by searching the dictionary file power.
- the display contents can be changed simply by editing the dictionary file without changing the program (container, rebuilding). It becomes possible to do.
- a ring buffer 90 of, for example, size 8 as shown in FIG. 14 is provided in the memory 41e.
- step S11 since part of the shape analysis processing in step S11 is different from that in the first embodiment, the different points will be described with reference to FIGS.
- the process is stored in the ring buffer 90 in step S31.
- the storage information (insert shape data) of the past three times is acquired.
- the position of the ring buffer 90 is obtained from the remainder of (Count-l) / 8, (Count-2) / 8, (Count-3) / 8 with respect to the current data acquisition count Count.
- the acquired storage information for the past three times and the byte code obtained in step S23 are sequentially combined to generate a 4-byte 4-byte code.
- the PC 41 stores the dictionary file shown in FIG. 17 in the storage device 41f.
- This dictionary file is managed by associating a 4-byte code with an endoscope shape classification ID, endoscope shape classification information, endoscope shape classification auxiliary information, and operation auxiliary information corresponding to the 4-byte code. .
- step S24 information corresponding to the 4-byte code obtained in step S31 is displayed.
- Character information endoscope shape classification ID, endoscope shape classification information, endoscope shape classification auxiliary information, operation auxiliary information
- step S24 information corresponding to the 4-byte code obtained in step S31 is displayed.
- Character information is retrieved and retrieved from the dictionary file in the warning information display area 52 of the analysis window 50 indicate. If there is no information corresponding to the bytecode, display processing is not performed.
- step S32 the byte code obtained in step S23 is stored in the memory of the PC 41.
- step S25 an endoscope shape image of a two-dimensional projection related to the insertion shape data is generated and displayed in the endoscope insertion shape display area 55 of the analysis window 50. Proceed to step S12.
- the processing result of the previous insertion shape data is held in the memory 41e more simply and is compared with the processing result of the current insertion shape data (for example, the previous processing result and the current processing result). Depending on whether or not the processing result is the same, the operation assistance information to be displayed may be determined.
- a code correction dictionary as shown in FIG. 18 may be stored in the storage device 41f of the PC 41, and a 4-byte code may be corrected by using this code correction dictionary in step S31! /.
- the shape of the endoscope insertion portion is coded one by one, and the byte code and the byte code that has been processed in the past are combined and generated 4 Since the endoscope shape pattern and operation assistance information corresponding to the byte code are displayed, it is possible to prevent erroneous processing due to disturbance and to determine the series of endoscope operations. The accuracy of the operation assistance information is improved.
- the PC 41 of the image processing apparatus 4 of the present embodiment includes a third communication port 41d that can communicate with the image filing apparatus 100, which is an external apparatus, for example.
- the image filing apparatus 100 includes a PC 101 that manages and records image data, a mouse 102, a keyboard 103, and a display 104 that can be connected to the PC 101.
- the PC 101 of the image filtering apparatus 100 has a communication port 101a, a memory 101b, and a recording apparatus 101c that can communicate with the PC 41 of the image processing apparatus 4.
- Fig. 19 shows an operation program that runs on the PC 41 of the image processing apparatus 4, including an insertion shape analysis application 151, an insertion shape data recording application 15 la, an insertion shape display application 15 lb, and an insertion shape data management application 152. It is a block diagram showing a configuration of a processing block and a memory block of a memory 41e used by each application.
- the memory 41e includes an insert shape analysis application memory 141a used by the insert shape analysis application 151, an insert shape data management application memory 141b used by the insert shape data management application 152, and an insert shape analysis application 15 1 And the shared memory 141c shared by the insertion shape data management application 152.
- the shared memory 141c can be accessed from both the insertion shape analysis application 151 and the insertion shape data management application 152.
- the insertion shape data management application 152 includes a first thread that is also powerful with the insertion shape data acquisition block 1601 and the message transmission block 162, a second thread that includes the insertion shape data transmission block 163, and output destination management.
- the third thread is composed of a block 164 and an output destination registration block 165.
- the output destination registration block 165 in the third thread displays the registration window 171 shown in FIG. 20 on the display 44, and indicates whether the check box 172 in the registration window 171 is checked or not in the memory 41e. Store in management application memory 141b area.
- the insertion shape transmission block 163 in the second thread passes the output destination management block 164 of the third thread to the insertion shape data management application memory 141b area in the memory 41e, and the image failing apparatus 100 as a transmission destination.
- the contents indicating that it is checked Check if it is remembered or not.
- the insertion shape transmission block 163 in the second thread follows the third communication port with the image failing device 100 according to the flow shown in FIG. Transmission / reception processing via 41d is performed.
- the insertion shape data transmission block 163 of the second thread reads the insertion shape data in the buffer of the shared memory 141c, and uses the third communication port 41d.
- the insertion shape data is transmitted to the image filing device 100.
- the process shifts to a state waiting for a transmission request from the image failing apparatus 100, and the same processing is repeated.
- the insert shape data acquisition block 161 in the first thread passes through the output destination management block 164 of the third thread to the insert shape data management application memory 141b area in the memory 41e.
- the insertion shape display application 15 lb or the insertion shape analysis application 151 is checked as the transmission destination, and the contents indicating that it is stored are confirmed to confirm whether or not the force is correct.
- the first thread performs transmission / reception with the endoscope shape observation apparatus 3 via the communication port 32a according to the flow shown in FIG.
- the insertion shape analysis application 151 is checked as a transmission destination.
- the insertion shape data acquisition block 161 sends a transmission request for insertion shape data to the endoscope insertion shape observation device 3 through the communication port 2.
- the endoscope insertion shape observation device 3 transmits the insertion shape data through the communication port 32a, and the insertion shape data acquisition block 161 receives the insertion shape data and writes it into the buffer of the shared memory 14lc.
- the message sending block 162 searches / obtains the window handle of the insertion shape analysis application 151 from the OS (operating system) force, and if a valid window node or window is obtained, the message handle block 162 receives the window handle. Send a message to The buffer location in the shared memory 141c is specified as the argument of the message.
- the insertion shape analysis application 151 accesses the buffer in the shared memory 141c based on the message argument in step S41 to insert the insertion shape data. Get the data. This timing force corresponds to step S8 in FIG.
- the insert shape analysis application 151 copies the acquired insert shape data to the insert shape data management application memory 141b in the memory 41e, and transmits a confirmation indicating the completion of processing to the insert shape data acquisition block 161. .
- the insertion shape data acquisition block 161 continues to wait for confirmation from the insertion shape analysis application 151 after transmission of the message, and repeats the same processing when confirmation is transmitted.
- the insertion shape data is shared between a plurality of abrasions and a plurality of apparatuses, a plurality of processing modules with divided functions are used. It becomes easy to operate in parallel, making it easy to build a system with a configuration as needed, and to reduce the cost of system development.
- the in-vivo insertion monitoring system 201 provided with the fourth embodiment of the present invention includes an endoscopic device 202 for performing endoscopy and an endoscopic insertion for observing the endoscope insertion shape.
- Analysis of the endoscope insertion shape data (abbreviated as insertion shape data) generated by the shape observation device 203 and the endoscope insertion shape observation device 203, and an insertion monitoring device that assists or supports endoscopy Consists of the image processing apparatus 204 that constitutes the fourth embodiment.
- the endoscope apparatus 202 is built in an electronic endoscope 206 that is inserted into a body cavity such as the large intestine, a light source device 207 that supplies illumination light to the electronic endoscope 206, and an electronic endoscope 6.
- a video processor 208 as a signal processing device for performing signal processing on the image pickup device 216 such as a CCD, and a body cavity imaged by the image pickup device 216 by inputting a video signal generated by the video processor 208
- an observation monitor 209 for displaying the image as an endoscopic image.
- the electronic endoscope 206 includes an elongated insertion portion 211 to be inserted into a body cavity of a patient, and the insertion portion. And an operation unit 212 provided at the rear end of 211.
- a light guide 213 that transmits illumination light is inserted into the insertion portion 11.
- the rear end of the light guide 213 is connected to the light source device 207, transmits the illumination light supplied from the light source device 207, and exits (transmitted illumination light) from the illumination window provided at the distal end portion 214 of the insertion portion 211. To do.
- the insertion portion 211 is provided with a bendable bending portion at the rear end of the distal end portion 214, and the bending portion is operated by operating a bending operation knob (not shown) provided in the operation portion 212. Can be bent.
- an objective lens 215 is attached to an observation window provided adjacent to the illumination window.
- a charge coupled device (C)
- An optical image is formed on the imaging surface of the imaging device 216 such as CCD.
- the image sensor 216 is connected to the video processor 208 via a signal line, and outputs an image signal obtained by photoelectrically converting an optical image to the video processor 208.
- the video processor 208 performs signal processing for generating a video signal for the imaging signal output from the imaging device 216. The video processor 208 then generates the generated video signal.
- an RGB signal is output to the observation monitor 209.
- An image captured by the image sensor 216 is displayed on the display surface of the observation monitor 209.
- the light source device 207 When the light source device 207 performs surface sequential illumination with R, G, and B illumination light, the light source device 207 outputs a synchronization signal synchronized with each illumination period to the video processor 208, and the video processor 208 Signal processing is performed in synchronization with the signal.
- the operation unit 212 of the electronic endoscope 206 is provided with a switch (not shown) for giving a release instruction or the like, and the operation of the video processor 208 can be controlled by operating the switch.
- a detection function for detecting the insertion position and the insertion shape of the insertion portion 211 inserted into the body cavity is provided.
- a plurality of source coils C0, Cl,..., CM-1 are arranged at predetermined intervals in the longitudinal direction in the insertion portion 211 of the electronic endoscope 206. These source coils C0 to CM-1 generate a magnetic field around them when a drive signal is applied.
- the magnetic field generated by the source coils C0 to CM-1 is set in the endoscope insertion shape observation device 203.
- the detection is performed by a sense coil unit 219 having a plurality of sense coils built therein.
- the endoscope insertion shape observation device 203 includes a sense coil unit 219 that detects a magnetic field by the source coils C0 to CM-1 provided in the electronic endoscope 206, and a detection of the magnetic field detected by the sense coil unit 219.
- a shape processing device 221 that estimates the shape of the insertion section 211 (referred to as an insertion shape) based on the signal, and a display 222 that displays the insertion shape estimated by the shape processing device 221 are provided.
- the sense coil unit 219 is arranged in the periphery of the examination bed where the patient lies, etc., detects the magnetic field generated by the source coils C0 to CM-1, and outputs the detected detection signal to the shape processing device 221. To do.
- the shape processing device 221 calculates the position coordinate data of the source coils C0 to CM-1 and estimates the calculated insertion shape of the position coordinate data force insertion unit 211.
- the shape processing device 221 generates a video signal having the estimated insertion shape of the insertion unit 211 and outputs the generated video signal, for example, an RGB signal, to the display 222.
- the inserted shape is displayed on the display screen of the display 222. By observing this insertion shape, the operator can easily perform an insertion operation and the like.
- this shape processing apparatus 221 continuously generates insertion shape data such as three-dimensional coordinate information indicating the insertion shape and shape display attributes during the endoscopy, and via the communication port 221a.
- the image is output to the image processing apparatus 204.
- the shape processing device 221 can also output only the inserted shape data at the time of operating the release switch to the image processing device 204.
- the endoscope insertion shape observation device 203 has a shape such as a rotation angle and an enlargement / reduction rate of an insertion shape image generated by the shape detection processing by the shape processing device 221 and displayed on the display 222.
- the display attribute can be changed by inputting the command of the operation panel force as shown in the figure.
- the video processor 208 has a function of inputting examination information related to endoscopic examination.
- the examination information input to the video processor 208 is transmitted via the communication port 208a.
- the image processing apparatus 204 analyzes the response operation state of the insertion unit 211 that is actually inserted into the body cavity with respect to the input insertion shape data, with respect to an endoscope operation such as an insertion operation. It is determined whether or not the force is in a predetermined response operation state to be notified to the surgeon, and if it is in the predetermined response operation state, insertion auxiliary information is generated.
- the image processing apparatus 204 is a personal computer (hereinafter simply referred to as a PC) 225 that performs an analysis process for generating insertion auxiliary information that assists or supports the operator, and various instructions to the PC 225. It has a mouse 226 and a keyboard 227 for inputting, and a display 228 as a display device for reproducing or displaying insertion auxiliary information generated by the PC 225 through analysis processing.
- a PC personal computer
- the PC 225 includes a communication port 225a for fetching insertion shape data output from the communication port 221a of the shape processing device 221 of the endoscope insertion shape observation device 203, and a video processor 208 of the endoscope device 202.
- the communication port 225b that captures the endoscopy information output from the communication port 208a of the camera and the image sensor 216 of the electronic endoscope 206 and the video signal of the moving image that is generated by the video processor 208 are predetermined.
- the video input board 225c that converts the compressed image data into the image, the CPU 231 that performs image processing, the processing program storage unit 232 that stores the processing program that performs image processing by the CPU 231 and the data processed by the CPU 231 are temporarily stored.
- a hard disk (HDD) 234 as a recording device for storing processed image data and the like.
- the CPU 231 and the like are connected to each other by a nose.
- the moving image input board 225c of the image processing apparatus 204 receives the moving image video signal generated by the video processor 208, for example, a YZC signal.
- the moving image input board 225c receives the moving image video signal. Is converted into video signal data of a predetermined compressed moving image, for example, compressed image data in MJ PEG format, and stored in, for example, the hard disk 234 in the PC 225.
- examination information related to the endoscopy is input from the video processor 208, and characters and numbers are input to the observation monitor 209 based on the entered examination information data.
- the inspection information data can be transmitted and recorded in the PC 225 from the communication port 208a via the communication port 225b in the image processing apparatus 4.
- the examination information includes, for example, the patient's name, date of birth, sex, age, patient code, and examination date.
- the image processing apparatus 204 side is connected to the video processor 208 as necessary, and receives and stores various information data from the video processor 208.
- FIG. 26 Generation of insertion shape data by the endoscope insertion shape observation device 203 in the in-body insertion monitoring system 201 having such a configuration will be described with reference to FIGS. 26 and 27.
- FIG. 26 Generation of insertion shape data by the endoscope insertion shape observation device 203 in the in-body insertion monitoring system 201 having such a configuration will be described with reference to FIGS. 26 and 27.
- FIG. 26 Generation of insertion shape data by the endoscope insertion shape observation device 203 in the in-body insertion monitoring system 201 having such a configuration will be described with reference to FIGS. 26 and 27.
- the shape processing device 221 of the endoscope insertion shape observation device 3 is built in the insertion unit 211 of the electronic endoscope 206 for each frame of the imaging signal imaged by the imaging device 216 of the electronic endoscope 206.
- the inserted shape data including the three-dimensional coordinates of the M source coils C0 to CM-1 is generated.
- the shape processing device 221 generates an insertion shape image based on the insertion shape data, displays the image on the display 222, and outputs the insertion shape data to the image processing device 204.
- the three-dimensional coordinates of the source coil Ci of () are represented by (X j i, Y j i, Z j i).
- the structure of the insertion shape data including the coordinate system data of the source coils C0 to CM-1 detected by the endoscope insertion shape observation device 203 is as shown in FIG.
- Frame data related to each frame that is, 0th frame data, 1st frame data, etc
- the data power such as the creation time of the insertion shape data, display attributes, attached information, and (source) coil coordinates are also included.
- the coil coordinate data shows that the source coils C0 to CM-1 are sequentially arranged on the operation unit 212 side of the proximal end (hand side) of the insertion portion 211.
- Each represents a three-dimensional coordinate.
- the coordinates of the source coil outside the detection range by the endoscope insertion shape observation device 203 are set to a predetermined constant, for example, so as to be separated from the detection range. It will be decided.
- the inspection information of the video processor 208 of the endoscope device 202 in the image processing device 204, the endoscope image, and the insertion shape data from the shape processing device 221 of the endoscope insertion shape observation device 203 are recorded.
- Acquiring power The generation of auxiliary insertion information and the operation of, for example, monitoring of endoscopic examination in the large intestine after insertion into the large intestine will be described with reference to FIGS.
- the image processing apparatus 204 starts processing according to the processing program stored in the CPU 231 force S processing program storage unit 232 constituting the PC 225.
- the processing function block executed by the CPU 231 performs frame data acquisition block 241 for acquiring frame data and storing it in the memory 233 as shown in FIG. 28, and analysis processing for the frame data stored in the memory 233.
- Analytical processing block 242 that stores analysis data 233b and generated insertion auxiliary information 233c in memory 233, and analysis result display control block that displays the analysis result and controls the display (or display characteristics) of insertion auxiliary information 233c 243.
- the frame data acquisition block 241 and the analysis processing block 242 repeat processing in a loop.
- a condition determination process corresponding to a predetermined response operation state is performed, and if this is the case, auxiliary insertion information is generated.
- the analysis result display control block 243 performs display control of display of the auxiliary insertion information 233c and display stop (erase) in accordance with preset elapsed time information.
- the frame data acquisition block 241 stores the frame data transmitted from the endoscope insertion shape observation device 203 in the memory 233 as shown in FIG. 28 and also saves it in the hard disk 234 as shown in FIG. .
- the analysis processing block 242 uses the frame data 233a on the memory 233 to move the source coil position to the direction of the insertion section 211, the direction of the insertion section 211, and the direction of the source code in the previous frame.
- the data for examining the response operation state (in response to the insertion operation) of the insertion unit 211 such as the amount of movement of the data is calculated.
- the analysis processing block 242 analyzes the calculated data. Stored in the memory 233 as data 233b.
- the analysis processing block 242 generates analysis data 233b from the frame data 33a on the memory 233, and the insertion unit 211 inserted into the body cavity performs smoothly or smoothly with respect to the insertion operation by the operator. Analysis to generate insertion auxiliary information 233c using frame data 233a (and analysis data 33b as necessary) in order to display information about the response operation state as insertion auxiliary information when inserted properly. Process.
- the analysis data 233b when the analysis data 233b is in a predetermined condition, specifically, when the operator performs an operation of pushing the insertion portion 211 on the proximal end side, the distal end side of the insertion portion 211 hardly moves. If the response operation state satisfies such a condition that the insertion unit 211 cannot be inserted smoothly, the auxiliary insertion information 233c is generated and stored in the memory 233. In this case, if the insertion auxiliary information 233c has been previously stored in the memory 233, the contents thereof are updated.
- Insertion section 211 between the movement amount M0 of the insertion part 211 of the source coil CO in the foremost position of the insertion part 211 with respect to the axial direction of the insertion part 211 and, for example, the source coil CM-1 at the proximal side of the insertion part 211 If the ratio MOZMn to the amount of movement Mn in the axial direction of the axis satisfies the condition that it is less than the threshold (here 0.1) (that is, MOZMn 0.1), the auxiliary insertion information 233c is generated.
- the threshold here 0.1
- the auxiliary insertion information 233c generated when the above conditions are satisfied is, in this embodiment, the character string information "tip stop" and the insertion shape data creation time TO of the frame data used for the condition determination. .
- the analysis result display control block 243 is a processing block that is executed at regular time intervals independently of the loop processing of the frame data acquisition block 241 and the analysis processing block 242 described above.
- This analysis result display control block acquires the insertion auxiliary information on the memory 233, and the difference between the current time Tn and the insertion shape data creation time TO corresponding to the generation of the insertion auxiliary information 233c is set in advance.
- the predetermined threshold value T is smaller (Tn—TO ⁇ Tt)
- the character string information of the character string information of the insertion assisting information 233c is displayed on the display 228 of the image processing apparatus 204, for example, “tip stop”.
- the analysis result display control block displays the character of the insertion auxiliary information 233c when the elapsed time of the insertion shape data used to generate the insertion auxiliary information 233c is less than the threshold TU as a predetermined time. Continue displaying column information.
- the threshold value Tt in this case can be changed and set by a user such as a surgeon who is preset with a default value to a value that the user thinks is more appropriate from the keyboard 227, for example. Further, the threshold value Tt may be changed and set in association with the user's HD information, and may be set to a different value for each user.
- the approximate time interval at which the operator who performs endoscopy observes the display 228 on which the auxiliary insertion information is displayed may vary depending on the operator. It is also possible to set Tt so that each surgeon can more appropriately confirm the display of the insertion auxiliary information 233c (character string information).
- the auxiliary insertion information 233c is generated.
- the display is continued from the insertion shape data creation time T 0 used to generate the insertion auxiliary information 233c to a time when it is easy for the operator to confirm the display of the insertion auxiliary information 233c.
- the surgeon When performing an endoscopic examination in a body cavity, for example, the large intestine, the surgeon inserts the insertion portion 211 of the electronic endoscope 206 shown in FIG. 25 into the large intestine from the patient's anus. In this case, the surgeon The proximal end side of the insertion portion 211 is grasped, and the insertion portion 211 is sequentially inserted from the distal end portion 214 side to the deep side in the large intestine.
- the imaging signal imaged by the imaging element 216 provided in the distal end portion 214 of the insertion portion 211 of the electronic endoscope 6 is subjected to signal processing by the video processor 208 to generate a video signal, which is then sent to the observation monitor 209. An endoscopic image is displayed.
- the positions of the source coils C0 to CM-1 arranged in the longitudinal direction of the insertion portion 211 are detected by the shape processing device 221 based on the detection signal from the sense coil unit 219, and the endoscope insertion shape is observed.
- the insertion shape is displayed on the display 222 of the device 203.
- the frame data including the position information of each (source) coil is sent from the shape processing device 221 to the PC 225 of the image processing device 204. Then, as shown in FIG. 28, frame data 233a is stored on the memory 233 by the frame data acquisition block 241 in the CPU 231 (in the PC 225).
- the analysis processing block 242 performs analysis processing on the frame data 233a (stored in the memory 233), and generates analysis data 2 33b from the frame data 233a. Stored in memory 233.
- the analysis processing block 242 performs a determination process on whether or not the force satisfies a predetermined condition (in this example, MOZMn ⁇ 0.1) with respect to the analysis data 233b. If the condition is satisfied, the auxiliary insertion information 233c is generated and stored in the memory 233 (ono write). In this case, if the old insertion auxiliary information 233c already exists in the memory 233, it is updated. The above process is repeated.
- a predetermined condition in this example, MOZMn ⁇ 0.1
- the analysis result display control block 243 performs a process (step S101) for obtaining the insertion auxiliary information 33c on the memory 233 at regular time intervals, and also calculates the current time Tn. get.
- the analysis result display control block 243 has a difference between the current time Tn and the insertion shape data creation time TO of the insertion auxiliary information smaller than a predetermined threshold Tt (Tn— (TO (Tt)).
- step S103 when the analysis result display control block 243 determines that Tn-TO and Tt, the character string information of the auxiliary insertion information 233c is stored in the image processing device 204. Display on display 228. Then, it prepares for the processing for acquiring the next insertion auxiliary information 233c.
- the difference between the current time Tn and the insertion shape data creation time TO of the insertion auxiliary information 233c is determined to be equal to or greater than a predetermined threshold Tt (Tn—T0 ⁇ Tt).
- the analysis result display control block 243 erases the character string information of the auxiliary insertion information 233c displayed on the display 228 of the image processing device 204 as shown in step S104. Then, it prepares for the acquisition processing of the next insertion auxiliary information 233c.
- the analysis result display control block 243 repeats the processing of steps S101 to L0S4 at regular time intervals.
- the analysis processing block 242 updates the auxiliary insertion information
- the analysis result display control block 243 acquires the insertion auxiliary information 233c
- the display 228 of the image processing device 204 FIG. 30 shows the relationship between the displayed insertion auxiliary information 233c and the character string information displayed.
- the insertion auxiliary information 233c is updated by the analysis processing block 242.
- the analysis result display control block 243 obtains the insertion auxiliary information 233c at regular time intervals, and at that time, performs a process of determining the elapsed time whether Tn—TO or Tt force is present. While Tn—TO is within the predetermined time Tt, the display of the character string information of the auxiliary insertion information 233c is continued. Here, the "tip stop" display is maintained.
- the insertion auxiliary information 233c is known (confirmed) more reliably within a predetermined time (as the threshold value Tt). That's right.
- the force using the insertion shape data creation time TO corresponding to the insertion assisting information 233c as the time used to determine whether or not the force to maintain the display is a time close to this. For example, even when the time when the auxiliary insertion information 233c is generated or updated is used good.
- the force near the time at which the insertion assistance information 233c is generated also maintains the display content of "tip stop" even within a predetermined time, but after the time has elapsed, the "tip stop" The display contents are updated appropriately without displaying.
- the display Z erasure (non-display) of the insertion auxiliary information 233c is controlled by the elapsed time from the vicinity of the time when the insertion auxiliary information 233c is generated. As shown in FIG. You may comprise so that a display color, a display position, and a display size may be changed according to elapsed time.
- the tip stop is displayed in red or other display color within a predetermined elapsed time as indicated by the diagonal lines, and the display is stopped when the predetermined elapsed time is exceeded (the tip stop display is erased). ) You may make it.
- the tip stop is displayed within a predetermined elapsed time, and the tip stop display is also scrolled (from the display range), for example, with a predetermined elapsed time. If it does not appear, you can do it.
- the tip stop is displayed within a predetermined elapsed time, for example, the size of the character string for displaying the near end tip stop with a predetermined elapsed time is reduced, and further time has passed. Is not displayed. Or you can combine them. In such a case, there is a similar effect.
- the analysis processing block 242 generates insertion assistance information 233c corresponding to the response operation state in which the distal end side is almost stopped from the insertion shape data in response to the insertion operation of the insertion unit 211.
- the insertion shape data is calculated from the insertion shape data. It is also possible to analyze the response operation states of these, perform a determination process of whether or not they are actually performed, and include the determination result in the insertion auxiliary information 233c.
- the response operation state with respect to the bending operation is determined in half U be able to.
- the above-mentioned insertion assistance information is displayed as "tip stop", indicating to the surgeon that the distal end 214 does not advance even if the proximal side of the insertion part 211 is pushed further.
- the insertion auxiliary information 233c corresponding to the endoscope operation may be displayed even in the case of other endoscope operations.
- the elapsed time when the display is continued may be appropriately controlled according to the content displayed as the insertion auxiliary information.
- the analysis result display control block 243 determines at least the “first” when determining the endoscope operation by the operator, such as the extraction operation, bending operation, and twisting operation of the electronic endoscope 6. Stops displaying the string information of "end stop”. Then, the character string information of the insertion auxiliary information 233c for the endoscope operation determined as necessary is displayed. As a result, the surgeon can confirm whether or not the state in which the response operation of the insertion portion 211 is smoothly performed in response to the endoscope extraction operation, the angle operation, and the twisting operation is performed. This makes it possible to improve the operability for endoscopic operations including the above.
- Embodiment 5 of the present invention will be described with reference to FIGS.
- the configuration of the in-body insertion monitoring system provided with Example 5 is the same as that shown in FIG.
- This embodiment uses a processing program that is partially different from the processing program stored in the program storage unit 232 in the image processing apparatus 204 in FIG.
- Figure 32 shows the functional blocks implemented by the CPU 231 in software using this processing program.
- the processing program shown in FIG. 32 includes a frame data acquisition block 241, an analysis processing block 251, and an analysis result display control block 243.
- the frame data acquisition block 241 and the analysis result display control block 243 are shown in FIG. Processing similar to that shown in FIG.
- the analysis processing block 251 in this embodiment includes a script interpretation block 251a that interprets the processing script 233d stored in the memory 233, and a display that performs display characteristic change processing including insertion auxiliary information generation processing. Characteristic change processing block 25 lb.
- the analysis processing block 251 performs the analysis processing for generating the insertion auxiliary information 233c in the fourth embodiment, and inserts the auxiliary insertion information 233 corresponding to a plurality of types by changing the setting of the condition setting, for example.
- the display characteristics corresponding to the insertion auxiliary information 233 can be changed.
- the frame data 233a, the analysis data 233b, and the auxiliary insertion information 233 are stored in the memory 233 as in the case of FIG.
- the processing program stored in the processing program storage unit 232 includes a processing script file describing the processing procedure of display characteristics including change of condition setting, etc. It is read out and stored in the memory 233 as a processing script 233d.
- the processing script 233d describes processing contents including insertion auxiliary information generation processing in the analysis processing block 251 in accordance with the grammar of «Java (registered trademark) Script as a predetermined programming language. Yes.
- a specific example of the processing script 233d is shown in FIG. 34, for example.
- the analysis processing block 42 determines whether or not the force satisfies the condition of MOZMn 0.1 (corresponding to “tip stop”) as shown in FIG. If the condition is satisfied, the auxiliary insertion information is generated and written to the memory 233.
- the processing script 233d shown in FIG. 34 can generate the character string information of the insertion auxiliary information 233c ′ for “reverse movement of the front end” in addition to “stop the front end”.
- the processing content for the analysis data (condition content for if3 ⁇ 4) has been changed.
- the sign (positive / negative) of the propulsion amount of the hand side coil is examined so that the removal operation can be determined.
- the processing functions such as the frame data acquisition block 241 shown in FIG. 28 are executed at high speed by the CPU 231 after the programming language is converted into the compiled language.
- the script interpretation block 25 la in the analysis processing block 251 interprets the contents of the programming language described in the processing script 233d sequentially into an execution language (inter- (Print). Then, the interpreted processing is sequentially performed by the display property change processing block 25 lb.
- the display characteristic change processing block 251b executes processing such as acquisition of analysis data 233b on the memory 233, condition determination, loop control, and generation and update of auxiliary insertion information.
- the analysis processing block 251 in the present embodiment sequentially interprets the analysis contents described in the processing script 233d and executes them in an interpreted manner. For this reason, during the operation without stopping the system (during inspection), for example, the parameter value for the insertion auxiliary information setting unit is changed, and each is executed with the changed value. You can also set the value to change, easy,.
- the processing content such as display characteristics can be easily changed.
- the display contents (included in the display characteristics) of the auxiliary insertion information can be easily changed.
- FIG. 33 shows the data flow of the frame data acquisition block 241 and the analysis processing block 251, and the processing flow of the analysis result display control block 243.
- the memory 233 also acquires the processing script 233d.
- the processing script 233d for example, the contents shown in FIG. 34 are described.
- the script interpretation block 251a interprets the processing script 233d. Then, based on the interpreted processing procedure, processing is performed in the display characteristic change processing block 251 b.
- analysis processing block 251 obtains the interpreted analysis data 233b, performs condition determination, and if the condition determination does not apply, Prepare to perform condition judgment on frame data.
- the insertion auxiliary information 233c ′ generated corresponding to the condition determination is updated and written in the memory 233. More specifically, the character string information of “tip stop” and “tip reverse” in the case of the fourth embodiment is written in the memory 233. Repeat this process.
- the analysis result display control block 243 obtains the insertion auxiliary information 233 on the memory 233 at a constant time interval as in the case of the third embodiment (Step S101) and obtains the current time Tn. Then, it is determined whether or not the difference between the current time ⁇ and the insertion shape data creation time TO of the insertion auxiliary information 323 is smaller than a predetermined threshold ⁇ 1: ( ⁇ —TOt Tt) (step S 102 ).
- the character string information of the auxiliary insertion information 233 is displayed on the display 228 of the image processing apparatus 204 (step S103).
- the character string information of “tip stop” and “tip reverse” is displayed.
- the in-body insertion monitoring system 201 is operated according to the contents described in the processing script 233d, it is not necessary to create a new processing program, and it becomes easy to perform detailed customization of the operation contents. .
- the operator's instruction is given to the modified or selected processing script that does not terminate the operation of the in-body insertion monitoring system 201. You may make it the structure read by.
- the response operation state of the insertion unit 211 for the endoscope operation such as the bending operation is analyzed, and inserted in the case of a predetermined response operation state. It can also be displayed as auxiliary information.
- the insertion auxiliary information is not limited to being displayed on the display 228 of the image processing device 204.
- the display 222 or the endoscope device of the endoscope insertion shape observation device 203 is not limited.
- the image may be displayed on the observation monitor 209 202, and the display device to be displayed may be selected and set.
- the display of the auxiliary insertion information is not limited to the display of character string information.
- the display of the background portion of the insertion shape displayed on the display 222 of the endoscope insertion shape observation device 203 is possible. By changing the color, for example, it may be possible to notify the surgeon of insertion assistance information for “tip stop”.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
本発明の内視鏡挿入形状解析装置としての電子内視鏡システムは、体腔内に挿入する挿入部を有する電子内視鏡と、内視鏡挿入部の複数のソースコイル、センスコイルユニットおよび形状処理装置により挿入部形状を検出する形状観測装置等と、内視鏡が撮像した内視鏡画像と、形状観測装置が検出した形状とを表示するディスプレイとを有し、さらに形状処理装置が検出した情報を基にして、形状処理装置が検出した形状に基づき、形状データをパターン分類するPCを有する。
Description
明 細 書
内視鏡揷入形状解析装置及び内視鏡揷入形状解析システム
技術分野
[0001] 本発明は、内視鏡挿入部の挿入にお!ヽてその挿入を阻害等して!/ヽる状況を解析 する内視鏡挿入形状解析装置及び内視鏡挿入形状解析システムに関する。
背景技術
[0002] 内視鏡による挿入観察を行う際、被検体となる体腔内の管腔は、例えば、大腸や小 腸等のように曲がっている。そのため、内視鏡挿入部が管腔のどの位置まで挿入さ れているか、また内視鏡挿入部がどのような形状になっているかが判明すると、内視 鏡による観察処置の操作性が向上する。
[0003] そのため、従来より、内視鏡挿入時において屈曲状態等を知ることができる装置と して、ソースコイル等を用いて内視鏡の挿入形状を検出する内視鏡形状検出装置が 提案されている。
[0004] ここで、内視鏡による被検体の観察中、術者の意識は、主に管腔の観察部位を撮 像生成した内視鏡画像に集中してしまう傾向がある。そして、術者の意識は、内視鏡 形状検出装置により生成表示される挿入形状の画像に集中されないことが多い。術 者は、内視鏡挿入部の挿入進行に障害が生じて初めて、挿入形状の画像に注目す ることになる。そのことが、内視鏡観察の進行の妨げおよび、被検体に対する不快感 を生じさせる要因となる。
[0005] また、一般に内視鏡観察では、内視鏡画像を録画記録して、後日の観察部位の確 認ゃ内視鏡操作の習得訓練に用いられる。
[0006] そのため、日本国特開 2004— 147778号公報には、内視鏡挿入形状データと内 視鏡画像データを共に保存し、両画像を同期再生して、自由に対比可能な内視鏡 画像処理装置が提案されて!ヽる。
[0007] 前記日本国特開 2004— 147778号公報の提案に係る装置は、例えば大腸に内 視鏡を挿入した際の内視鏡挿入部の形状を、内視鏡挿入形状観測装置により検出 するとともに、画像処理装置により形状解析を行い、内視鏡挿入部の形状に関する
解析結果を提供する。
[0008] 前記解析結果は、挿入部形状や操作者の内視鏡操作に関するものであって、内視 鏡挿入部の形状が所定の形状であるか否か、及び、所定の形状変化を示したかどう 力 を判定することによって実現している。
[0009] また、挿入形状等の他に、実際に挿入部の手元側で挿入操作をした場合に、その 挿入操作に適切に応答しているカゝ否かの情報を挿入補助情報として把握できるとよ り便利である。
[0010] 例えば、日本国特開 2004— 358095号公報の従来例は、挿入部がループ形状に なった力否力を定期的に解析して、ループ形状になった場合にはその情報を表示す るようにしている。また、挿入部の先端側が停止状態である事などの解析も行う。 発明の開示
課題を解決するための手段
[0011] し力しながら、前記日本国特開 2004— 147778号公報の装置で提供される解析 結果及び解析結果を導く手法には、例えば、
1)所定の条件を満たす力否かの単純な判定のため、誤判定が生じる(例えば、局所 的な特徴 (アングル等)に反応してしまい、形状全体として捕らえることができない)
2)一時刻における瞬間の形状で判定しているために、外乱に弱い
といった問題がある。
[0012] また、上記本国特開 2004— 358095号公報の従来例では、ループ形状になった 場合を解析して表示を行って!/、るタイミングに、その情報を観察すればその情報を把 握できるが、その表示は定期的に更新されてしまうため、ループ形状と解析された付 近のタイミングを逃がして観察した場合にはその情報を見落とす欠点があった。
[0013] 本発明は、上記事情に鑑みてなされたものであり、形状解析を安定的に行え、かつ 、内視鏡挿入状態を挿入部全体形状で解析することのできる内視鏡挿入形状解析 装置を提供することを目的として!ヽる。
[0014] また、本発明は、挿入操作等に対する挿入部の所定の応答動作状態に対応する 挿入補助情報をより確実に確認できるようにした内視鏡挿入形状解析装置及び内視 鏡挿入形状解析システムを提供することをさらなる目的としている。
図面の簡単な説明
[図 1]本発明の実施例 1に係る電子内視鏡システムの全体構成を示すブロック図
[図 2]ソースコイルが内蔵された図 1の内視鏡の挿入部及びソースコイルの座標を示 す関係図
[図 3]内視鏡挿入形状観測装置が生成する挿入形状データの構造を示すデータ構 造図
[図 4]図 1の画像処理装置のディスプレイ上に表示される解析ウィンドウの構成図 [図 5]図 1の画像処理装置における検査情報および内視鏡画像と、挿入形状データ との処理に関するフローチャート図
[図 6]図 5における形状解析処理の詳細なフローチャート図
[図 7]図 6の処理を説明する図
[図 8]図 1の画像処理装置の記憶装置に格納されている辞書ファイルの構成を示す 図
[図 9]図 8の辞書ファイルで分類される形状を示す第 1の図
[図 10]図 8の辞書ファイルで分類される形状を示す第 2の図
[図 11]図 8の辞書ファイルで分類される形状を示す第 3の図
[図 12]図 8の辞書ファイルで分類される形状を示す第 4の図
[図 13]図 8の辞書ファイルで分類される形状を示す第 5の図
[図 14]本発明の実施例 2に係る画像処理装置のメモリに構築されるリングバッファを 示す図
[図 15]図 14のリングバッファを用いた画像処理装置の処理の流れを説明するフロー チャート
[図 16]図 15の処理を説明する図
[図 17]図 15の処理で利用可能な画像処理装置の記憶装置に格納される辞書フアイ ルを示す図
[図 18]図 15の処理で利用可能な画像処理装置の記憶装置に格納されるコード修正 辞書を示す図
[図 19]本発明の実施例 3に係る電子内視鏡システムの全体構成を示すブロック図
[図 20]図 19の画像処理装置の PCの動作プログラムの構成を示すブロック図
[図 21]図 20の動作プログラムの出力先登録ブロックが展開する登録ウィンドウを示す 図
[図 22]図 20の動作プログラムの処理の流れを示す第 1のフローチャート
[図 23]図 20の動作プログラムの処理の流れを示す第 2のフローチャート
[図 24]図 20の動作プログラムの処理の流れを示す第 3のフローチャート
[図 25]本発明の実施例 4を備えた体内挿入モニタリングシステムの全体構成図
[図 26]本発明の実施例 4に係る内視鏡挿入形状観測装置で検出される挿入部内に 設けられたソースコイルの座標を示す図
[図 27]本発明の実施例 4に係る内視鏡挿入形状観測装置により生成される挿入形状 データを示す説明図
[図 28]本発明の実施例 4に係る画像処理装置により実現される機能ブロックの構成 等を示す図
[図 29]図 28に示した解析処理ブロック等によるデータの流れや処理フロー等を示す 説明図
[図 30]本発明の実施例 4に係る挿入補助情報の更新タイミングと現在の時刻との差 分値により挿入補助情報の表示持続を制御する動作を示す説明図
[図 31]本発明の実施例 4に係る挿入補助情報の表示特性に関する変形例を示す図 [図 32]本発明の実施例 5における画像処理装置により実現される機能ブロックの構成 等を示す図
[図 33]図 32に示した解析処理ブロック等によるデータの流れや処理フロー等を示す 説明図
[図 34]本発明の実施例 5に係る処理スクリプトの処理内容のプログラミングの具体例 発明を実施するための最良の形態
[0016] 以下、図面を参照しながら本発明の実施例について述べる。
[0017] (実施例 1)
図 1に示すように、内視鏡挿入形状解析装置としての電子内視鏡システム 1は、内 視鏡装置 2と、内視鏡挿入形状観測装置 3、および画像処理装置 4から構成されて
いる。
[0018] 内視鏡装置 2は、電子内視鏡 21、ビデオプロセッサ 22、光源装置 23および、観察 モニタ 24から構成されて!、る。
[0019] 電子内視鏡 21は、挿入部 21a内に設けられた図示しないライトガイドにより、挿入 部 21aの先端部力 管腔内の観察部位を照明する観察光が照射されるように構成さ れている。電子内視鏡 21は、被検体である体腔の管腔内に挿入される細長の挿入 部 21a先端に、図示しない電子撮像素子 (例えば、 CCD)力設けられている。さらに 、電子内視鏡 21は、その電子撮像素子が駆動制御され、管腔内の観察部位の撮像 映像信号を生成し出力する。
[0020] さらに、電子内視鏡 21の挿入部 21aの先端部分には、湾曲部 21bが設けられ、挿 入部 21 a基端側に設けられた操作部 21 cにおいて湾曲操作可能になっている。
[0021] また、電子内視鏡 21の操作部 21cには、レリーズスィッチ 25が設けられている。さら に、操作部 21cには、ビデオプロセッサ 22との間において前記電子撮像素子を駆動 制御しかつ撮像生成された撮像映像信号を送受信するためのケーブルが設けられ ている。また、操作部 21cには、光源装置 23からの観察光を前記ライトガイドに導くラ イトガイドケーブル(図示せず)等が設けられて 、る。
[0022] また、電子内視鏡 21には、管腔における挿入部 21aの挿入位置および形状を検出 するための検出機能を構成する後述の複数のソースコイルが設けられて 、る。その 挿入の位置および形状検出機能は、挿入部 21aの挿入軸に沿って配置された複数 のソースコイルと、内視鏡挿入形状観測装置 3に設けられた複数のセンスコイルを有 するセンスコイルユニット 31とからなっている。
[0023] なお、複数のソースコイルは、内視鏡の挿入部 21aに、内視鏡の種類ごとに決定さ れる所定間隔に配置されて 、る。
[0024] ビデオプロセッサ 22は、電子内視鏡 21の電子撮像素子を駆動制御する。さらに、 ビデオプロセッサ 22は、電子撮像素子により光電変換されて撮像生成された動画の 映像信号を所定の信号処理を行!ヽ、輝度信号と色信号からなる YZC信号または、 RGB信号等を生成する。そのビデオプロセッサ 22により生成された輝度信号と色信 号からなる YZC信号または、 RGB信号は、観察モニタ 24と画像処理装置 4へと直
接出力されるようになって!/、る。
[0025] また、ビデオプロセッサ 22は、内視鏡 21のレリーズスィッチ 25が操作されると、撮 像画像の静止画像の出力指示が可能となっている。
[0026] なお、ビデオプロセッサ 22には、内視鏡検査に関する検査情報を入力する図示し ない入力機能を有している。
[0027] 光源装置 23は、照明光源である図示しないランプと、そのランプの図示しない点灯 回路等力 なっている。光源装置 23は、ランプ点灯時に投射された照明光を電子内 視鏡 21のライトガイドへと供給し、照明光は、挿入部 21a先端力 管腔の観察部位へ と投射される。
[0028] 観察モニタ 24は、前記ビデオプロセッサ 22において生成された YZC信号または RGB信号等を基に、内視鏡画像を表示するものである。
[0029] 内視鏡挿入形状観測装置 3は、内視鏡装置 2の周辺装置であり、センスコイルュニ ット 31と、形状処理装置 32と、モニタ 33と力ら構成されている。センスコイルユニット 3 1は、電子内視鏡 21の揷入部 21aに設けられた複数のソースコイルからの磁界を検 出するユニットである。形状処理装置 32は、そのセンスコイルユニット 31によって検 出された磁界に基づいて内視鏡挿入部の形状を推定する装置である。モニタ 33は、 その形状処理装置 32によって推定された内視鏡挿入部の形状を表示する装置であ る。
[0030] 形状処理装置 32は、ソースコイルを駆動する駆動信号を電子内視鏡 21に出力し てソースコイルに磁界を発生させる。形状処理装置 32は、発生された磁界を検出し たセンスコイルユニット 31からの検出信号に基づいて、各ソースコイルの位置座標デ ータの算出し、その算出された位置座標データカゝら内視鏡挿入部の形状を推定して いる。また、形状処理装置 32は、推定した内視鏡挿入部の形状をモニタに表示する ための挿入部形状画像信号を生成する。さらに、形状処理装置 32は、画像処理装 置 4に出力する内視鏡挿入部の形状を示す 3次元座標情報および、形状表示属性 等の挿入形状データを生成するように構成されて ヽる。
[0031] 以上のように、複数のソースコイル、センスコイルユニット 31、形状処理装置 32が形 状検出手段を構成している。
[0032] なお、内視鏡挿入形状観測装置 3において、形状処理装置 32により処理生成され てモニタ 33に表示される挿入部形状画像の回転角および、拡大縮小等の形状表示 属性は、図示しない操作パネル力もの指示入力により、変更可能となっている。さら に、形状処理装置 32により生成された挿入形状データは、画像処理装置 4へ出力可 能となっている。
[0033] 画像処理装置 4は、形状解析手段及びパターン分類手段を構成するパーソナルコ ンピュータ(以下、単に PCと称する) 41と、マウス 42と、キーボード 43と力も構成され ている。マウス 42とキーボード 43は、 PC41に各種指示入力するための入力装置で ある。ディスプレイ 44は、 PC41により処理された各種情報データおよび画像情報を 再生表示する装置である。また、表示手段としてのディスプレイ 44は、電子内視鏡 21 が撮像した内視鏡画像と、形状処理装置 32が検出した内視鏡挿入部の形状とを 1 つの画面上に表示するようになって ヽる。
[0034] さらに、 PC41は、第 1通信ポート 41aと、第 2通信ポート 41bと、動画像入力ボード 4 lcと、例えば半導体素子等力もなるメモリ 41eと、例えばハードディスク等力もなる情 報格納手段としての記憶装置 4 Ifとを有している。形状解析手段としての PC41は、 後述のように、挿入形状データ等を基に、内視鏡挿入を阻害している特定位置等を 算出、すなわち解析して求めるようになつている。
[0035] 第 1通信ポート 41aは、内視鏡挿入形状観測装置 3の形状処理装置 32の通信ポー ト 32aから出力される挿入形状データを、取り込むようになって 、る。
[0036] 第 2通信ポート 41bは、内視鏡装置 2のビデオプロセッサ 22の通信ポート 22aから 出力される内視鏡検査情報を取り込むようになって!/、る。
[0037] 動画像入力ボード 41cは、内視鏡装置 2のビデオプロセッサ 22において生成され た動画映像信号を所定の圧縮画像データに変換するものである。
つまり、画像処理装置 4の動画像入力ボード 41cには、ビデオプロセッサ 22により 生成された動画像の映像信号が入力される。そして、動画像入力ボード 41cは、その 動画像の映像信号を所定の圧縮動画映像信号データ、例えば MJPEG形式の圧縮 画像データに変換する。変換された圧縮画像データは、 PC41の記憶装置 41fに保 存される。
[0038] なお、一般的には、内視鏡検査開始前には、ビデオプロセッサ 22から、内視鏡検 查に関する検査情報が入力される。その入力されたデータをもとに、検査情報が、観 察モニタ 24に文字および数字の情報として表示される。さらに、その検査情報データ は、通信ポート 22aから第 2通信ポート 41bを介して、画像処理装置 4に送信しメモリ 41 eあるいは記憶装置 4 Ifに記録することも可能である。
[0039] また、検査情報とは、例えば、患者の氏名、生年月日、性別、年齢、患者コードなど である。
[0040] つまり、画像処理装置 4は、必要に応じてビデオプロセッサ 22と接続して、ビデオプ 口セッサ 22からの各種情報データを受信しメモリ 41eあるいは記憶装置 41fに保存す るようになっている。
[0041] 次に、内視鏡挿入形状観測装置 3における挿入形状データの生成について説明 する。
[0042] 内視鏡挿入形状観測装置 3は、電子内視鏡 21の電子撮像素子により撮像される 撮像映像信号の 1フレームごとに、電子内視鏡 21の挿入部 21aに内蔵された M個の ソースコイルの 3次元座標を含む挿入形状データを生成する。内視鏡挿入形状観測 装置 3は、その挿入形状データをもとに挿入部形状画像を生成して、モニタ 33に表 示するとともに、挿入形状データを画像処理装置 4に出力供給する。
[0043] 図 2に示すように、電子内視鏡 21の揷入部 21aに挿入形状推定のための M個のソ ースコイルが内蔵されている。そして、各ソースコイルの位置力 参照点を構成してい る。内視鏡挿入形状観測装置 3において検出するソースコイルの座標系は、第 jフレ 一ムの揷入部 21a先端から数えて m番目のソースコイルの 3次元座標を、次の式 1で 表されるようになつている。
(Xj , Yj , Zj )…(式 1)
m m m
ただし、 m=0, 1 , · · ·, M—lである。また、 jは、電子撮像素子により撮像された撮 像映像信号の第 jフレームを表して 、る。
[0044] 内視鏡挿入形状観測装置 3により検出されたソースコイルの座標系を示す挿入形 状データの構造は、図 3に示すような構造であり、 1つのフレームに関係するデータが 1つのパケットとして送信される。 1つのパケットは、フォーマット種別情報、挿入形状
データの作成時刻、表示属性情報、付属情報、ソースコイル座標のデータカゝら構成 されている。
[0045] 本実施例にお!ヽてフォーマット種別とは、挿入形状データ作成時刻、表示属性、付 属情報、コイル座標のそれぞれに割り当てるデータサイズを規定するものである。ま た、データサイズの規定とは、内視鏡の種類ごとに決定されるソースコイルのデータ 数、挿入形状データ作成時刻、コイル座標の精度、表示属性や付属情報に含まれる 情報量の規定を意味する。
[0046] ここで、ソースコイルは、挿入部 21a先端力 挿入部 21aの基端側に設けられてい る操作部 21c側に向力つて、順に並んで配置されている。つまり、それらソースコイル の座標データは、電子内視鏡 21の揷入部 21aに内蔵されているソースコイルの 3次 元座標である。尚、内視鏡挿入形状観測装置 3が検出範囲外とするソースコイルの 座標は、 3次元座標(0, 0, 0)が設定されるようになっているものとする。
[0047] 次に、図 5のフローチャートを用いて、画像処理装置 4における処理フローについて 説明する。すなわち、内視鏡装置 2のビデオプロセッサ 22からの検査情報と内視鏡 画像、および内視鏡挿入形状観測装置 3の形状処理装置 32からの挿入形状データ につ ヽての処理内容である。
[0048] その処理動作は、画像処理装置 4に設けられた検査用アプリケーションプログラム( 以下、アプリケーションプログラムを単にアプリケーションと 、う)を PC41にお!/ヽて展 開し実行させること〖こより実現する。
[0049] 内視鏡検査を始めるにあたり、ビデオプロセッサ 22では検査情報を入力し、画像処 理装置 4の PC41は検査用アプリケーションを起動する。その検査用アプリケーション が起動すると、ディスプレイ 44には、図 4に示す解析ウィンドウ 50が表示されるように 構成されている。ただし、図 4は、挿入形状データを処理している最中の表示内容を 示している。
[0050] ここで、図 4を参照して、まず前提となる解析ウィンドウ 50について説明する。
[0051] 解析ウィンドウ 50は、ファイルメニュー 51、警告情報表示領域 52、検査情報表示 領域 53、内視鏡画像表示領域 54、内視鏡挿入形状表示領域 55、付属情報表示領 域 56、表示パラメータチェックボックス 57、解析値表示領域 58、時系列グラフ領域 5
9、時系列サブ情報表示領域 60、スライダー 61、開始ボタン 62および、停止ボタン 6 3を含んでいる。
[0052] 時系列グラフ領域 59と時系列サブ情報表示領域 60の X軸は、時間軸であり、図 4 の左右方向である。時系列グラフ領域 59と時系列サブ情報表示領域 60は、挿入形 状データを取得するごとに、すなわち経時的に、点のプロットを行いながら、プロット 位置を図 4の右方向に移動させてグラフを作成する領域である。プロットする点の Y 軸方向の位置は、画像処理装置 4の PC41が算出した内視鏡挿入部 21aの形状をあ らわす特徴量の値によって決定される。本実施例では、内視鏡画像処理装置 4が算 出したアングル、挿入長、特定位置としての停止コイル位置をプロットする。すなわち 、算出された特定位置がグラフにより視覚化されるように処理される。それぞれ、 Y軸 のスケール、 0点位置が個別に設定される。なお、 Y軸方向は、図 4の上下方向であ る。
[0053] 表示パラメータチェックボックス 57の選択肢として、本実施例ではアングル、挿入長 、及び停止コイル位置がある。そのチェックボックスをチェックすることにより、時系列 グラフ領域 59に表示するパラメータの種類を選択する。
[0054] アングル、挿入長の各パラメータに関する算出手法は、従来技術である日本国特 開 2004— 147778号公報における手法と同等である。
[0055] 次に、停止コイル位置に関する算出手法について、以下に詳述する。
[0056] 解析ウィンドウ 50のファイルメニュー 51を選択すると、画像処理装置 4が過去に記 録した挿入形状ファイルと、画像ファイルとを選択するための、図示しない選択ウィン ドウが表示され、各々のファイルを選択して読み込むことが可能である。挿入形状フ アイルとは、内視鏡挿入形状観測装置 3がー検査内に生成した挿入形状データの集 合ファイルである。画像ファイルとは、画像処理装置 4の動画像入力ボード 41cが生 成した圧縮画像データの集合ファイルである。
[0057] 画像処理装置 4の PC41に検査用アプリケーションが展開されて実行されると、図 5 に示すように、ステップ S1において、 PC41は、アプリケーションの初期化情報を初期 化ファイル力も読み込む。なお、初期化ファイルは、 PC41の記憶装置 41fにあらかじ め記憶されている。そして、 PC41は、読み込んだ初期化ファイルの情報を PC41内
のメモリ 41 e上に記憶した後、ディスプレイ 44に解析ウィンドウ 50を表示する。
[0058] 本実施例では、初期化情報として、電子内視鏡システム 1にお 、て使用可能な電 子内視鏡 21の名称と、挿入形状データのフォーマット種別ごとのデータサイズ情報と を含んでいる。さらに、初期化情報としては、電子内視鏡 21の挿入部 21aを直線ィ匕し た際のソースコイル間の距離と、形状解析処理に使用するパラメータとを含んでいる
。なお、ソースコイル間の距離は、以下、ソースコイル間距離情報と称する。
[0059] またさらに、初期化情報として、解析ウィンドウ 50のディスプレイ 44上における表示 位置座標も含んでいる。その表示位置座標に基づいて PC41は、ディスプレイ 44に 解析ウィンドウ 50を表示する。
[0060] ステップ S2において、 PC41は、ビデオプロセッサ 22からの検査情報および内視 鏡画像データ、内視鏡挿入形状観測装置 3の形状処理装置 32からの挿入形状デー タを受信し保存するモードに設定する。
[0061] 次に、ステップ S3において、 PC41は、術者がマウス 42またはキーボード 43を操作 し、解析ウィンドウ 50に表示された開始ボタン 62が押下されたカゝ否かを判断する。開 始ボタン 62が押下されるまで待機し、押下されるとステップ S4以降が実行される。
[0062] ステップ S4において、 PC41は第 1通信ポート 41aを開き、内視鏡挿入形状観測装 置 3との通信を開始する。さらにステップ S5において、 PC41は第 2通信ポート 41bを 開き、ビデオプロセッサ 22との通信を開始する。
[0063] ステップ S6において、 PC41は、ビデオプロセッサ 22に対して、検査情報の取得コ マンドを第 2通信ポート 41b力もビデオプロセッサ 22の通信ポート 22aに送信する。そ の検査情報取得コマンドを受信したビデオプロセッサ 22は、検査情報を PC41へと 送信する。
[0064] PC41は、ステップ S6においてビデオプロセッサ 22から送信された検査情報を、ス テツプ S7において、記憶装置 41fに記録し保存するとともに、解析ウィンドウ 50の検 查情報表示領域 53に表示する。
[0065] ステップ S8において、 PC41は、第 1通信ポート 41aから内視鏡挿入形状観測装置 3の形状処理装置 32の通信ポート 32aに対して、挿入形状データの取得コマンドを 送信する。その挿入形状データ取得コマンドを受信した形状処理装置 32は、挿入形
状データの送信出力を開始する。その送信は、 PC41と形状処理装置 32の間の通 信が終了し、通信ポート 32aが閉じられるまで続けられる。
[0066] ステップ S9において、 PC41は、ステップ S8における形状処理装置 32から送信出 力された挿入形状データを受信する。そして、 PC41は、受信した挿入形状データと 、ステップ S7において記録し保存した検査情報とを関連付けて、 PC41に設けられて いる記憶装置 4 Ifに挿入形状ファイルとして記録し保存する。また同時に、 PC41内 のメモリ 41e上に、挿入形状データを随時記録する。
[0067] PC41は、ステップ S10において、ビデオプロセッサ 22から入力された動画映像信 号を動画像入力ボード 41cにより MJPEG形式の圧縮画像データに変換させる。さら に PC41は、その圧縮画像データとステップ S7において記録保存した検査情報と関 連付けて、 PC41の記憶装置 41fに画像ファイルとして保存するとともに、動画像入 力ボード 41cに入力されている動画像を解析ウィンドウ 50の内視鏡画像表示領域 5 4に表示させる。
[0068] PC41は、ステップ S11において、図 6に示す各ステップの解析処理を実行する。そ の解析処理が終了すると、 PC41は、ステップ S12において、解析ウィンドウ 50の停 止ボタン 63が押下された力否かを判断し、停止ボタン 63が押下されて 、な 、と判定 されるとステップ S8に戻るとともに、解析ウィンドウ 50のスライダー 61を 1ステップ右に 移動させる。
[0069] 停止ボタン 63が押下されたと判定されると、 PC41はステップ S13において、第 1通 信ポート 41aと第 2通信ポート 41bとを閉じて、内視鏡挿入形状観測装置 3とビデオプ 口セッサ 22との情報データの通信を終了する。
[0070] 次に、図 6を用いて、ステップ S 11の形状解析処理について説明する。
[0071] ステップ S21において、 PC41は、前フレームの挿入形状データのフレームパケット のフォーマット種別情報と、付属情報に含まれる内視鏡種類情報とを取得する。
[0072] PC41は、取得した挿入形状データのフォーマット種別に基づいて、図 5のステップ S 1にお!/、てメモリ 41 e上に保持して!/、る、フォーマット種別に対応したフレームバケツ トに含まれる情報のデータサイズ情報を取得し、挿入形状データのフレームパケット を各データに分解処理する。フォーマット種別の名称は、解析ウィンドウ 50の付属情
報表示領域 56に表示する。
[0073] また、 PC41は、前記分解処理によって生成した付属情報力も電子内視鏡 21の名 称を取得し、解析ウィンドウ 50の付属情報表示領域 56に表示する。とともに、 PC41 は、取得した電子内視鏡 21の名称に基づいて、図 5のステップ S1にてメモリ 41e上 に保持している、電子内視鏡 21の名称に対応したソースコイル間距離情報を取得す る。
[0074] そして、ステップ S22において、以下の処理(1)〜処理(7)の各種解析処理を実行 する。
[0075] 処理(1):挿入長の算出処理 (測定範囲内に存在するソースコイルを先端力 数え上 げる処理)
処理(2):ループの判定処理 (Z軸方向(図 2参照)に投影したときの挿入部 21aの交 差点が存在するか否かの処理)
処理(3):アングルの算出処理 (湾曲部 21bのアングルの算出処理)
処理 (4):曲率半径の算出処理 (挿入部 21aの局所的な曲率半径の算出処理) 処理(5):根元に対する角度の算出(挿入部 21aの根元近辺に位置するソースコイル の挿入軸方向と、各ソースコイルの挿入軸方向のなす角度の算出処理)
処理(6): 1フレームあたりの移動量の算出(前フレームと現フレームとのソースコイル の位置座標の差分による、各ソースコイルの移動量の算出処理)
処理(7) : 1フレームあたりの推進量の算出(移動量を、各ソースコイルの位置にて揷 入軸方向に投影したときの値の算出処理)
次に、ステップ S23において、図 7に示すように、ステップ S22で算出した各解析値 のそれぞれに対してフラグを生成し、そのフラグを並べてビット列とみなすことによりバ イトコードに変換することで、解析結果をコード化する。
[0076] PC41は、図 8に示す辞書ファイルを記憶装置 41fに保存している。この辞書フアイ ルは、バイトコードと、バイトコードに対する内視鏡形状分類 ID、内視鏡形状分類情 報、内視鏡形状分類補助情報、操作補助情報を対応付けて管理している。
[0077] 詳細には、内視鏡形状分類 IDは、内視鏡形状が取りうるすべての形状を分類して 、それぞれに IDを割り振ったものである。
[0078] また、本実施例では、図 9ないし図 13に示すように、例えば、下部内視鏡挿入時の 形状は、直線形状 (図 9)、ステッキ形状 (図 10)、中折れ形状 (図 11)、ループ形状( 図 12)、腰砕け形状(図 13)の 5パターンに大別、分類することが可能であるため、各 パターンを示す文字列(直線、ステッキ、中折れ、ループ、腰砕け)を、内視鏡形状分 類情報として辞書ファイルの記憶して 、る。
[0079] さらに、内視鏡形状分類補助情報は、ループや腰砕け時の螺旋形状に対して、挿 入部 21aを根元力 先端への方向から見たときの挿入軸方向の回転方向の情報で ある。
[0080] また、操作補助情報は、各コードに対応する内視鏡形状に対して、ループまたは螺 旋形状、ステッキなどの、先端部の前進を阻害する要因を取り除くために必要な挿入 部 21aの操作情報である。例えば、操作補助情報が回転操作である場合には、操作 者が、挿入部 21aの根元を操作補助情報が示す方向に捻ることにより、挿入部 21a のループまたは螺旋形状は解除され、挿入部 21aが真直ぐになるように形状を変化 させることとなる。
[0081] そして、ステップ S24において、ステップ S23で生成されたバイトコードをキーとして 辞書ファイル検索及び取得結果を解析ウィンドウ 50の警告情報表示領域 52 (図 4参 照)に表示する。具体的には、ステップ S23で求めたバイトコードに該当する情報を 辞書ファイルから検索、取得して、文字情報(内視鏡形状分類情報、内視鏡形状分 類補助情報、操作補助情報)を解析ウィンドウ 50の警告情報表示領域 52に表示す る。なお、ノイトコードに該当する情報がない場合には、表示処理を行わない。
[0082] そして、ステップ S25において、挿入形状データに関する 2次元投影の内視鏡形状 画像を生成すると共に、解析ウィンドウ 50の内視鏡挿入形状表示領域 55に表示し、 ステップ S 12に進む。
[0083] このように本実施例では、内視鏡挿入部の形状を逐一コード化し、そのコードに対 応する内視鏡形状パターン、操作補助情報を表示するため、複数の判定条件による 統合的な形状判定処理系を容易に構築することが可能となり、操作者に提示する補 助情報の正確性が向上する。
[0084] すなわち、解析結果を統合して得られる判定結果を元に、内視鏡挿入部の形状を
ノターン分類して、各パターンに応じた情報を提供することができ、形状解析を安定 的に行え、かつ、内視鏡挿入状態を挿入部全体形状で解析することが可能となる。
[0085] また、各コードに対応する情報を、辞書ファイル力も検索 Z取得動作により表示す るため、プログラムを変更する(コンノィル、ビルドしなおす)ことなぐ辞書ファイルを 編集するだけで表示内容を変更することが可能となる。
[0086] (実施例 2)
実施例 2は、実施例 1とほとんど同じであるので、異なる点のみ説明し、同一の構成 には同じ符号をつけ説明は省略する。
[0087] 本実施例では、メモリ 41e内に、図 14に示すような、例えばサイズ 8のリングバッファ 90が設けられている。
[0088] 挿入形状データには検査開始力 のデータ取得カウント Countが関連付けられてい るため、本実施例においては、 Count/8の剰余をこのリングバッファ 90の格納位置と することにより、過去 N回(但し、 Nく 8)の挿入形状データの記憶及び取得を実現して いる。その他の構成は実施例 1と同じである。
[0089] 本実施例では、実施例 1とステップ S11の形状解析処理の一部が異なるので、図 1 5な 、し図 17を用いて異なる点を説明する。
[0090] 本実施例の形状解析処理では、図 15及び図 16に示すように、実施例 1で説明した ステップ S21〜S23の処理を実行した後、ステップ S31において、リングバッファ 90 に格納されている、例えば過去 3回の格納情報 (挿入形状データ)を取得する。リング バッファ 90の位置は、現在のデータ取得カウント Countに対して、(Count-l)/8,(Coun t-2)/8,(Count-3)/8の各剰余により求める。そして、取得した過去 3回の格納情報と、 ステップ S23で求めたバイトコードとを順次結合して、 4バイトの 4バイトコードを生成 する。
[0091] 本実施例では、 PC41は、図 17に示す辞書ファイルを記憶装置 41fに保存している 。この辞書ファイルは、 4バイトコードと、 4バイトコードに対応する内視鏡形状分類 ID 、内視鏡形状分類情報、内視鏡形状分類補助情報、操作補助情報を対応付けて管 理している。
[0092] そして、ステップ S24にて、ステップ S31で求めた 4バイトコードに該当する情報を
辞書ファイルから検索、取得して、文字情報(内視鏡形状分類 ID、内視鏡形状分類 情報、内視鏡形状分類補助情報、操作補助情報)を解析ウィンドウ 50の警告情報表 示領域 52に表示する。なお、バイトコードに該当する情報がない場合には、表示処 理を行わない。
[0093] 次にステップ S32にて、ステップ S23において求めたバイトコードを、 PC41のメモリ
41 eにあるリングバッファ 90の該当位置に記憶させる。
[0094] その後、実施例 1と同様に、ステップ S25において、挿入形状データに関する 2次 元投影の内視鏡形状画像を生成すると共に、解析ウィンドウ 50の内視鏡挿入形状 表示領域 55に表示し、ステップ S 12に進む。
[0095] なお、より単純に、前回の挿入形状データの処理結果をメモリ 41eに保持させてお き、今回の挿入形状データの処理結果との比較処理 (例えば、前回の処理結果と今 回の処理結果とが同一であるか否か)によって、表示させる操作補助情報を決定する ように構成してもよい。
[0096] また、 PC41の記憶装置 41fに、図 18に示すようなコード修正辞書を格納し、ステツ プ S31にお!/、て 4バイトコードを、このコード修正辞書により修正してもよ!/、。
[0097] このように本実施例では、実施例 1と同様に、内視鏡挿入部の形状を逐一コードィ匕 し、そのバイトコードと、過去取卿処理したバイトコードとを組み合わせて生成した 4バ イトコードに対応する内視鏡形状パターン、操作補助情報を表示するため、外乱によ る誤処理を防止するとともに、内視鏡の一連の操作に対する判定が可能となるため、 操作者に提示する操作補助情報の正確性が向上する。
[0098] また、各 4バイトコードに対応する情報を、辞書ファイルからの検索 Z取得動作によ り表示するため、プログラムを変更する(コンノィル、ビルドしなおす)ことなぐ辞書フ アイルを編集するだけで表示内容を変更することが可能となる。
[0099] (実施例 3)
実施例 3は、実施例 1とほとんど同じであるので、異なる点のみ説明し、同一の構成 には同じ符号をつけ説明は省略する。
[0100] 図 18に示すように、本実施例の画像処理装置 4の PC41は、例えば外部装置であ る画像ファイルイング装置 100と通信可能な第 3通信ポート 41dを備えている。
[0101] 画像ファイルイング装置 100は画像データを管理 Z記録する PC101と、この PC10 1に接続可能なマウス 102、キーボード 103及びディスプレイ 104から構成される。画 像フアイルイング装置 100の PC 101は、画像処理装置 4の PC41と通信可能な通信 ポート 101a、メモリ 101b、記録装置 101cを有している。
[0102] 図 19は、画像処理装置 4の PC41で動作する動作プログラムである、挿入形状解 析アプリケーション 151、挿入形状データ記録アプリケーション 15 la、挿入形状表示 アプリケーション 15 lb及び挿入形状データ管理アプリケーション 152の処理ブロック と、各アプリケーションが使用するメモリ 41eのメモリブロックを構成を示すブロック図 である。
[0103] メモリ 41eは、挿入形状解析アプリケーション 151が使用する挿入形状解析アプリケ ーシヨン用メモリ 141aと、挿入形状データ管理アプリケーション 152が使用する挿入 形状データ管理アプリケーション用メモリ 141bと、挿入形状解析アプリケーション 15 1及び挿入形状データ管理アプリケーション 152が共用する共用メモリ 141cとから構 成される。この共用メモリ 141cに対しては、挿入形状解析アプリケーション 151及び 挿入形状データ管理アプリケーション 152のどちらからもアクセス可能である。
[0104] また、挿入形状データ管理アプリケーション 152は、挿入形状データ取得ブロック 1 61及びメッセージ送信ブロック 162と力もなる第 1スレッドと、挿入形状データ送信ブ ロック 163からなる第 2スレッドと、出力先管理ブロック 164及び出力先登録ブロック 1 65とからなる第 3スレッドとから構成される。
[0105] このように構成された本実施例の作用について、図 20ないし図 23を用いて説明す る。
[0106] 第 3スレッド内の出力先登録ブロック 165は、図 20に示す登録ウィンドウ 171をディ スプレイ 44に表示し、登録ウィンドウ 171内のチェックボックス 172におけるチェックの 有無をメモリ 41e内の挿入形状データ管理アプリケーション用メモリ 141b領域に記憶 する。
[0107] 第 2スレッド内の挿入形状送信ブロック 163は、第 3スレッドの出力先管理ブロック 1 64を通じて、メモリ 41e内の挿入形状データ管理アプリケーション用メモリ 141b領域 に、画像フアイリング装置 100が送信先としてチェックされていることを示す内容が記
憶されて 、る力否かを確認する。
[0108] そして、第 2スレッド内の挿入形状送信ブロック 163は、画像フアイリング装置 100が 送信先に指定されている場合には、図 21に示すフローに従って画像フアイリング装 置 100との第 3通信ポート 41dを介した送受信処理を行う。
[0109] 画像フアイリング装置 100から送信要求がきたら、第 2スレッドの挿入形状データ送 信ブロック 163は、共有メモリ 141cのバッファ内にある挿入形状データを読み込み、 第 3通信ポート 41 dを使用して画像ファイリング装置 100に挿入形状データを送信す る。送信し終わったら、画像フアイリング装置 100からの送信要求待ちの状態に移行 し、同様の処理を繰り返す。
[0110] 第 1スレッド内の挿入形状データ取得ブロック 161は、第 3スレッドの出力先管理ブ ロック 164を通じて、メモリ 41e内の挿入形状データ管理アプリケーション用メモリ 141 b領域に、挿入形状データ記録アプリケーション 151aまたは挿入形状表示アプリケ ーシヨン 15 lb、または挿入形状解析アプリケーション 151が送信先としてチェックさ れて 、ることを示す内容が記憶されて 、る力否かを確認する。
[0111] 第 1スレッドは、図 22に示すフローに従って、内視鏡形状観測装置 3との通信ポー ト 32aを介した送受信を行う。本実施例では、挿入形状解析アプリケーション 151が 送信先としてチェックされているものとして説明する。
[0112] 挿入形状データ取得ブロック 161は、通信ポート 2を通じて、内視鏡挿入形状観測 装置 3に挿入形状データの送信要求を行う。
[0113] 内視鏡挿入形状観測装置 3は、通信ポート 32aを通じ挿入形状データを送信し、挿 入形状データ取得ブロック 161が挿入形状データを受信して、共有メモリ 14 lcのバ ッファに書き込む。
[0114] 続いて、メッセージ送信ブロック 162は、挿入形状解析アプリケーション 151のウィン ドウハンドルを OS (オペレーティングシステム)力ら検索/取得し、有効なウィンドウノ、 ンドルを取得した場合に、そのウィンドウハンドルに対してメッセージを送信する。そ のメッセージの引数として、共有メモリ 141c内のバッファの位置を指定する。
[0115] 挿入形状解析アプリケーション 151は、図 23に示すように、ステップ S41にてメッセ ージの引数に基づいて、共有メモリ 141c内のバッファをアクセスして、挿入形状デー
タを取得する。このタイミング力 実施例 1で説明した図 4におけるステップ S8に相当 する。
[0116] 挿入形状解析アプリケーション 151は、取得した挿入形状データを、メモリ 41e内の 挿入形状データ管理アプリケーション用メモリ 141bにコピーして、処理完了を示す確 認を挿入形状データ取得プロック 161に伝達する。
[0117] 挿入形状データ取得ブロック 161は、メッセージ送信後、挿入形状解析アプリケー シヨン 151からの確認が伝達されるのを待ちつづけており、確認が伝達された時点で 、同様の処理を繰り返す。
[0118] なお、共有メモリ 141cへの読み込み、書き込み時の排他処理は OSの用意するアト ミックなメモリ読み書きの仕組みを利用して実現するものとする。
[0119] このように本実施例では、実施例 1の効果に加え、挿入形状データを、複数のアブ リケーシヨン、複数の装置間で共用使用するため、機能を分割した複数の処理モジュ ールを並列に動作させることが容易になり、必要に応じた構成でシステム構築するこ とが容易になると共に、システム開発のコストを軽減することが可能となる。
[0120] (実施例 4)
図 25に示すように本発明の実施例 4を備えた体内挿入モニタリングシステム 201は 、内視鏡検査を行う内視鏡装置 202と、内視鏡挿入形状を観測するための内視鏡挿 入形状観測装置 203と、内視鏡挿入形状観測装置 203により生成された内視鏡挿 入形状データ (挿入形状データと略記)を解析して、内視鏡検査を補助若しくは支援 する挿入モニタリング装置の実施例 4を構成する画像処理装置 204とから構成される
[0121] 内視鏡装置 202は、大腸等の体腔内に挿入される電子内視鏡 206と、この電子内 視鏡 206に照明光を供給する光源装置 207と、電子内視鏡 6に内蔵された CCD等 の撮像素子 216に対する信号処理を行う信号処理装置としてのビデオプロセッサ 20 8と、このビデオプロセッサ 208により生成された映像信号が入力されることにより撮 像素子 216で撮像された体腔内の画像を内視鏡画像として表示する観察モニタ 209 とを有する。
[0122] 電子内視鏡 206は、患者の体腔内に挿入される細長の挿入部 211と、この挿入部
211の後端に設けられた操作部 212とを有する。挿入部 11内には、照明光を伝送す るライトガイド 213が挿通されている。このライトガイド 213の後端は光源装置 207に 接続され、光源装置 207から供給される照明光を伝送し、挿入部 211の先端部 214 に設けられた照明窓から (伝送した照明光を)出射する。
[0123] なお、挿入部 211には、先端部 214の後端に湾曲自在の湾曲部が設けてあり、操 作部 212に設けられた図示しない湾曲操作ノブ等を操作することにより、湾曲部を湾 曲することができる。
[0124] 上記先端部 214には、照明窓に隣接して設けられた観察窓に対物レンズ 215が取 り付けてある。この対物レンズ 215により、その結像位置に配置された電荷結合素子(
CCDと略記)等の撮像素子 216の撮像面に光学像を結像する。
[0125] この撮像素子 216は、信号線を介してビデオプロセッサ 208と接続されており、光 学像を光電変換した撮像信号をビデオプロセッサ 208に出力する。
[0126] ビデオプロセッサ 208は、撮像素子 216から出力される撮像信号に対して、映像信 号を生成する信号処理を行う。そして、ビデオプロセッサ 208は、生成した映像信号
、例えば RGB信号を観察モニタ 209に出力する。そして、観察モニタ 209の表示面 には、撮像素子 216で撮像された画像が表示される。
[0127] なお、光源装置 207は、 R, G, Bの照明光で面順次照明を行う場合には、各照明 期間に同期した同期信号をビデオプロセッサ 208に出力し、ビデオプロセッサ 208は その同期信号に同期して信号処理を行う。
[0128] 更に、電子内視鏡 206の操作部 212には、レリーズ指示等を行う図示しないスイツ チが設けてあり、スィッチを操作してビデオプロセッサ 208の動作を制御することがで きる。
[0129] また、本実施例においては、体腔内に挿入される挿入部 211の挿入位置や挿入形 状を検出するための検出機能が設けられている。具体的には、電子内視鏡 206にお ける揷入部 211内にはその長手方向に、所定の間隔で複数のソースコイル C0、 Cl、 · ··、 CM-1 (C0〜CM-1と略記)が配置されており、これらソースコイル C0〜CM-1は 駆動信号が印加されることにより、その周囲に磁界を発生する。
そして、ソースコイル C0〜CM-1による磁界を、内視鏡挿入形状観測装置 203に設
けられた複数のセンスコイルを内蔵したセンスコイルユニット 219により検出する構成 にしている。
つまり、内視鏡挿入形状観測装置 203は、電子内視鏡 206に設けられたソースコィ ル C0〜CM-1による磁界を検出するセンスコイルユニット 219と、このセンスコイルュ ニット 219によって検出された磁界の検出信号に基づいて挿入部 211の形状 (挿入 形状という)を推定する形状処理装置 221と、この形状処理装置 221によって推定さ れた挿入形状を表示するディスプレイ 222とを有する。
[0130] 上記センスコイルユニット 219は、患者が横たわる検査ベッドの周辺部などに配置さ れ、ソースコイル C0〜CM-1による磁界を検出して、検出した検出信号を形状処理装 置 221に出力する。
[0131] 形状処理装置 221は、検出信号に基づいて、ソースコイル C0〜CM-1の各位置座 標データの算出や、その算出された位置座標データ力 挿入部 211の挿入形状を 推定する。
[0132] 形状処理装置 221は、推定した挿入部 211の挿入形状の映像信号を生成し、生成 した映像信号、例えば RGB信号をディスプレイ 222に出力する。そして、このディス プレイ 222の表示画面には、挿入形状が表示される。術者は、この挿入形状を観察 することにより、挿入操作等をより円滑に行い易くなる。
[0133] また、この形状処理装置 221は、内視鏡検査中、挿入形状を示す 3次元座標情報 、及び形状表示属性等の挿入形状データを連続的に生成し、通信ポート 221aを介 して画像処理装置 204に出力する。この形状処理装置 221は、レリーズスィッチの操 作時の挿入形状データのみを画像処理装置 204に出力することもできる。
[0134] なお、この内視鏡挿入形状観測装置 203は、形状処理装置 221による形状検出処 理により生成されてディスプレイ 222に表示される挿入形状の画像の回転角、拡大縮 小率等の形状表示属性を、図示して 、な 、操作パネル等力も指示入力することによ り、変更可能となっている。
[0135] なお、ビデオプロセッサ 208には、図示していないが、内視鏡検査に関する検査情 報を入力する機能を有し、このビデオプロセッサ 208に入力された検査情報は、通信 ポート 208aを介して画像処理装置 204にも送信される。
[0136] 画像処理装置 204は、入力される挿入形状データに対して、挿入操作等の内視鏡 操作に対して実際に体腔内に挿入された挿入部 211の応答動作状態を解析処理し 、術者に知らせるべき所定の応答動作状態になっている力否かを判定し、所定の応 答動作状態になっている場合には挿入補助情報を生成する。
[0137] このため、画像処理装置 204は、術者を補助ないしは支援する挿入補助情報を生 成するための解析処理を行うパーソナルコンピュータ(以下、単に PCと称する) 225と 、この PC225に各種指示入力するためのマウス 226とキーボード 227と、 PC225に より解析処理により生成された挿入補助情報等を再生若しくは表示する表示装置とし てのディスプレイ 228とを有する。
[0138] PC225には、前記内視鏡挿入形状観測装置 203の形状処理装置 221の通信ポ ート 221aから出力される挿入形状データを取り込む通信ポート 225a、前記内視鏡 装置 202のビデオプロセッサ 208の通信ポート 208aから出力される内視鏡検査情報 を取り込む通信ポート 225bと、前記電子内視鏡 206の撮像素子 216で撮像され、ビ デォプロセッサ 208で生成された動画像の映像信号を所定の圧縮画像データに変 換する動画像入力ボード 225cと、画像処理を行う CPU231と、この CPU231により 画像処理を行う処理プログラムを格納した処理プログラム格納部 232と、 CPU231に より処理するデータ等を一時的に格納するメモリ 233と、処理された画像データ等を 記憶する記録装置としてのハードディスク(HDD) 234とを有する。 CPU231等は、 互 ヽにノ スにより接続されて ヽる。
[0139] 画像処理装置 204の動画像入力ボード 225cには、ビデオプロセッサ 208で生成さ れた動画像の映像信号、例えば YZC信号が入力され、動画像入力ボード 225cは、 その動画像の映像信号を所定の圧縮された動画像の映像信号データ、例えば、 MJ PEG形式の圧縮画像データに変換して、 PC225内の例えばハードディスク 234等 に保存する。
[0140] なお、内視鏡検査開始前に、ビデオプロセッサ 208から、内視鏡検査に関連する検 查情報が入力され、その入力された検査情報データを基に観察モニタ 209に文字や 数字の形式で表示されると共に、その検査情報データは、通信ポート 208aから画像 処理装置 4内の通信ポート 225bを経て、 PC225に送信記録することができる。
[0141] なお、検査情報とは、例えば、患者の氏名、生年月日、性別、年齢、患者コード、及 び検査日時などである。
[0142] つまり、画像処理装置 204側は、必要に応じてビデオプロセッサ 208と接続して、ビ デォプロセッサ 208からの各種情報データを受信して保存するようになって 、る。
[0143] このような構成の体内挿入モニタリングシステム 201における内視鏡挿入形状観測 装置 203による挿入形状データの生成について図 26と図 27を用いて説明する。
[0144] 内視鏡挿入形状観測装置 3の形状処理装置 221は、電子内視鏡 206の撮像素子 216で撮像される撮像信号の 1フレーム毎に電子内視鏡 206の挿入部 211に内蔵さ れた M個のソースコイル C0〜CM-1の 3次元座標を含む挿入形状データを生成する 。また、この形状処理装置 221は、挿入形状データを基に挿入形状の画像を生成し て、ディスプレイ 222に表示すると共に、その挿入形状データを画像処理装置 204に 出力する。
[0145] この内視鏡挿入形状観測装置 203で検出されるソースコイル C0〜CM-1の座標系 は、
例えば第 j— 1フレームの場合 (但し、 jは図 27に示すように最初のフレームを第 0フレ ームとして!/ヽる)で示すと図 26に示すようになる。
[0146] 図 26に示すように、挿入部 11の先端側から i—1番目(ただし、 i=0、 1、 · ··、 M— 1
)のソースコイル Ciの 3次元座標は、(Xji, Yji, Zji)により表示される。
[0147] この内視鏡挿入形状観測装置 203で検出されたソースコイル C0〜CM-1の座標系 のデータを含む挿入形状データの構造は、図 27に示すように、撮像されたフレーム 順に、各フレームに関係するフレームデータ(つまり、第 0フレームデータ、第 1フレー ムデータ、 ···)として 1つのパケットとして画像処理装置 204に順次送信される。バケツ トで送信される各フレームデータ内には、挿入形状データの作成時刻、表示属性、 付属情報、(ソース)コイル座標等のデータ力もなる。
[0148] また、コイル座標データは、図 26に示したようにソースコイル C0〜CM-1が揷入部 2 11の先端力もその基端 (手元側)の操作部 212側に順次配置されたものの 3次元座 標をそれぞれ表すものとなっている。尚、内視鏡挿入形状観測装置 203により検出 範囲外のソースコイルの座標は、検出範囲外と分力るように例えば所定の定数に設
定されるようになって ヽるものとする。
[0149] 次に、画像処理装置 204における内視鏡装置 202のビデオプロセッサ 208の検査 情報と内視鏡画像及び前記内視鏡挿入形状観測装置 203の形状処理装置 221か らの挿入形状データの取得力 挿入補助情報の生成、並びに例えば大腸内に挿入 して大腸内の内視鏡検査のモニタリングの作用等を、図 28から図 30を用いて説明す る。
[0150] 画像処理装置 204は、内視鏡検査が開始すると、 PC225を構成する CPU231力 S 処理プログラム格納部 232に格納されている処理プログラムに従って処理を開始す る。
[0151] CPU231により実行される処理機能ブロックは、図 28に示すようにフレームデータ を取得してメモリ 233に格納するフレームデータ取得ブロック 241と、メモリ 233に格 納されたフレームデータに対する解析処理を行い、解析データ 233bと生成した挿入 補助情報 233cをメモリ 233に格納する解析処理ブロック 242と、解析結果の表示を 行うと共に挿入補助情報 233cの表示 (若しくは表示特性)を制御する解析結果表示 制御ブロック 243とからなる。
[0152] 図 28に示すように、フレームデータ取得ブロック 241と、解析処理ブロック 242とは ループ状に処理を繰り返し行う。解析処理ブロック 242による解析結果として、所定 の応答動作状態に対応する条件判定の処理を行い、これに該当する場合には挿入 補助情報を生成する。また、解析結果表示制御ブロック 243は、予め設定された経 過時間情報に従って、挿入補助情報 233cの表示及び表示停止 (消去)の表示制御 を行う。
[0153] フレームデータ取得ブロック 241は、内視鏡挿入形状観測装置 203から送信される フレームデータを図 28に示すようにメモリ 233上に記憶すると共に、図 25に示すよう にハードディスク 234に保存する。
[0154] 解析処理ブロック 242は、メモリ 233上のフレームデータ 233aを使用して、各ソース コイル位置にぉ 、て挿入部 211の向!、て!/、る方向や、 1フレーム前におけるソースコ ィルの移動量など、挿入部 211の (挿入操作に対する)応答動作状態を調べるため のデータの算出を行う。そして、この解析処理ブロック 242は、算出したデータを解析
データ 233bとしてメモリ 233上に格納する。
[0155] また、解析処理ブロック 242は、メモリ 233上のフレームデータ 33aから解析データ 233bを生成すると共に、体腔内に挿入される挿入部 211が、術者による挿入操作に 対して、順調に或いは適切に挿入されて 、な 、応答動作状態に関する情報を挿入 補助情報として表示するために、フレームデータ 233a (及び必要に応じて解析デー タ 33b)を用いて挿入補助情報 233cを生成するための解析処理を行う。
[0156] この場合、解析データ 233bが所定の条件、具体的には術者が挿入部 211をその 基端側で押し込む操作を行った場合に、挿入部 211の先端側が殆ど移動しな 、よう な条件、つまり挿入部 211の挿入が円滑にできなくなるような条件を満たす応答動作 状態の場合には挿入補助情報 233cを生成して、メモリ 233上に格納する。この場合 、メモリ 233上に以前に挿入補助情報 233cが格納されている場合にはその内容を 更新する。
[0157] ここで、挿入補助情報 233cに関する所定の条件について補足説明する。
[0158] 挿入部 211の最先端位置におけるソースコイル COの揷入部 211の軸方向に対す る移動量 M0と、揷入部 211の手元側位置にある例えばソースコイル CM-1との、揷 入部 211の軸方向に対する移動量 Mnとの比 MOZMnが、閾値(ここでは 0. 1)未満 である条件を満たす場合 (つまり MOZMnく 0. 1)に挿入補助情報 233cを生成する
[0159] 上記条件を満たすときに生成される挿入補助情報 233cは、本実施例では文字列 情報"先端停止"と、条件判定に使用したフレームデータの挿入形状データ作成時 刻 TOと、力 なる。
[0160] なお、上記条件を満たす場合は、挿入部 211の手元側にお ヽて、術者が挿入操作 を行っているにもかかわらず、挿入部 211の先端部 214が殆ど停止していることを示 しており、これ以上挿入部手元側を押込んでも先端部 214は、進まない状況であるこ とを表している。
[0161] 一方、解析結果表示制御ブロック 243は、上記のフレームデータ取得ブロック 241 と解析処理ブロック 242とのループ処理とは独立に、一定時間間隔で実行される処 理ブロックである。
[0162] この解析結果表示制御ブロックは、メモリ 233上の挿入補助情報を取得し、現在の 時刻 Tnと、挿入補助情報 233cの生成に対応する挿入形状データ作成時刻 TOとの 差分が、予め設定される所定の閾値 T りも小さい (Tn— TOく Tt)場合に、挿入補 助情報 233cの文字列情報の文字列情報を画像処理装置 204のディスプレイ 228上 に、例えば先端停止と表示する。つまり、解析結果表示制御ブロックは、挿入補助情 報 233cの生成に使用された挿入形状データ作成時刻 TO力もの経過時間が所定の 時間としての閾値 TUり小さい時間においては、挿入補助情報 233cの文字列情報 の表示を持続する。
なお、この場合の閾値 Ttの値は、予めデフォルトの値が設定されている力 術者等 のユーザは、例えばキーボード 227からそのユーザがより適切と思う値に変更設定で きるようにしている。また、ユーザの HD情報と関連付けて閾値 Ttを変更設定できるよう にして、ユーザ毎に異なる値に設定できるようにしても良い。
[0163] つまり、内視鏡検査を行う術者が挿入補助情報が表示されるディスプレイ 228を観 察する概略の時間間隔等は、術者毎に異なる状況があり得るため、各術者毎に閾値 Ttを設定できるようにして、各術者が挿入補助情報 233c (の文字列情報)の表示を より適切に確認できるようにしても良 、。
[0164] また、 Tn—T0>Ttとなる時間の場合には、画像処理装置 204のディスプレイ 228 上に表示されている文字列情報を消去する。
[0165] このように本実施例では、挿入部 211の基端側での挿入操作に対して、挿入部 21 1の先端側の相対的な移動量が十分に小さぐ先端側が殆ど移動しない応答動作状 態に対応する条件を満たすと判定した場合には、挿入補助情報 233cを生成する。 そして、その挿入補助情報 233cの生成に使用したその挿入形状データ作成時刻 T 0から術者がその挿入補助情報 233cの表示を確認し易くなる時間までその表示を持 続するようにしている。
[0166] 次にフレームデータ取得ブロック 241及び解析処理ブロック 242で処理するデータ の流れと、解析結果表示制御ブロック 243の処理フローを、図 29を用いて説明する。
[0167] 術者は、体腔内、例えば大腸内を内視鏡検査する場合には、図 25に示す電子内 視鏡 206の挿入部 211を患者の肛門から大腸内に挿入する。この場合、術者は、挿
入部 211の基端側を把持して挿入部 211をその先端部 214側から順次大腸内の深 部側に挿入する。
[0168] 電子内視鏡 6の挿入部 211の先端部 214内に設けられた撮像素子 216により撮像 された撮像信号は、ビデオプロセッサ 208により信号処理され、映像信号が生成され 、観察モニタ 209に内視鏡画像が表示される。
[0169] また、揷入部 211の長手方向に配置されたソースコイル C0〜CM-1の各位置は、セ ンスコイルユニット 219による検出信号により形状処理装置 221により検出され、内視 鏡挿入形状観測装置 203のディスプレイ 222により挿入形状が表示される。
[0170] また、各 (ソース)コイルの位置情報を含むフレームデータは、形状処理装置 221か ら画像処理装置 204の PC225に送られる。そして、図 28に示すように(PC225内の ) CPU231におけるフレームデータ取得ブロック 241により、メモリ 233上にフレーム データ 233aが格納される。
[0171] また、図 29に示すように(メモリ 233上に格納された)フレームデータ 233aに対して 、解析処理ブロック 242は、解析処理を行い、フレームデータ 233aから解析データ 2 33bを生成して、メモリ 233に格納する。
また、図 29に示すように解析処理ブロック 242は、この解析データ 233bに対して、 所定の条件 (本実施例では MOZMn< 0. 1)を満たす力否かの判定処理を行い、そ の条件を満たす場合には挿入補助情報 233cを生成して、メモリ 233上に格納 (ォー ノライト)する。この場合、すでにメモリ 233上に古い挿入補助情報 233cがある場合 にはそれを更新する。以上の処理を繰り返し実行する。
[0172] また、図 29に示すように解析結果表示制御ブロック 243は、一定の時間間隔でメモ リ 233上の挿入補助情報 33cを取得する処理 (ステップ S101)を行うとともに、現在 の時刻 Tnを取得する。
[0173] また、解析結果表示制御ブロック 243は、次のステップ S 102において現在の時刻 Tnと、挿入補助情報の挿入形状データ作成時刻 TOとの差分が、所定の閾値 Ttより も小さい(Tn— TOく Tt)か否かの判定処理を行う。
[0174] そして、ステップ S103に示すように解析結果表示制御ブロック 243は、 Tn—TOく Ttと判定した場合には、挿入補助情報 233cの文字列情報を画像処理装置 204の
ディスプレイ 228上に表示する。そして、次の挿入補助情報 233cの取得処理に備え る。
[0175] 一方、ステップ S102の判定処理において、現在の時刻 Tnと、挿入補助情報 233c の挿入形状データ作成時刻 TOとの差分が、所定の閾値 Tt以上 (Tn— T0≥Tt)と判 定した場合には、ステップ S104に示すように解析結果表示制御ブロック 243は、画 像処理装置 204のディスプレイ 228上に表示されている挿入補助情報 233cの文字 列情報を消去する。そして、次の挿入補助情報 233cの取得処理に備える。
[0176] 術者は、画像処理装置 204のディスプレイ 228上に表示される挿入補助情報 233c の文字列情報を観察することにより、この観察のタイミングが挿入補助情報 233cが生 成されたタイミング以降の場合でも、術者にとって知りたい所定の応答動作状態にな つて 、るか否かを確認できる。
このようにして、解析結果表示制御ブロック 243は、一定の時間間隔でステップ S1 01〜: L0S4の処理を繰り返す。
[0177] 以上の作用による、解析処理ブロック 242が挿入補助情報更新を行うタイミングと、 解析結果表示制御ブロック 243が挿入補助情報 233cの取得を行うタイミングと、画 像処理装置 204のディスプレイ 228上に表示される挿入補助情報 233cの文字列情 報の表示内容との関係を、図 30に示す。
[0178] 図 30に示すように、解析処理ブロック 242により挿入補助情報 233cの更新が行わ れる。解析結果表示制御ブロック 243は、一定の時間間隔で、挿入補助情報 233cを 取得し、その際に Tn— TOく Tt力否かの経過時間の条件判定の処理を行う。そして、 Tn— TOが所定の時間 Tt内にある間は挿入補助情報 233cの文字列情報の表示を 持続する。ここでは、 "先端停止"の表示を持続する。
このため、術者が画像処理装置 204のディスプレイ 228の表示面の観察をし遅れ ても、所定の時間(としての閾値 Tt)以内であれば挿入補助情報 233cをより確実に 知る(確認する)ことがでさる。
[0179] なお、上述の説明では、表示を持続する力否かの判定に用いる時刻として挿入補 助情報 233cに対応する挿入形状データ作成時刻 TOを用いている力 これに近い時 刻であれば良ぐ例えば挿入補助情報 233cを生成若しくは更新した時刻を用いても
良い。
[0180] このように挿入補助情報 233cが生成された時刻近傍力も所定の時間以内であれ" 先端停止"の表示内容を持続するが、所定時間よりも時間が経過した後は"先端停 止"の表示を行わないで、表示内容を適切に更新する。
[0181] このように本実施例によれば、術者が挿入補助情報 233cを見落とすことを有効に 防止ないしは軽減し、挿入補助情報 233cをより確実に確認することができる。従って 、内視鏡検査時における挿入操作に対する操作性を向上することができる。
[0182] なお、本実施例においては、挿入補助情報 233cが生成された時刻近傍からの経 過時間によって挿入補助情報 233cの表示 Z消去 (非表示)を制御したが、図 31に 示すように経過時間に応じて表示色、表示位置、表示サイズを変更するように構成し てもよい。
[0183] つまり、斜線で示すように所定の経過時間内では赤色等の表示色で先端停止の表 示を行い、所定の経過時間を超えた場合には表示を停止 (先端停止の表示を消去) するようにしても良い。
[0184] また、所定の経過時間内では先端停止の表示を行 、、例えば所定の経過時間付 近力も先端停止の表示を (その表示範囲から)スクロール移動するようにして、さらに 時間が経過した場合には表示されな 、ようにしても良 、。
[0185] また、所定の経過時間内では先端停止の表示を行 、、例えば所定の経過時間付 近力 先端停止の表示を行う文字列のサイズを小さくして、さらに時間が経過した場 合には表示されな 、ようにしても良 、。或いはこれらを組み合わせるようにしても良 ヽ 。このような場合にもほほ同様の効果がある。
[0186] また、本実施例においては、解析処理ブロック 242は、挿入部 211の挿入操作に対 して、挿入形状データから先端側が殆ど停止した応答動作状態に対応する挿入補 助情報 233cを生成するように解析処理を行っているが、電子内視鏡 206の抜去操 作、湾曲操作 (アングル操作)、捻り操作といった、術者による内視鏡操作に対して、 挿入形状データから挿入部 211の応答動作状態を解析し、それらが実際に行われ ている力否かの判定処理を行って、その判定結果を挿入補助情報 233cに含めるよ うにしても良い。
[0187] 例えば挿入部 211の手元側の移動量と、挿入部 211の先端側の移動量の挿入部
211の軸方向における移動方向も判定することにより、抜去操作に対する応答動作 状態を判定することができる。
[0188] また、例えば湾曲部の基端付近力もこれよりも先端側部分のみが大きく挿入形状が 変化している力否かの判定処理を行うことにより湾曲操作に対する応答動作状態を 半 U定することができる。
[0189] また、上述した挿入補助情報の表示は、 "先端停止"であり、これ以上挿入部 211 の手元側を押し込んでも先端部 214は進まない状況であることを術者に示して挿入 補助を行うようにしているが、他の内視鏡操作の場合にもその内視鏡操作に対応し た挿入補助情報 233cを表示するようにしても良 、。
[0190] この場合、挿入補助情報として表示する内容に応じて、表示を持続する際の経過 時間を適切に制御するようにすれば良い。
[0191] このように、解析結果表示制御ブロック 243は、電子内視鏡 6の抜去操作、湾曲操 作、捻り操作といった、術者による内視鏡操作を判定した場合には、少なくとも、 "先 端停止"の文字列情報の表示を止める。そして、必要に応じて判定された内視鏡操 作に対する挿入補助情報 233cの文字列情報を表示する。これにより、術者は内視 鏡の抜去操作、アングル操作、捻り操作に対して、挿入部 211の応答動作が円滑に 行われて ヽる状態カゝ否かを確認することができ、挿入操作を含む内視鏡操作に対す る操作性を向上することができるようになる。
[0192] (実施例 5)
次に図 32から図 34を参照して本発明の実施例 5を説明する。実施例 5を備えた体 内挿入モニタリングシステムの構成は図 25に示したものと同様である。本実施例は、 図 25における画像処理装置 204におけるプログラム格納部 232に格納されている処 理プログラムとは一部異なる処理プログラムを用いて 、る。
[0193] この処理プログラムにより CPU231によりソフトウェア的に実現される機能ブロックを 図 32に示す。図 32に示す処理プログラムは、フレームデータ取得ブロック 241と、解 析処理ブロック 251と、解析結果表示制御ブロック 243とから構成される。
[0194] ここで、フレームデータ取得ブロック 241と、解析結果表示制御ブロック 243とは図 2
8に示したものと同様の処理を行う。これに対して本実施例における解析処理ブロッ ク 251は、メモリ 233に格納される処理スクリプト 233dの解釈を行うスクリプト解釈ブロ ック 251aと、挿入補助情報生成処理を含む表示特性変更処理を行う表示特性変更 処理ブロック 25 lbとからなる。
[0195] このように解析処理ブロック 251は、実施例 4における挿入補助情報 233cを生成す る解析処理を行う他に、例えば条件設定の内容の変更設定により、複数種類に対応 した挿入補助情報 233 の生成を可能にして、その挿入補助情報 233 に対応 した表示特性を変更可能にして 、る。
[0196] また、メモリ 233には、図 28の場合と同様にフレームデータ 233a、解析データ 233 b、及び挿入補助情報 233 が格納される。さらに本実施例では、処理プログラム 格納部 232に格納される処理プログラムとして、条件設定の変更等を含む表示特性 の処理手順を記述した処理スクリプトファイルを含み、起動時に CPU231 (図 25参照 )は、それを読み出して、メモリ 233上に処理スクリプト 233dとして格納する。
[0197] なお、処理スクリプト 233dは、所定のプログラミング言語として例え «Java (登録商 標) Scriptの文法に則って、解析処理ブロック 251における挿入補助情報の生成処 理を含む処理内容を記述している。この処理スクリプト 233dの具体例を、例えば図 3 4に示す。 実施例 4の場合においては解析処理ブロック 42は、図 28に示すように(" 先端停止"に相当する) MOZMnく 0. 1か否かの条件を満たす力否かを判断して、 この条件を満たす場合に挿入補助情報を生成してメモリ 233に書き込むようにしてい た。
[0198] これに対して本実施例では、図 34に示す処理スクリプト 233dでは、 "先端停止"以 外にも"先端逆進"の挿入補助情報 233c' の文字列情報を生成できるように、解析 データに対する処理内容 (if¾分の条件内容)を変更している。この場合、図 34では 、手元側コイルの推進量の符号 (正負)を調べて、抜去の操作を判断できるようにして いる。
[0199] 実施例 4においては、図 28に示したフレームデータ取得ブロック 241等の処理機能 は、プログラミング言語がコンパイルされた実行形式の言語に変換されたものが CPU 231により高速に実行される。
[0200] これに対して本実施例においては、解析処理ブロック 251におけるスクリプト解釈ブ ロック 25 laは、処理スクリプト 233dに記述されているプログラミング言語の内容を順 次、実行形式の言語に解釈 (インタープリト)する。そして解釈された処理を、表示特 性変更処理ブロック 25 lbが順次行うようにして 、る。
[0201] この場合、表示特性変更処理ブロック 251bは、メモリ 233上の解析データ 233bの 取得、条件判定、ループ制御、挿入補助情報の生成と更新等の処理を実行する。
[0202] このように本実施例における解析処理ブロック 251は、処理スクリプト 233dに記述さ れている解析内容を逐次、解釈してインタープリタ的に実行する。このため、システム を停止させることなぐ動作中 (検査中)において、例えば上記挿入補助情報設定部 分のパラメータ値の変更等を行い、変更した値でそれぞれ実行させて、最も適切とな る場合の値に変更設定することも行 、易 、。
[0203] このように、処理スクリプト 233dの記述内容を変更することにより、表示特性等の処 理内容を簡単に変更できるようにしている。例えば、上記したように処理スクリプトに おける条件内容を変更することにより、挿入補助情報の (表示特性に含まれる)表示 内容を容易に変更できる。
[0204] これに対して、実施例 4ではコンノィルされた後のものを実行するため、小さな変更 を行う場合においても、システムを停止させて、処理プログラムの内容を変更し、変更 した内容でコンノィルして実行形式のファイルを生成する必要がある。また、実行形 式のファイルに変換した後でないと、解析処理させることができないため、上記のよう に単にパラメータ値を適切な値に設定する作業の場合にも手間がかかる。なお、本 実施例は、解析処理ブロック 251のみをインタープリタで実行させるようにしている。
[0205] このような構成による本実施例の動作を図 33を参照して説明する。なお、図 33はフ レームデータ取得ブロック 241及び解析処理ブロック 251のデータの流れと、解析結 果表示制御ブロック 243の処理フローを示す。
[0206] 図 33に示す処理データの流れの概要は、図 29と比較すれば容易にわ力るように、 図 29における解析処理ブロック 242では、("先端停止"に相当する) MOZMnく 0. 1か否かの条件判定を行っていたのを、処理スクリプトにより記述された内容の条件 判定を行うことになる。以下、より詳細に説明する。
[0207] フレームデータ取得ブロック 241は、メモリ 233上にフレームデータ 233aを記録す る。
[0208] 続いて解析処理ブロック 251は、フレームデータ 33aの解析処理を行った後、メモリ 233力も処理スクリプト 233dを取得する。処理スクリプト 233dは、例えば図 34に示す 内容が記述されている。続いて、スクリプト解釈ブロック 251aは、処理スクリプト 233d を解釈する。そして、解釈された処理手順に基づき、表示特性変更処理ブロック 251 bにて処理を行う。
図 33に示すように解析処理ブロック 251 (における表示特性変更処理ブロック 251 b)は、解釈された解析データ 233bを取得し、条件判定を行って、条件判定に該当し ない場合には、次のフレームデータに対して条件判定を行う準備をする。一方、この 条件に該当する場合には、その条件判定に該当して生成された挿入補助情報 233c ' を更新してメモリ 233に書き込む。具体的には、実施例 4の場合における"先端停 止"と、この他に"先端逆進"の文字列情報をメモリ 233に書き込む。このような処理を 繰り返す。
[0209] 一方、解析結果表示制御ブロック 243は、実施例 3の場合と同様に一定の時間間 隔でメモリ 233上の挿入補助情報 233 を取得する (ステップ S101)とともに、現在 の時刻 Tnを取得し、現在の時刻 Τηと、挿入補助情報 323 の挿入形状データ作 成時刻 TOとの差分が所定の閾値 Τ1:よりも小さい (Τη— TOく Tt)か否かの判定を行う (ステップ S 102)。
[0210] そして、 Tn— TOく Ttの条件を満たす時には、挿入補助情報 233 の文字列情 報を画像処理装置 204のディスプレイ 228上に表示する (ステップ S 103)。本実施例 では、 "先端停止"と、 "先端逆進"の文字列情報を表示することとなる。
[0211] また、現在の時刻 Tnと、挿入補助情報 233 の挿入形状データ作成時刻 TOとの 差分が、所定の閾値 Tt以上 (Tn— T0≥Tt)のときには、画像処理装置 204のデイス プレイ 228上に表示されている文字列情報を消去する (ステップ S104)。
[0212] このように、処理スクリプト 233dに記述されている内容にしたがって体内挿入モニタ リングシステム 201を動作させるため、処理プログラムを新たに作成する必要がなぐ 動作内容の詳細なカスタマイズ等が行い易くなる。
なお、本体内挿入モニタリングシステム 201において、処理スクリプトを任意のタイミ ングで読み込む機能を追加することにより、体内挿入モニタリングシステム 201の動 作を終了させることなぐ修正または選択した処理スクリプトを術者の指示により読み 込ませる構成にしてもよい。
[0213] 従って、本実施例は以下の効果を有する。
[0214] 体内挿入モニタリングシステムの処理プログラムを新たに作り直さなくても、詳細な カスタマイズが簡単に行える。
[0215] また、設定調整時や検査時に体内挿入モニタリングシステムを停止させずにカスタ マイズが行えるため、カスタマイズ結果を即時確認し易くできると共に、検査中にその 挿入補助情報の生成方法を修正 Z選択しながら、連続的(円滑)に挿入補助情報を 提示することが可能となる。そして、術者にとってより操作性を向上できる各種の挿入 補助情報をより適切に表示することができる。その他、実施例 4と同様の効果がある。
[0216] なお、図 34に示した処理スクリプトの内容を変更することにより、湾曲操作などの内 視鏡操作に対する挿入部 211の応答動作状態を解析して、所定の応答動作状態の 場合に挿入補助情報として表示することもできる。
[0217] なお、挿入補助情報を表示する場合、画像処理装置 204のディスプレイ 228に表 示する場合に限定されるものでなぐ例えば内視鏡挿入形状観測装置 203のデイス プレイ 222や内視鏡装置 202の観察モニタ 209に表示するようにしても良 、し、表示 する表示装置を選択設定できるようにしても良い。また、挿入補助情報を表示する場 合、文字列情報で表示する場合に限定されるものでなぐ例えば内視鏡挿入形状観 測装置 203のディスプレイ 222上に表示される挿入形状の背景部分の表示色を変更 することにより、例えば"先端停止"の挿入補助情報を術者に知らせるようにしても良 い。
[0218] なお、上述した各実施例等を部分的に組み合わせる等して構成される実施例等も 本発明に属する。本発明は、上述した実施例に限定されるものではなぐ本発明の 要旨を変えない範囲において、種々の変更、改変等が可能である。
[0219] 本出願は、 2005年 8月 25曰に曰本国に出願された特願 2005— 244686号、及 び 2005年 11月 16日に日本国に出願された特願 2005— 332009号を優先権主張
の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に 引用されるものとする。
Claims
[1] 体腔内に挿入する挿入部を有する内視鏡と、
前記内視鏡挿入部の形状を検出する形状検出手段と、
前記形状検出手段が検出した情報を基にして、前記形状検出手段の検出した形 状のうち、特定位置または特定部分を解析して求める形状解析手段と、
前記形状解析手段が解析した解析結果に基づき、前記内視鏡挿入部の静的形状 をパターン分類するパターン分類手段と
を有することを特徴とする内視鏡挿入形状解析装置。
[2] 前記パターン分類手段は、前記静的形状をコードィ匕した静的パターンコードにより 、前記静的形状をパターン分類する
ことを特徴とする請求項 1に記載の内視鏡挿入形状解析装置。
[3] 前記静的パターンコードと、前記静的パターンコードに対応した所定のパターン情 報とを関連づけた静的辞書ファイルを格納した情報格納手段を有し、
前記パターン分類手段は、前記静的辞書ファイルに基づき、前記静的形状をバタ ーン分類する
ことを特徴とする請求項 2に記載の内視鏡挿入形状解析装置。
[4] 前記パターン情報は、前記内視鏡の前記体腔内への挿入操作補助情報を含む ことを特徴とする請求項 3に記載の内視鏡挿入形状解析装置。
[5] 前記情報格納手段は、前記静的パターンコードを修正する修正コードファイルを格 納し、
前記パターン分類手段は、前記修正コードファイルに基づき、前記静的パターンコ ードを修正して、前記静的辞書ファイルに基づき、前記静的形状をパターン分類する ことを特徴とする請求項 3または 4に記載の内視鏡挿入形状解析装置。
[6] 前記パターン分類手段は、複数の前記静的パターンコードを統合した動的パター ンコードを生成すると共に、前記動的パターンコードにより、前記内視鏡挿入部の動 的形状をパターン分類する
ことを特徴とする請求項 2ないし 5に記載の内視鏡挿入形状解析装置。
[7] 前記動的パターンコードを生成する複数の前記静的パターンコードは、前記形状
解析手段が解析した時間的に連続した解析結果に基づく静的パターンコードである ことを特徴とする請求項 6に記載の内視鏡挿入形状解析装置。
[8] 前記動的パターンコードと、前記動的パターンコードに対応した所定のパターン情 報とを関連づけた動的辞書ファイルを格納した情報格納手段を有し、
前記パターン分類手段は、前記動的辞書ファイルに基づき、前記動的形状をバタ ーン分類する
ことを特徴とする請求項 6または 7に記載の内視鏡挿入形状解析装置。
[9] 前記パターン情報は、前記内視鏡の前記体腔内への挿入操作補助情報を含む ことを特徴とする請求項 8に記載の内視鏡挿入形状解析装置。
[10] 前記情報格納手段は、前記動的パターンコードを修正する修正コードファイルを格 納し、
前記パターン分類手段は、前記修正コードファイルに基づき、前記動的パターンコ ードを修正して、前記動的辞書ファイルに基づき、前記動的形状をパターン分類する ことを特徴とする請求項 8または 9に記載の内視鏡挿入形状解析装置。
[11] 前記形状検出手段が検出した前記内視鏡挿入部の形状の形状データの出力先を 登録するデータ出力先登録手段と、
前記データ出力先登録手段により登録された出力先に、前記形状データを出力す るデータ出力手段と
をさらに備えたことを特徴とする請求項 1ないし 10に記載の内視鏡挿入形状解析 装置。
[12] 前記内視鏡が撮像した内視鏡画像と、前記形状検出手段の検出した形状とを表示 する表示手段
をさらに備えたことを特徴とする請求項 1ないし 11に記載の内視鏡挿入形状解析 装置。
[13] 体腔内に挿入される内視鏡の挿入部の形状を検出する形状検出手段が生成する 形状検出情報を基にして、挿入操作等の内視鏡操作に対する挿入部の応答動作状 態の解析を行う解析手段と、
前記解析手段により解析された所定の応答動作状態に対応する挿入補助情報を
生成する挿入補助情報生成手段と、
前記挿入補助情報生成手段により表示手段に出力され、該表示手段に前記挿入 補助情報が表示される際の表示特性を、前記挿入補助情報が生成された時刻近傍 からの経過時間情報により制御する表示制御手段と、
を具備したことを特徴とする内視鏡挿入形状解析装置。
[14] 前記解析手段は、前記内視鏡操作として挿入部を挿入する挿入操作、前記挿入 部を抜去する抜去操作、挿入部に設けられた湾曲部を湾曲する湾曲操作、前記挿 入部を捻る捻り操作の少なくとも 1つに対する挿入部の応答動作状態の解析を行う ことを特徴とする請求項 13に記載の内視鏡挿入形状解析装置。
[15] 前記挿入操作若しくは前記抜去操作に対する挿入部の応答動作状態を解析する 場合には、前記挿入部の手元側の挿入移動量に対して前記挿入部の先端側の相 対的移動量に基づ 、て判定する
ことを特徴とする請求項 14に記載の内視鏡挿入形状解析装置。
[16] 前記表示制御手段は、前記挿入補助情報に対応する形状検出情報が作成された 時刻から予め設定された所定時間までの経過時間に応じて、前記挿入補助情報の 表示を持続する表示持続特性、前記挿入補助情報の表示色、前記挿入補助情報の 表示位置、前記挿入補助情報の表示サイズの少なくとも 1つを制御する
ことを特徴とする請求項 13から 15のいずれか 1つに記載の内視鏡挿入形状解析 装置。
[17] 前記解析手段は、
処理内容が所定のプログラミング言語で記述されたスクリプトを取得して、前記スクリ ブトの処理内容と処理順序を実行形式の言語に解釈するスクリプト解釈手段と、 前記スクリプト解釈手段によって解釈された処理内容と処理順序で逐次、実行する 処理手段と
を備える
ことを特徴とする請求項 13から 16の ヽずれか 1つに記載の内視鏡挿入形状解析 装置。
[18] 前記内視鏡の挿入部の形状を検出する形状検出手段と、
前記形状検出手段の形状検出情報を基にして、挿入操作等の内視鏡操作に対す る挿入部の応答動作状態の解析を行う解析手段と、
前記解析手段により解析された所定の応答動作状態の情報を挿入補助情報として 表示手段に出力する挿入補助情報出力手段と、
前記表示手段により前記挿入補助情報を表示する際の表示特性を、前記挿入補 助情報に対応する形状検出情報が作成された時刻からの経過時間情報により制御 する表示制御手段
と
を具備したことを特徴とする内視鏡挿入形状解析システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06781486.3A EP1917901B1 (en) | 2005-08-25 | 2006-07-24 | Endoscope insertion shape analysis apparatus and endoscope insertion shape analysis system |
US12/064,310 US20090149703A1 (en) | 2005-08-25 | 2006-07-24 | Endoscope insertion shape analysis apparatus and endoscope insertion shape analysis system |
CN2006800309432A CN101247752B (zh) | 2005-08-25 | 2006-07-24 | 内窥镜插入形状分析装置及内窥镜插入形状分析系统 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005244686A JP4789545B2 (ja) | 2005-08-25 | 2005-08-25 | 内視鏡挿入形状解析装置 |
JP2005-244686 | 2005-08-25 | ||
JP2005-332009 | 2005-11-16 | ||
JP2005332009A JP4794992B2 (ja) | 2005-11-16 | 2005-11-16 | 挿入モニタリング装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2007023631A1 true WO2007023631A1 (ja) | 2007-03-01 |
Family
ID=37771382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2006/314574 WO2007023631A1 (ja) | 2005-08-25 | 2006-07-24 | 内視鏡挿入形状解析装置及び内視鏡挿入形状解析システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090149703A1 (ja) |
EP (1) | EP1917901B1 (ja) |
WO (1) | WO2007023631A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2070465A1 (en) * | 2007-12-10 | 2009-06-17 | Olympus Medical Systems Corporation | Endoscope system |
US8758232B2 (en) | 2008-06-30 | 2014-06-24 | Oliver Crispin Robotics Limited | Robotic arm |
WO2018131134A1 (ja) * | 2017-01-13 | 2018-07-19 | オリンパス株式会社 | 可撓管挿入装置 |
EP3278705A4 (en) * | 2015-03-31 | 2018-12-12 | Olympus Corporation | Insertion device |
WO2021038871A1 (ja) * | 2019-08-30 | 2021-03-04 | オリンパス株式会社 | 内視鏡制御装置、内視鏡挿入形状分類装置、内視鏡制御装置の作動方法及びプログラム |
WO2022085104A1 (ja) * | 2020-10-21 | 2022-04-28 | 日本電気株式会社 | 内視鏡操作支援装置、制御方法、コンピュータ可読媒体、及びプログラム |
EP4233677A4 (en) * | 2020-10-21 | 2024-06-26 | NEC Corporation | ENDOSCOPE ASSISTANCE DEVICE, CONTROL METHOD, COMPUTER-READABLE MEDIUM, AND PROGRAM |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110282151A1 (en) * | 2008-10-20 | 2011-11-17 | Koninklijke Philips Electronics N.V. | Image-based localization method and system |
WO2010050526A1 (ja) * | 2008-10-28 | 2010-05-06 | オリンパスメディカルシステムズ株式会社 | 医療機器 |
US8827934B2 (en) | 2011-05-13 | 2014-09-09 | Intuitive Surgical Operations, Inc. | Method and system for determining information of extrema during expansion and contraction cycles of an object |
US8900131B2 (en) * | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
WO2014010207A1 (ja) | 2012-07-10 | 2014-01-16 | パナソニック株式会社 | 挿入装置の制御装置及び制御方法、制御装置を有する挿入装置、挿入装置の制御プログラム、並びに、挿入装置の制御用集積電子回路 |
WO2014110118A1 (en) * | 2013-01-10 | 2014-07-17 | Ohio University | Method and device for evaluating a colonoscopy procedure |
EP2888991B1 (en) * | 2013-04-15 | 2017-11-01 | Olympus Corporation | Endoscope system |
DK177984B9 (en) * | 2013-11-12 | 2015-03-02 | Simonsen & Weel As | Device for endoscopy |
CN105100682B (zh) * | 2014-04-30 | 2018-12-25 | 通用电气公司 | 具有导航功能的管道镜 |
DE112014007268B4 (de) * | 2014-12-19 | 2019-02-07 | Olympus Corporation | Einfügung/Entfernung-Unterstützungsapparat und Einfügung/Entfernung-Unterstützungsverfahren |
WO2016098251A1 (ja) * | 2014-12-19 | 2016-06-23 | オリンパス株式会社 | 挿抜支援装置及び挿抜支援方法 |
CN107105969B (zh) * | 2014-12-19 | 2019-10-22 | 奥林巴斯株式会社 | 插拔辅助装置及插拔辅助方法 |
JP6686639B2 (ja) * | 2016-03-31 | 2020-04-22 | 富士通株式会社 | 符号化プログラム、符号化装置、符号化方法、復号化プログラム、復号化装置および復号化方法 |
WO2018116446A1 (ja) * | 2016-12-22 | 2018-06-28 | オリンパス株式会社 | 可撓管挿入装置 |
WO2018135041A1 (ja) * | 2017-01-17 | 2018-07-26 | オリンパス株式会社 | 内視鏡挿入形状観測装置 |
CN110769737B (zh) * | 2017-06-21 | 2022-03-29 | 奥林巴斯株式会社 | 插入辅助装置、工作方法和包括插入辅助装置的内窥镜装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004147778A (ja) | 2002-10-29 | 2004-05-27 | Olympus Corp | 画像処理装置及び内視鏡画像処理装置 |
JP2004358095A (ja) | 2003-06-06 | 2004-12-24 | Olympus Corp | 内視鏡挿入形式解析装置及び内視鏡挿入形式解析方法 |
JP2005328999A (ja) * | 2004-05-19 | 2005-12-02 | Olympus Corp | 医療装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3618021A (en) * | 1969-03-24 | 1971-11-02 | Murray Sumner | Data communication system and technique of taging data of different classes |
US5482029A (en) * | 1992-06-26 | 1996-01-09 | Kabushiki Kaisha Toshiba | Variable flexibility endoscope system |
US8211010B2 (en) * | 2002-10-29 | 2012-07-03 | Olympus Corporation | Endoscope information processor and processing method |
-
2006
- 2006-07-24 WO PCT/JP2006/314574 patent/WO2007023631A1/ja active Application Filing
- 2006-07-24 US US12/064,310 patent/US20090149703A1/en not_active Abandoned
- 2006-07-24 EP EP06781486.3A patent/EP1917901B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004147778A (ja) | 2002-10-29 | 2004-05-27 | Olympus Corp | 画像処理装置及び内視鏡画像処理装置 |
JP2004358095A (ja) | 2003-06-06 | 2004-12-24 | Olympus Corp | 内視鏡挿入形式解析装置及び内視鏡挿入形式解析方法 |
JP2005328999A (ja) * | 2004-05-19 | 2005-12-02 | Olympus Corp | 医療装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP1917901A4 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8308635B2 (en) | 2007-12-10 | 2012-11-13 | Olympus Medical Systems Corp. | Endoscope system |
EP2070465A1 (en) * | 2007-12-10 | 2009-06-17 | Olympus Medical Systems Corporation | Endoscope system |
US8758232B2 (en) | 2008-06-30 | 2014-06-24 | Oliver Crispin Robotics Limited | Robotic arm |
EP3278705A4 (en) * | 2015-03-31 | 2018-12-12 | Olympus Corporation | Insertion device |
US11503981B2 (en) | 2017-01-13 | 2022-11-22 | Olympus Corporation | Flexible tube insertion apparatus and flexible tube insertion method |
WO2018131134A1 (ja) * | 2017-01-13 | 2018-07-19 | オリンパス株式会社 | 可撓管挿入装置 |
WO2021038871A1 (ja) * | 2019-08-30 | 2021-03-04 | オリンパス株式会社 | 内視鏡制御装置、内視鏡挿入形状分類装置、内視鏡制御装置の作動方法及びプログラム |
JPWO2021038871A1 (ja) * | 2019-08-30 | 2021-03-04 | ||
JP7150997B2 (ja) | 2019-08-30 | 2022-10-11 | オリンパス株式会社 | 情報処理装置、内視鏡制御装置、情報処理装置の作動方法、内視鏡制御装置の作動方法及びプログラム |
WO2022085104A1 (ja) * | 2020-10-21 | 2022-04-28 | 日本電気株式会社 | 内視鏡操作支援装置、制御方法、コンピュータ可読媒体、及びプログラム |
EP4233676A4 (en) * | 2020-10-21 | 2024-06-26 | NEC Corporation | DEVICE FOR SUPPORTING THE OPERATION OF AN ENDOSCOPE, CONTROL METHOD, COMPUTER-READABLE MEDIUM AND PROGRAM |
EP4233677A4 (en) * | 2020-10-21 | 2024-06-26 | NEC Corporation | ENDOSCOPE ASSISTANCE DEVICE, CONTROL METHOD, COMPUTER-READABLE MEDIUM, AND PROGRAM |
JP7551766B2 (ja) | 2020-10-21 | 2024-09-17 | 日本電気株式会社 | 内視鏡操作支援装置、制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20090149703A1 (en) | 2009-06-11 |
EP1917901A4 (en) | 2012-09-05 |
EP1917901B1 (en) | 2019-04-17 |
EP1917901A1 (en) | 2008-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2007023631A1 (ja) | 内視鏡挿入形状解析装置及び内視鏡挿入形状解析システム | |
JP4789545B2 (ja) | 内視鏡挿入形状解析装置 | |
EP1504712B1 (en) | Endoscope information processor and processing method | |
JP4656988B2 (ja) | 内視鏡挿入形状解析装置および、内視鏡挿入形状解析方法 | |
JP5368668B2 (ja) | 医用画像表示装置、医用画像表示システム及び医用画像表示システムの作動方法 | |
US20120130171A1 (en) | Endoscope guidance based on image matching | |
JP4274854B2 (ja) | 内視鏡挿入形状解析装置 | |
EP1681012A1 (en) | Insert support system | |
JP2009022446A (ja) | 医療における統合表示のためのシステム及び方法 | |
JP4855901B2 (ja) | 内視鏡挿入形状解析システム | |
JP7245360B2 (ja) | 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ | |
JP7270658B2 (ja) | 画像記録装置、画像記録装置の作動方法および画像記録プログラム | |
JP7323647B2 (ja) | 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム | |
JP2007105458A (ja) | 画像データベースにおける画像の認識のためのシステム及び方法 | |
US20180302586A1 (en) | Endoscope apparatus, endoscope system and endoscopic image display control method | |
JP2006223850A (ja) | 電子内視鏡システム | |
JP2018180276A (ja) | 内視鏡装置、内視鏡システム及び内視鏡画像の表示制御方法 | |
JP2018047067A (ja) | 画像処理プログラム、画像処理方法および画像処理装置 | |
JP4855912B2 (ja) | 内視鏡挿入形状解析システム | |
JP2007135783A (ja) | 挿入モニタリング装置 | |
JP4468525B2 (ja) | 内視鏡システム | |
JP2019170667A (ja) | 挿管システム | |
JP4546064B2 (ja) | 挿入シミュレーション装置 | |
JP4464640B2 (ja) | 工業用内視鏡装置 | |
US20240358223A1 (en) | Endoscope system, medical information processing method, and medical information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 200680030943.2 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
WWE | Wipo information: entry into national phase |
Ref document number: 12064310 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2006781486 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |