SE0901188A1 - Intelligent, compact and flexible 3D endoscope with software - Google Patents
Intelligent, compact and flexible 3D endoscope with softwareInfo
- Publication number
- SE0901188A1 SE0901188A1 SE0901188A SE0901188A SE0901188A1 SE 0901188 A1 SE0901188 A1 SE 0901188A1 SE 0901188 A SE0901188 A SE 0901188A SE 0901188 A SE0901188 A SE 0901188A SE 0901188 A1 SE0901188 A1 SE 0901188A1
- Authority
- SE
- Sweden
- Prior art keywords
- camera
- image
- images
- software
- cable
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00193—Optical arrangements adapted for stereoscopic vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/005—Flexible endoscopes
- A61B1/0051—Flexible endoscopes with controlled bending of insertion part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
Description
olika delar från påverkan utifrån. Kamerahuvudets yttre diameter uppgår i denna utformning till 3.5mm. och. längden uppgår till ll.5mm. Den tunna kabeln har en diameter, som i denna utformning uppgår till l.6mm. Inonx en nära framtidr kommer kamerahuvudets totala diameter att uppgå till under 3.0mm. different parts from outside influence. The outer diameter of the camera head in this design amounts to 3.5 mm. and. the length amounts to ll.5mm. The thin cable has a diameter, which in this design amounts to 1.6 mm. In the near future, the total diameter of the camera head will be less than 3.0 mm.
Belysningen kommer från mycket små LED-lampor, vilka som regel är placerade i en ring runt optiken. Det är också möjligt att använda en större LED-lampa, som den enda belysningen, i stället för ett antal LED-lampor. Alternativt kan fiberoptik sprida ljuset och optiken kommer att omvandla ljudet till en anpassad ljuskälla, vilken i sin tur är anpassad till kamerans synfält.The lighting comes from very small LED lamps, which are usually placed in a ring around the optics. It is also possible to use a larger LED lamp, as the only lighting, instead of a number of LED lamps. Alternatively, fiber optics can scatter the light and the optics will convert the sound into a custom light source, which in turn is adapted to the camera's field of view.
Laser kan också gå att använda för denna applikation, om ljuset kan vara monokromt. Ingen annan ljuskälla är bättre än laserns höga intensitet.Laser can also be used for this application, if the light can be monochrome. No other light source is better than the high intensity of the laser.
Nya sensorer inom området för mikromekanik kan känna av magnet- fält och jordens gravitation. Om dessa egenskaper integreras i kamerahuvudet, är det möjligt att se kamerahuvudets position och rörelse från utsidan i realtid och lagra denna information tillsammans med bilderna. Det är också möjligt att använda kamerabilden och korrelationsanalys för att beräkna rörelser och positioner.New sensors in the field of micromechanics can detect magnetic fields and the earth's gravity. If these features are integrated into the camera head, it is possible to see the position and movement of the camera head from the outside in real time and store this information together with the images. It is also possible to use the camera image and correlation analysis to calculate movements and positions.
Det är också nfijligt att använda små RFID-chips för att mäta kamerahuvudets position. RFID-chipsen. skickar signaler till en mottagare, vilken är placerad utanför kroppen och i teorin kan vara placerad var som helst i rummet och som sedan överför informationen till en dator.It is also possible to use small RFID chips to measure the position of the camera head. RFID chips. sends signals to a receiver, which is located outside the body and in theory can be located anywhere in the room and which then transmits the information to a computer.
En annan lösning är att placera en kompakt 3-axlad elektronisk kompass i kamerahuvudet för positionering och navigering.Another solution is to place a compact 3-axis electronic compass in the camera head for positioning and navigation.
Kameran anger vad den ser i ”den verkliga världen” och visar detta på bildskärmen. Samtidigt är det möjligt att se vad som sker i ”den virtuella världen” på samma skärm, Den virtuella världen visas som regel med hjälp av röntgen, MRI eller liknande applikationer. Det är möjligt att sedan fusionera dessa båda ”världar” för att skapa förbättrad information för upptäckt och diagnos av sjukdomar i ett tidigt skede. En sådan fusion, som uppfinningen innebär, låter sig inte göras med den teknologi och bildbehandling som existerar idag.The camera indicates what it sees in the "real world" and displays it on the screen. At the same time, it is possible to see what is happening in the "virtual world" on the same screen. The virtual world is usually displayed using X-rays, MRI or similar applications. It is possible to then merge these two "worlds" to create improved information for the detection and diagnosis of diseases at an early stage. Such a fusion, as the invention entails, cannot be done with the technology and image processing that exists today.
Från kamerahuvudets ände finns, som nämnts ovan, en tunn kabel fastsatt. Denna kabel är kopplad till en liten enhet, där analoger signaler från kameran omvandlas till digitala signaler.From the end of the camera head, as mentioned above, a thin cable is attached. This cable is connected to a small device, where analog signals from the camera are converted into digital signals.
Dessa digitala signaler överförs sedan till en dator med hjälp av 4 en USB-kabel från. den lilla enheten. Dessa signaler omvandlas sedan till 3D-modeller i denna dator med hjälp av avancerad och särskilt framtagen mjukvara.These digital signals are then transferred to a computer using 4 a USB cable from. the small device. These signals are then converted into 3D models in this computer using advanced and specially developed software.
Om en kombination av sensorer används i form av en sensorfusion kan detta förbättra noggrannhet och flexibilitet i lösningen. Det är viktigt att komma ihåg att det också är möjligt att med mjukvara bestämma kamerahuvudets läge i kroppen utan att använda explicita sensorer.If a combination of sensors is used in the form of a sensor fusion, this can improve the accuracy and flexibility of the solution. It is important to remember that it is also possible to use software to determine the position of the camera head in the body without using explicit sensors.
Kamerahuvudets/endoskopets egenskaper kan förbättras med hjälp av ovan nämnda avancerade mjukvara. Mjukvaran används även för att skapa 3D-modeller i realtid. Denna mjukvara kommer att beskrivas mer ingående nedan. 1.Utökat dynamiskt område Pulsbreddmodulering med hjälp av en LED-lampa eller flera LED- lampor kan användas för att kontrollera belysningen från omgivningen. Genom att studera kamerans belysning är det möjligt att se om bilden är för mörk eller för ljus. Sedan kan bilden optimeras från det bästa dynamikomràdet. Här är det möjligt att välja vilka LED-lampor, som kan kontrolleras så man kan göra en icke-linjär belysning för att kompensera för variationer i ambient ljus. Mer kompensation sker, när det är mörkare och mindre kompensation sker, när det är ljusare. Detta nämns här endast som ett exempel.The properties of the camera head / endoscope can be improved with the help of the above-mentioned advanced software. The software is also used to create 3D models in real time. This software will be described in more detail below. 1.Extended dynamic range Pulse width modulation using one LED lamp or several LED lamps can be used to control the lighting from the surroundings. By studying the camera's lighting, it is possible to see if the image is too dark or too light. Then the image can be optimized from the best dynamic range. Here it is possible to choose which LED lamps can be controlled so that you can make a non-linear lighting to compensate for variations in ambient light. More compensation occurs when it is darker and less compensation occurs when it is lighter. This is mentioned here only as an example.
Cmn dynamikområdet är alltför dåligt, är det möjligt att göra följande: Att inte röra kameran, utan att låta den vara stilla. Förändra belysningen eller förändra kamerans exponeringstid. Lagra vissa bilder med samma scen, men med olika belysnings- och iris- installationer.If the dynamic range is too poor, it is possible to do the following: Do not touch the camera, but leave it still. Change the lighting or change the camera exposure time. Store certain images with the same scene, but with different lighting and iris installations.
Sedan kan programmet dela bilden i flera små bilder. Dessa mindre bilder analyseras sedan. De som, har de bästa egenskaperna. på samma plats i mätvolymen skärs ut tillsammans i en sorts mosaik, som består av de bästa delarna av alla separata bilder. Den kompletta bilden är sedan bara baserad på de bästa delar av respektive platser. Resultatet av denna bildbehandling är mycket bättre än av enbart en enda bild. 2. Kamerans rörelse Signalerna från kameran överförs genom den tunna kabeln. Den kan vara fäst vid en extern bildprocessor, som omvandlar bilden på ett flertal sätt. Kabeln kan vara mjuk och totalt flexibel. Men den kan också till viss del vara rigid och flexibel i toppen, vilket gör det möjligt att kontrollera kamerans rörelser åt olika håll inuti objektet.Then the program can divide the image into several small images. These smaller images are then analyzed. Those who, have the best qualities. in the same place in the measurement volume is cut out together in a kind of mosaic, which consists of the best parts of all separate images. The complete picture is then only based on the best parts of each place. The result of this image processing is much better than just a single image. 2. Camera movement The signals from the camera are transmitted through the thin cable. It can be attached to an external image processor, which converts the image in several ways. The cable can be soft and totally flexible. But it can also to some extent be rigid and flexible at the top, which makes it possible to control the camera's movements in different directions inside the object.
En version är att kabeln innehåller styrbyra kablar, som därvid kan böja hela kabeln, så att det är lättare att röra den inne i små passager etc. Vissa industriella fiberboroskop använder idag denna typ av lösning. Denna typ av lösning kan mycket väl användas i denna uppfinning. 3.Ökningen av kamerans dynamik Logaritmisk återföring av 'videosignaler kan användas, eftersom ögat fungerar logaritmiskt, medan alla kameror son: används är linjära avseende deras känslighet. Detta kommer att ge en ökad bildförstöring jämfört med ögat.One version is that the cable contains guide bar cables, which can thereby bend the entire cable, so that it is easier to move it inside small passages, etc. Some industrial fiber boroscopes today use this type of solution. This type of solution may well be used in this invention. 3.Increasing Camera Dynamics Logarithmic feedback of video signals can be used, as the eye operates logarithmically, while all cameras used are linear in their sensitivity. This will give an increased image distortion compared to the eye.
För det mesta kan detta omvandlas i ett separat elektroniskt instrument, t.ex. med en PC eller en FPGA signalprocessor i en extern enhet. Detta kan göra en stor skillnad, när det förekommer dåliga videosignaler. Det är möjligt att använda en enhet, som ökar dynamiken till 100000 till 1, jämfört med 1000 till 1 för en mer normal kamera. 4.Förbättring av videosignalens kontrast Det finns mycket information i mjuka mindre färgskillnader så att en förbättring av kontrast kan ge mycket bättre förbättringar av videosignalen. Detta kan göras på samma sätt som den logaritmiska omvandlingen ovan, men med en annan matematisk operation i enheten. Det finns idag funktionella PC-program, som kan utföra detta med mycket bra resultat. Detta är i normala fall inte synligt för det mänskliga ögat. 5.Fokusana1ys av bildinformationen Kameran har ett begränsat fokaldjup, där bilden kommer att vara den bästa. Eftersom vi i de flesta fall rör kameran, kommer vi att passera varje punkt och se denna från olika vinklar och på olika avstånd. Ett program kan sedan söka efter bilderna, som har den bästa skärpan inom åtskilliga delområden. Från dessa bilder, kan vi sedan generera en mosaik, som kommer att ha de delområden 6 som har bäst skärpa och sedan använda dessa till en mosikliknande större bild. Här kommer vi att ta bort de delar, vilka inte är så bra och bilden kommer därvid att bli mycket bättre. 6.Analys av bildinformationens rörelser Eftersom vi rör kameran och har bildinformation och känner till alla optiska parametrar, är det sedan möjligt att via bedömningar av korrelationen se hur kameran rör sig i förhållande till ytan.For the most part, this can be converted into a separate electronic instrument, e.g. with a PC or an FPGA signal processor in an external device. This can make a big difference when there are bad video signals. It is possible to use a device that increases the dynamics to 100,000 to 1, compared to 1,000 to 1 for a more normal camera. 4.Improving the video signal contrast There is a lot of information in soft minor color differences so that an improvement in contrast can provide much better improvements to the video signal. This can be done in the same way as the logarithmic transformation above, but with a different mathematical operation in the unit. There are today functional PC programs, which can perform this with very good results. This is not normally visible to the human eye. 5.Focus analysis of the image information The camera has a limited focal length, where the image will be the best. Since in most cases we move the camera, we will pass each point and see it from different angles and at different distances. A program can then search for the images, which have the best sharpness in several sub-areas. From these images, we can then generate a mosaic, which will have the sub-areas 6 that have the best sharpness and then use these for a mosaic-like larger image. Here we will remove the parts, which are not so good and the picture will be much better. 6.Analysis of the movements of the image information Since we move the camera and have image information and know all the optical parameters, it is then possible to see through assessments of the correlation how the camera moves in relation to the surface.
Detta kan göras med upp till 6 axlar, cmï bilden har lämplig kontrast och mönster för att låsa bedömningarna. Vi kan sedan via varje bildsteg se hur kameran. rör sig 3-dimensionellt. Många överlappande bilder används med fördel i detta fall.This can be done with up to 6 axes, cmï the image has the appropriate contrast and pattern to lock the assessments. We can then see through each image step how the camera. moves 3-dimensionally. Many overlapping images are used to advantage in this case.
Jämte kamerans position kan vi också se i vilka vinklar kameran tittar inuti kroppen. Detta görs bäst genom. användning av en inklinometer, som ger referenser avseende den horisontella vinkeln. Genom att lägga till en elektronisk kompass kan vi också se kompassvinkeln. Elektroniska kompasser kan också känna av den vertikala positionen och på detta sätt få en horisontell mätningskompensation. 7.Kamerans position och dess position i kroppen och avseende synfältsperspektivet Det är viktigt att känna till var kameran befinner sig i kroppen och vartåt kameran pekar. Även om man inte har hundra procent kontroll av' positionerna etc., kan en enkel lösning vara att föredra, som inte använder röntgen eller MRI etc., eftersom dessa lösningar är mycket dyrbara och röntgen kan utsätta patienter och operatörer för skador.Along with the position of the camera, we can also see in what angles the camera looks inside the body. This is best done through. use of an inclinometer, which provides references regarding the horizontal angle. By adding an electronic compass we can also see the compass angle. Electronic compasses can also sense the vertical position and in this way receive a horizontal measurement compensation. 7.The position of the camera and its position in the body and regarding the field of view perspective It is important to know where the camera is in the body and where the camera is pointing. Even if one does not have one hundred percent control of the 'positions etc., a simple solution may be preferable, which does not use X-ray or MRI etc., as these solutions are very expensive and X-ray can expose patients and operators to injuries.
Det finns mycket kompakta 3-axlade kompasser, som är mycket lätta att installera i kamerahuvudet. Dessa kompasser kommer sedan att avge information vartàt kameran tittar och hur den lutar i alla axlar. On: man sedan känner till hur kroppen ligger ger denna information en ganska bra bild avseende hur kameran för stunden ser i förhållande till kroppens koordinatsystem.There are very compact 3-axis compasses, which are very easy to install in the camera head. These compasses will then provide information on where the camera is looking and how it is tilted in all axes. On: you then know how the body is located, this information gives a pretty good picture regarding how the camera currently sees in relation to the body's coordinate system.
Om man loggar alla händelsers rörelseinformation och räknar baklänges, är det möjligt att från detta få mycket mer information avseende hur kameran har förflyttat sig i kroppen.If you log all the movement information of events and count backwards, it is possible to get much more information from this regarding how the camera has moved in the body.
Kameran med lämplig mjukvara kan enbart med bildinformation och korrelation och liknande mätningar se hur kameran rör sig i kroppen. Genom åtskilliga 2D-bilder är det möjligt att få fram en 3D-bild och en 3D-ytas form med användning av enbart en kamera.The camera with suitable software can only with image information and correlation and similar measurements see how the camera moves in the body. Through several 2D images, it is possible to obtain a 3D image and the shape of a 3D surface using only one camera.
Om denna information mixas med informationen från kompassen, kommer sedan all information tillsammans att öka kameraposi- tionens noggrannhet inom kroppens inre koordinatsystem. Detta kallas för sensorfusion. Detta har fungerat bra i andra applikationer och om detta kombineras med kameran etc., kommer detta att ge mycket bättre prestanda speciellt för upptäckt och diagnos av sjukdomar i tidiga faser.If this information is mixed with the information from the compass, then all the information together will increase the accuracy of the camera position within the body's internal coordinate system. This is called sensor fusion. This has worked well in other applications and if this is combined with the camera etc., this will give much better performance especially for detection and diagnosis of diseases in early stages.
Vi har även specifik mjukvara, som gör det möjligt att upptäcka och ställa diagnoser i tidiga skeden genom avancerad manipulering av de bilder som tas av kameran- Detta gör att läkarna får tillgång till digital information, som gör bedömningar av sjukdomar i tidiga skeden mycket noggrannare och säkrare, än vad som är fallet idag. 8.Skapande av 3D-bilder En 2D-bild kan omvandlas till en 3D-bild. genonx användning av bildbehandling i en dator. Vi har idag ett program, vilket med bilder från en inte alltför avancerad kamera, vilken beskrivits ovan, och dess rörelser, kan titta på bildinformationen och omvandla 2D-informationen till en 3D-bild. Tester i matstrupen, i magsäcken etc. har gett mycket goda resultat. I dessa fall är det möjligt att få fram en 3d-bild anpassad för ögat, men också för att konstruera en bild mätbar i 3D. Från dessa bilder är det möjligt att markera ytor i 3D och erhålla områden och positioner på dessa ytor. Detta kan röra sig om tumörer eller andra defekter, vilka på ett enkelt sätt kan mätas, men också ge en 3D- position av kameran i kroppen.We also have specific software, which makes it possible to detect and make diagnoses in the early stages by advanced manipulation of the images taken by the camera- This allows doctors to access digital information, which makes assessments of diseases in the early stages much more accurate and safer, than is the case today. 8. Creating 3D images A 2D image can be converted into a 3D image. genonx use of image processing in a computer. Today we have a program, which with images from a not too advanced camera, which is described above, and its movements, can look at the image information and convert the 2D information into a 3D image. Tests in the esophagus, stomach, etc. have given very good results. In these cases, it is possible to produce a 3D image adapted to the eye, but also to construct an image measurable in 3D. From these images, it is possible to mark surfaces in 3D and obtain areas and positions on these surfaces. This can be tumors or other defects, which can be easily measured, but also give a 3D position of the camera in the body.
En funktion hos detta slag av' mjukvara är at titta på samma omrâde från två positioner. Om. man känner till fokus och de geometriska måtten hos kamerans optik, kan man genom att se hur informationen i fronten på kamerahuvudet rör sig, mäta hur de ömsesidiga positionerna är i 3D.A function of this type of software is to look at the same area from two positions. If. you know the focus and the geometric dimensions of the camera's optics, you can by seeing how the information in the front of the camera head moves, measure how the mutual positions are in 3D.
Ett annat sätt är att använda flera LED-lampor, som pulserar på ett känt sätt och genom skuggor och mönster återberäkna området att vara 3D. 9.Robot-assisterad kirurgi och tillhålskirurgi Kirugi utvecklas i en riktning mot att göra ingreppen mindre och mindre. Detta innebär att instrumenten blir mindre och mindre.Another way is to use several LED lights, which pulsate in a known way and through shadows and patterns recalculate the area to be 3D. 9. Robot-assisted surgery and cavity surgery Kirugi is developing in a direction towards making the procedures smaller and smaller. This means that the instruments become smaller and smaller.
Riktningen gör att man rör sig från några ”ingångshål" till ett enda ingångshål. Flexibla endoskop används mer och mer på bekostnad av ”rigida” endoskop. Det, som vi kallar ett flexibelt endoskop har en "kropp", som. är rigid, men kamerahuvudet kan röras i olika riktningar.The direction causes one to move from a few "entrance holes" to a single entrance hole.Flexible endoscopes are used more and more at the expense of "rigid" endoscopes.What we call a flexible endoscope has a "body", which is rigid, but the camera head can be moved in different directions.
Uppfinningen har således ett kamerahuvud längst fram, som kan röras i önskvärda riktningar.The invention thus has a camera head at the front, which can be moved in desired directions.
I samband. med robot-assisterad kirurgi kan tvâ sammankopplade kamerahuvuden användas samtidigt. Dessa båda kamerahuvuden utgör ett flexibelt endoskop eller sitter på en robotarm. Sedan har vi ytterligare ett kamerahuvud, som är placerad på en robotarm och som tar bilder från en annan vinkel.Associated. with robot-assisted surgery, two interconnected camera heads can be used simultaneously. These two camera heads form a flexible endoscope or sit on a robot arm. Then we have another camera head, which is placed on a robot arm and which takes pictures from a different angle.
Det är mycket lätt att placera kamerans koordinater genom robotarmens rörelser, om kameran är placerad längst fram på endoskopet.It is very easy to place the camera coordinates through the movements of the robot arm, if the camera is placed at the front of the endoscope.
I kamerahuvudet finns det också två sensorer för att visa var toppen på kamerahuvudet befinner sig. Detta innebär att positionen mäts i X, Y och Z i realtid.There are also two sensors in the camera head to show where the top of the camera head is located. This means that the position is measured in X, Y and Z in real time.
Det är också möjligt att avgöra kamerahuvudets position med hjälp en ansats som bygger på framtagen mjukvara. Med specifik mjukvara är det också möjligt att visa i 3D och att mäta i 3D. Vi har också mjukvara för förbättring av bilder och att all mjukvara arbetar i realtid.It is also possible to determine the position of the camera head using an approach based on software developed. With specific software, it is also possible to display in 3D and to measure in 3D. We also have software for improving images and that all software works in real time.
Vid titthålskirurgi används det lilla endoskopet på ungefär på samma sätt som vid robot-assisterad kirurgi - men naturligtvis utan utnyttjande av avancerad robotteknik. Med hjälp av de kompakta endoskopen är det möjligt att avläsa positionen för de olika instrumenten på en bildskärm i realtid och i 3D. Detta är inte möjligt idag med den noggrannhet, som de kompakta endoskapen och dess kamerasystem kan göra samt med utnyttjande av framtagna datorprogram.In peephole surgery, the small endoscope is used in much the same way as in robot-assisted surgery - but of course without the use of advanced robot technology. With the help of the compact endoscopes, it is possible to read the position of the various instruments on a screen in real time and in 3D. This is not possible today with the accuracy that the compact endoscopes and their camera systems can do and with the use of developed computer programs.
Hur de kompakta och flexibla endoskopen kan användas vid robot- assisterad kirurgi framgår av ritning nummer 2. 10. Dynamisk axiell stereovision för 3-dimansionell skanning av ytan inne i en kropp Uppfinningen handlar om att använda dynamisk axiell stereovision för att skanna ytan hos ihåliga organ i en kropp. En bildfrekvens behandlas för att upptäcka egenskaper och spåra dessa över bilderna. Vi använder en ny ansats för att bestämma den riktiga rörelsen av egenskaperan som en funktion av kamerans rörelse.How the compact and flexible endoscopes can be used in robot-assisted surgery is shown in drawing number 2. 10. Dynamic axial stereovision for 3-dimensional scanning of the surface inside a body The invention is about using dynamic axial stereovision to scan the surface of hollow organs in a body. A frame rate is processed to detect properties and track them across the frames. We use a new approach to determine the true motion of the property as a function of the camera's motion.
Från dessa kan vi bestämma egenskapernas 3-dimensionella koordinater och rekonstruera ytan som en 3D-modell.From these we can determine the 3-dimensional coordinates of the properties and reconstruct the surface as a 3D model.
Vi kan bestämma de unika Xw, Yw och Zw koordinaterna hos egenskaperna inne i ihåligheten. Genonl att betrakta två olika positioner hos kameran, i linje med den optiska axeln, kan det ses som att en unik kombination av de tagna kamerakoordinaterna triangulerar till en unik position i området. Det enda undantaget är längs den optiska axeln, där området inte kan bestämmas. Det är detta som vi kallar axiell stereovision.We can determine the unique Xw, Yw and Zw coordinates of the properties inside the cavity. Looking at two different positions of the camera, in line with the optical axis, it can be seen that a unique combination of the taken camera coordinates triangulates to a unique position in the area. The only exception is along the optical axis, where the area can not be determined. This is what we call axial stereovision.
Vi använder en optisk flödesmetod för att upptäcka egenskaper i organet. Dessa egenskaper spåras över bilderna genom att associera egenskapernas positioner nära varandra inom kamerans område. Processen upptäcker lokaliseringen av en egenskap genom att skilja mellan intillliggande bilder. Dessa upptäckta egenskaper sker på ett automatiskt sätt.We use an optical flow method to detect properties in the organ. These properties are tracked across the images by associating the positions of the properties close together within the camera area. The process detects the location of a property by distinguishing between adjacent images. These detected properties occur automatically.
Genom att röra en enda kamera kan vi upptäcka och spåra egenskaper över en uppsättning tagna bilder. Detta spårande över kamerans koordinatesystem består i. en idealistisk situation av raka linjer, vilka pekar mot kamerakoordinatens optiska axel.By touching a single camera, we can detect and track properties across a set of captured images. This tracking of the camera's coordinate system consists in an idealistic situation of straight lines, which point to the optical axis of the camera coordinates.
Denna process benämns ”dynamisk”, eftersom kameran rör sig över eller inuti objektet, medan bilderna tas. Denna process består av följande steg: Kalibrering En sekvens av bilder Minska den radiala förvanskningen Upptäckt av egenskaper och spårning av dessa Efterbehandling Konstruktion av en 3D-modell COOOOO Uppfinningen löser problemet med att skanna små ihåliga utrymmen på ett sätt som hittills inte varit möjligt med hjälp av angiven mjukvara och användning av det intelligenta, kompakta och flexibla endoskopet. 10This process is called "dynamic" because the camera moves over or inside the subject while taking pictures. This process consists of the following steps: Calibration A sequence of images Reducing the radial distortion Discovery of properties and tracing of these Finishing Construction of a 3D model COOOOO The invention solves the problem of scanning small hollow spaces in a way that has not hitherto been possible with the help of specified software and use of the intelligent, compact and flexible endoscope. 10
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0901188A SE0901188A1 (en) | 2009-09-15 | 2009-09-15 | Intelligent, compact and flexible 3D endoscope with software |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0901188A SE0901188A1 (en) | 2009-09-15 | 2009-09-15 | Intelligent, compact and flexible 3D endoscope with software |
Publications (1)
Publication Number | Publication Date |
---|---|
SE0901188A1 true SE0901188A1 (en) | 2011-03-16 |
Family
ID=43899695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE0901188A SE0901188A1 (en) | 2009-09-15 | 2009-09-15 | Intelligent, compact and flexible 3D endoscope with software |
Country Status (1)
Country | Link |
---|---|
SE (1) | SE0901188A1 (en) |
-
2009
- 2009-09-15 SE SE0901188A patent/SE0901188A1/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11529197B2 (en) | Device and method for tracking the position of an endoscope within a patient's body | |
JP5700427B2 (en) | Autism diagnosis support device | |
JP6153410B2 (en) | Blade inspection apparatus and blade inspection method | |
JP2009150883A6 (en) | Augmented reality inspection and data visualization system and method | |
JP2009150883A (en) | System and method of extension reality inspection and data visualization | |
JP2017508529A (en) | Endoscope measurement system and method | |
CN112804940B (en) | ENT tool using camera | |
KR20180029069A (en) | Oral endoscopy system and its examination method | |
JP6242105B2 (en) | Blade inspection apparatus and blade inspection method | |
CN113240726A (en) | Real-time measurement method for optical target size under endoscope | |
JP2016158911A5 (en) | ||
CA2829439C (en) | Tracking-enabled multi-axis tool for limited access inspection | |
CN111035458A (en) | Intelligent auxiliary system for operation comprehensive vision and image processing method | |
CN106068093B (en) | Endoscopic system | |
JPWO2013179905A1 (en) | Medical three-dimensional observation device | |
JP7441934B2 (en) | Processing device, endoscope system, and method of operating the processing device | |
SE0901188A1 (en) | Intelligent, compact and flexible 3D endoscope with software | |
JP2001525074A (en) | Moving object position detection | |
US20220020208A1 (en) | Measurement method, measurement device, and recording medium | |
Hutchinson et al. | Monitoring global earthquake-induced demands using vision-based sensors | |
RU2337606C1 (en) | Optical system of endoscope | |
Naydanova et al. | Objective evaluation of motor symptoms in parkinson’s disease via a dual system of leap motion controllers | |
Pulwer et al. | Endoscopic orientation by multimodal data fusion | |
JP2023018984A (en) | Insertion support system, insertion support method and program | |
Novo et al. | Spatial characterization of the accuracies in “Vicon” Motion Analysis Laboratory. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NAV | Patent application has lapsed |