ES2282048B2 - SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS. - Google Patents

SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS. Download PDF

Info

Publication number
ES2282048B2
ES2282048B2 ES200602647A ES200602647A ES2282048B2 ES 2282048 B2 ES2282048 B2 ES 2282048B2 ES 200602647 A ES200602647 A ES 200602647A ES 200602647 A ES200602647 A ES 200602647A ES 2282048 B2 ES2282048 B2 ES 2282048B2
Authority
ES
Spain
Prior art keywords
cylinder
vec
arrowvert
point
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES200602647A
Other languages
Spanish (es)
Other versions
ES2282048A1 (en
Inventor
Alicia Maria Cano Gonzalez
Francisco Gaya Moreno
Pablo Lamata De La Orden
Enrique J. Gomez Aguilera
Francisco Del Pozo Guerrero
Elena Hernandez Perez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad Politecnica de Madrid
Original Assignee
Universidad Politecnica de Madrid
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad Politecnica de Madrid filed Critical Universidad Politecnica de Madrid
Priority to ES200602647A priority Critical patent/ES2282048B2/en
Publication of ES2282048A1 publication Critical patent/ES2282048A1/en
Priority to PCT/ES2007/000579 priority patent/WO2008046940A1/en
Application granted granted Critical
Publication of ES2282048B2 publication Critical patent/ES2282048B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Remote Sensing (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Método de posicionamiento espacial de objetos cilíndricos mediante análisis de imágenes. Esta invención consiste en un método para determinar la posición espacial de un objeto cilíndrico, basado en el procesamiento de la imagen captada por una única cámara. Las fuentes de información son únicamente la información de las imágenes de vídeo captadas, el campo de visión de la cámara y el diámetro del cilindro. La posición 3D del objeto cilíndrico se obtiene mediante un análisis de la sección transversal de éste, y de los bordes del cilindro visualizados en la imagen captada. Esta solución resulta interesante en el campo de la cirugía laparoscópica, con tres aplicaciones concretas: análisis automático de intervenciones quirúrgicas para obtener parámetros de evaluación de las mismas; aplicaciones de realidad aumentada que permitan guiar al cirujano; sistemas computerizados inteligentes de cirugía. El método puede resultar útil en otros sectores como industrial o de control.Spatial positioning method of cylindrical objects by image analysis. This invention consists of a method for determining the spatial position of a cylindrical object, based on the processing of the image captured by a single camera. The sources of information are only the information of the captured video images, the field of view of the camera and the diameter of the cylinder. The 3D position of the cylindrical object is obtained by an analysis of the cross section of the object, and of the edges of the cylinder displayed in the captured image. This solution is interesting in the field of laparoscopic surgery, with three specific applications: automatic analysis of surgical interventions to obtain parameters for their evaluation; augmented reality applications that guide the surgeon; intelligent computerized surgery systems. The method may be useful in other sectors such as industrial or control.

Description

Método de posicionamiento espacial de objetos cilíndricos mediante análisis de imágenes.Object spatial positioning method cylindrical by image analysis.

Sector técnicoTechnical sector

Esta invención se enmarca en el sector de tecnologías de visión artificial. Presenta como principal aplicación el campo de la cirugía de mínima invasión (laparoscopia). No obstante, puede ser empleada en cualquier otro sector industrial o de control en el que se presente el problema abordado.This invention is part of the sector of artificial vision technologies. Present as principal application of the field of minimally invasive surgery (laparoscopy). However, it can be used in any other industrial sector or control in which the problem addressed is presented.

Estado de la técnicaState of the art

Son conocidas las diferentes técnicas de seguimiento en el espacio de objetos por medio de sensores de posición. En este tipo de sistemas se encuentran los sensores ópticos, electromagnéticos o mecánicos. Estos presentan entre sus principales inconvenientes la aparatosidad en su uso (sensores mecánicos), problemas de interferencias con objetos metálicos (sensores electromagnéticos) o la necesidad de un campo de visión sin obstáculos (sensores ópticos).The different techniques of object space tracking by means of sensors position. In this type of systems are the sensors optical, electromagnetic or mechanical. These present among their main disadvantages the apparatusity in its use (sensors mechanical), interference problems with metallic objects (electromagnetic sensors) or the need for a field of vision unobstructed (optical sensors).

Para evitar los inconvenientes de estos sistemas, en los últimos años están siendo desarrolladas técnicas de posicionamiento de objetos y seguimiento de sus movimientos por medio de análisis de imágenes de vídeo, abordando aspectos tan dispares como el seguimiento de un balón en un campo de fútbol o la identificación y seguimiento de caras en secuencias captadas por una cámara de seguridad.To avoid the inconvenience of these systems, in recent years techniques are being developed of positioning of objects and tracking of their movements by means of analyzing video images, addressing aspects so disparate as tracking a ball on a soccer field or the face identification and tracking in sequences captured by A security camera.

En los últimos años, estas técnicas de análisis de vídeo están sufriendo un gran auge en el campo de cirugía de mínima invasión, donde se pretende hacer un posicionamiento y seguimiento 3d de la herramienta laparoscópica. En la actualidad existen unas primeras aproximaciones al problema encontradas en publicaciones científicas recientes en este campo. Un primer trabajo analiza empíricamente el problema del posicionamiento 3d de la herramienta en vídeo monoscópico, y concluye que la información presente en una imagen laparoscópica es suficiente para estimar la coordenada 3d del extremo de la herramienta [1]. Concretamente la información se basa en un análisis del tamaño de la herramienta y el ángulo que definen los bordes de la misma en la imagen, pero sólo ofrece una aproximación heuristica al problema, sin llegar a formalizar un método.In recent years, these analysis techniques video are suffering a great boom in the field of surgery minimal invasion, where it is intended to make a positioning and 3d tracking of the laparoscopic tool. Nowadays there are first approaches to the problem found in Recent scientific publications in this field. A first work empirically analyzes the problem of the 3d positioning of the tool in monoscopic video, and concludes that the information present in a laparoscopic image is sufficient to estimate the 3d coordinate of the tool end [1]. Specifically the information is based on an analysis of the size of the tool and the angle that define the edges of it in the image, but only offers a heuristic approach to the problem, without reaching Formalize a method.

En la literatura científica existe un trabajo que plantea un método de posicionamiento 3d de la herramienta laparoscópica mediante la información que aporta los bordes de la herramienta en la imagen, pero que se basa en principios de visualización e iluminación de escenas generadas por ordenador, algo muy distinto a lo propuesto en la presente patente [2].In the scientific literature there is a work which raises a 3d positioning method of the tool laparoscopic using the information provided by the edges of the tool in the picture, but that is based on principles of display and illumination of computer generated scenes, something very different from what is proposed in this patent [2].

Los autores de la presente patente han publicado dos primeras soluciones a este problema, basadas en dos aspectos de la imagen bidimensional distintos al propuesto en la presente patente, como son el análisis del diámetro visualizado de la herramienta o el cálculo del punto de fuga de sus bordes en la imagen [3]. Estos métodos presentan ciertas limitaciones en cuanto a la precisión y estabilidad alcanzadas.The authors of this patent have published first two solutions to this problem, based on two aspects of the two-dimensional image other than the one proposed here patent, as are the analysis of the visualized diameter of the tool or the calculation of the vanishing point of its edges in the image [3]. These methods have certain limitations as far as to the precision and stability achieved.

En el ámbito de la propiedad industrial existen varias patentes de localización de objetos en el campo de aplicación quirúrgico, que utilizan la información de unas cámaras de visión, pero que precisan de la información estereoscópica de dos o más puntos de visión [4],[5],[6],[7]. Otra alternativa es el empleo de una visión monoscópica introduciendo en el escenario una serie de marcadores [8], estimando así la posición y orientación del instrumental a través de la situación en la imagen de dichos marcadores.In the field of industrial property there are several object location patents in the field of surgical application, which use the information of some cameras of vision, but that require the stereoscopic information of two or more points of vision [4], [5], [6], [7]. Another alternative is the use of a monoscopic vision introducing a series of markers [8], thus estimating the position and orientation of the  instrumental through the situation in the image of said markers.

Descripción detallada de la invenciónDetailed description of the invention

Como se ha mencionado en el apartado anterior, existen diferentes técnicas que permiten obtener la posición 3d de un objeto en el espacio por medio de sensores de posición. Sin embargo, la aplicación de este tipo de sistemas en determinados campos puede resultar inviable debido a los principales inconvenientes que presentan, tal y como se ha comentado en el apartado anterior. Por ello, se plantea una nueva forma de determinar la posición espacial de un cuerpo a través de un análisis de las imágenes captadas por cámaras.As mentioned in the previous section, there are different techniques that allow to obtain the 3d position of an object in space by means of position sensors. Without However, the application of such systems in certain fields may be unfeasible due to the main inconveniences that they present, as mentioned in the previous section. Therefore, a new form of determine the spatial position of a body through a analysis of images captured by cameras.

Hasta la fecha, las propuestas de localización espacial de objetos haciendo uso de un análisis de las imágenes dan soluciones únicamente para imágenes captadas en visión estereoscópica. Lo cual resulta un inconveniente en determinadas aplicaciones en presencia de una única cámara.To date, location proposals spatial object making use of an analysis of the images give solutions only for images captured in vision Stereoscopic Which is inconvenient in certain applications in the presence of a single camera.

En esta invención se propone un método de posicionamiento espacial de objetos cilíndricos mediante análisis de imágenes de vídeo monoscópico. Con este método se consigue determinar la posición de un punto cualquiera del eje de un cilindro que aparezca en la imagen con respecto a la cámara o las cámaras que adquieren la imagen. De este modo, esta invención permite, a diferencia de los anteriores métodos de posicionamiento, determinar dichas coordenadas espaciales utilizando como única fuente de información las imágenes de video monoscópico y sin necesidad de incorporar elementos adicionales a la escena, como pueden ser marcadores.In this invention a method of spatial positioning of cylindrical objects by analysis of monoscopic video images. With this method you get determine the position of any point on the axis of a cylinder that appears in the image with respect to the camera or cameras that They acquire the image. Thus, this invention allows, to Unlike previous positioning methods, determine these spatial coordinates using as the sole source of Monoscopic video information information and no need for incorporate additional elements to the scene, such as markers.

La innovación de este método de posicionamiento espacial consiste en la posibilidad de determinar la posición relativa de un punto cualquiera del eje de un cilindro con respecto a una cámara, haciendo uso únicamente de las imágenes de video adquirido por dicha cámara. Además es necesario conocer el campo de visión de la cámara y el diámetro del cilindro. La orientación del cilindro y su posición 3d quedan determinadas a través de los bordes del cilindro en la imagen y de un análisis de la sección transversal del mismo.The innovation of this positioning method spatial is the possibility of determining the position relative of any point on the axis of a cylinder with respect to to a camera, using only video images acquired by said camera. It is also necessary to know the field of vision of the chamber and the diameter of the cylinder. The orientation of the cylinder and its 3d position are determined through the edges of the cylinder in the image and of an analysis of the section transversal of it.

Una aplicación de la patente es su utilización como método de posicionamiento espacial de objetos cilíndricos en cirugía de mínima invasión. El instrumental quirúrgico utilizado en determinadas intervenciones, como en el caso de laparoscopia, presenta un vástago de forma cilíndrica. Esta característica permite aplicar el presente método de posicionamiento para determinar la posición espacial de cualquier punto del instrumental quirúrgico utilizando las imágenes captadas por el endoscopio.An application of the patent is its use as a method of spatial positioning of cylindrical objects in minimally invasive surgery The surgical instruments used in certain interventions, as in the case of laparoscopy, It has a cylindrical shank. This feature allows to apply the present positioning method to determine the spatial position of any instrument point surgical using the images captured by the endoscope.

Otras aplicaciones potenciales de la patente son aquellas relacionadas con sectores como la industria, robótica, sistemas de control, etc., donde sea necesaria la localización espacial de objetos cilíndricos mediante imágenes captadas por una o varias cámaras.Other potential applications of the patent are those related to sectors such as industry, robotics, control systems, etc., where location is necessary spatial cylindrical objects through images captured by one or Several cameras

Breve descripción de los dibujosBrief description of the drawings

Figura 1. Perspectiva de un cilindro (A) en el espacio y la proyección sus bordes en el plano de la imagen (B1) y (B2), fijando el centro óptico en el punto (C). La recta perpendicular al eje del cilindro que interseca a éste y que contiene al centro óptico, corta a dicho eje en el punto (N). El punto (P) es un punto cualquiera del eje del cilindro. Los planos de vista de los bordes del cilindro (\Omega1) y (\Omega2). Estos planos de vista determinan los bordes proyectados del cilindro en su corte con el plano de la imagen (\Gamma).Figure 1. Perspective of a cylinder (A) in the space and projection its edges in the image plane (B1) and (B2), fixing the optical center at point (C). Straight perpendicular to the axis of the cylinder that intersects it and that it contains the optical center, cuts to said axis at point (N). He point (P) is any point on the axis of the cylinder. The planes of view of the edges of the cylinder (\ Omega1) and (\ Omega2). These sight planes determine the projected edges of the cylinder in its cut with the image plane (\ Gamma).

Figura 2. Sección transversal del cilindro contenida en el plano ortogonal al eje del cilindro que pasa por el centro óptico (C) y presenta como centro el punto (N). El ángulo (2\lambda_{N}) es el ángulo diedro que forman los planos de vista (\Omega1) y (\Omega2) en dicha sección. Los vectores (u_{\Omega_{1}}) y (u_{\Omega_{2}}) son los vectores normales a dichos planos de vista.Figure 2. Cylinder cross section contained in the plane orthogonal to the axis of the cylinder that passes through the optical center (C) and presents as center the point (N). The angle (2 \ lambda_ {N}) is the dihedral angle formed by the planes of view (\ Omega1) and (\ Omega2) in said section. Vectors (u \ {Omega_1}) and (u {\ Omega_2}) are the normal vectors to said view planes.

Exposición detallada de un modo de realización de la invenciónDetailed exposition of an embodiment of the invention

En este apartado se describe los pasos principales de que consta el método de posicionamiento espacial de objetos cilíndricos mediante análisis de imágenes.This section describes the steps main features of the spatial positioning method of cylindrical objects by image analysis.

En primer lugar se describe la geometría implicada en el método de posicionamiento planteado. El escenario de trabajo consiste en la colocación espacial de una cámara, conocido su centro óptico (C), y de un objeto cilíndrico (A) cuya posición se encuentra dentro del campo de visión de la cámara (Ver figura 1). La cámara adquiere los movimientos en el espacio del objeto cilíndrico mediante secuencias de imágenes de video.First the geometry is described involved in the proposed positioning method. Stage of work consists of the spatial placement of a camera, known its optical center (C), and of a cylindrical object (A) whose position is within the field of view of the camera (See Figure 1). The camera acquires the movements in the space of the cylindrical object through sequences of video images.

De esta forma, las imágenes adquiridas por la cámara muestran el desplazamiento del cilindro. De acuerdo con la geometría proyectiva de las imágenes, los planos de vista (\Omega1) y (\Omega2) que contienen a cada uno de los bordes del cilindro y al centro óptico (C) de la cámara, cortan al plano de la imagen (\Gamma), definiendo los bordes proyectados del cilindro, (B1) y (B2).In this way, the images acquired by the chamber show cylinder displacement. According to the projective geometry of images, view planes (\ Omega1) and (\ Omega2) containing each of the edges from the cylinder and to the optical center (C) of the chamber, cut to the plane of the image (\ Gamma), defining the projected edges of the cylinder, (B1) and (B2).

La innovación del método es la determinación de la posición relativa al centro óptico de la cámara de cualquier punto del eje del cilindro usando la información de los bordes del cilindro proyectados, de dos puntos de los bordes del cilindro y de un punto cualquiera de su eje en la imagen.The innovation of the method is the determination of the position relative to the optical center of the camera of any cylinder axis point using information from the edges of the projected cylinder, two points of the edges of the cylinder and of any point of its axis in the image.

Es por ello necesaria una etapa de análisis de imágenes que permita extraer información 2d de la imagen. En esta etapa, se requiere conocer la dirección de las proyecciones de ambos bordes, la dirección del rayo de vista de un punto de cada uno de los bordes proyectados del objeto cilíndrico y la dirección del rayo de vista de un punto del eje del objeto cilíndrico. Las direcciones de ambos bordes en la imagen se determinan a través del análisis de la imagen. Por el contrario, la dirección del rayo de vista de un punto del cilindro se calcula haciendo uso del parámetro Field of View (FoV) o campo de visión de la cámara. Este parámetro permite determinar la dirección del rayo de vista (vector que une el centro óptico de la cámara con un punto en el espacio) de cualquier punto de la imagen.It is therefore necessary a stage of analysis of images that allow extracting 2d information from the image. In this stage, it is required to know the direction of the projections of both edges, the direction of the view beam of one point of each of the projected edges of the cylindrical object and the direction of the ray of sight of a point of the axis of the cylindrical object. The directions of both edges in the image are determined through the Image analysis On the contrary, the lightning direction of View of a cylinder point is calculated using the Field of View (FoV) parameter or field of view of the camera. This parameter allows to determine the direction of the sight ray (vector that joins the optical center of the camera with a point in space) from any point of the image.

Con estos datos se procede al análisis de la sección transversal del cilindro, para determinar la posición relativa de un punto del eje del cilindro (P) con respecto al centro óptico de la cámara. Se puede dividir en dos etapas:With this data we proceed to the analysis of the cross section of the cylinder, to determine the position relative of a point of the cylinder axis (P) with respect to the center  optical camera It can be divided into two stages:

1.one.
Determinación de la distancia del cilindro al centro óptico de la cámara y su orientación, entendida como la distancia perpendicular al eje del cilindro que le separa del centro óptico de la cámara. Determination of the distance from the cylinder to the optical center of the chamber and its orientation , understood as the distance perpendicular to the axis of the cylinder that separates it from the optical center of the chamber.

Una vez conocido el vector director del rayo de vista a un punto de uno de los bordes y la dirección de dicho borde en la imagen, se determina el vector normal (u_{\Omega_{1}}) al plano de vista del borde como producto vectorial de ambos vectores, puesto que ambos están contenidos en dicho plano de vista. Se procede del mismo modo para la obtención del vector normal (u_{\Omega_{2}}) al plano de vista del segundo borde del cilindro (Ver figura 2).Once known the beam director vector to a point on one of the edges and the direction of said border in the image, the vector is determined normal (u \ {Omega_1}) to the plane of view of the edge as a product vector of both vectors, since both are contained in said plane of view. Proceed in the same way to obtain from the normal vector (u \ {Omega_2}) to the plane of view of the second cylinder edge (See figure 2).

La dirección u orientación del eje del cilindro en el espacio viene dada por el producto vectorial de los vectores normales a los planos de vista. Del mismo modo, la suma vectorial de dichos vectores indica la dirección de la recta perpendicular al eje del cilindro que une éste con el centro óptico de la cámara (\vec{u}_{NC}).The address u orientation of the cylinder axis in space is given by the Vector product of normal vectors to the view planes. Similarly, the vector sum of these vectors indicates the direction of the line perpendicular to the axis of the connecting cylinder this one with the optical center of the camera (\ vec {u} _}).

A continuación se calcula el semi-ángulo (\lambda_{N}) que definen los planos de vista en la sección transversal, la mitad del ángulo diedro, como muestra la siguiente ecuación,Then the half angle (\ lambda_ {N}) defined by the planes of seen in the cross section, half of the dihedral angle, as show the following equation,

[Ecu. 1]tan \ \lambda _{N} = \frac{\arrowvert \vec{u}_{\Omega _{1}} + \vec{u} _{\Omega _{2}}\arrowvert}{\arrowvert \vec{u}_{\Omega _{1}} - \vec{u} _{\Omega _{2}}\arrowvert}[Ecu. 1] so \ \ lambda _ {N} = \ frac {\ arrowvert \ vec {u} _ {\ Omega_ {1}} + \ vec {u} _ {\ Omega2 {}} \ arrowvert} {\ arrowvert \ vec {u} _ {\ Omega_ {1}} - \ vec {u} _{\Omega 2} \ arrowvert}

La distancia entre el centro óptico y el cilindro se determina conociendo la amplitud de dicho ángulo (\lambda_{N}) y el diámetro del cilindro (\Phi_{CIL}). La ecuación para su determinación es la que a continuación se muestra,Distance between the optical center and the cylinder is determined by knowing the amplitude of said angle (λ N) and the diameter of the cylinder (\ Phi_ {CIL}). The equation for its determination is the which is shown below,

[Ecu. 2]\arrowvert CN \arrowvert = \phi _{CIL} / sen \lambda _{N}[Ecu. 2] \ arrowvert CN \ arrowvert = \ phi _ {CIL} / sen λ N

2.2.
Determinación de la posición relativa de un punto cualquiera del eje del cilindro con respecto al centro óptico de la cámara. Determination of the relative position of any point on the axis of the cylinder with respect to the optical center of the chamber .

En la imagen, fijado un punto cualquiera del eje del cilindro y conocida la dirección del rayo de vista a dicho punto (\vec{u}_{CP}), se determina la posición en el espacio de dicho punto mediante los parámetros calculados anteriormente como,In the image, set any point on the axis of the cylinder and known the direction of the beam of sight at that point (\ vec {u} _ {CP}), determine the position in space of that point by previously calculated parameters such as,

[Ecu. 3]\overline{CP} = \frac{\arrowvert CN \arrowvert \cdot \vec{u} _{CP}}{\vec{u} _{CP} \cdot \vec{u} _{CN}}[Ecu. 3] \ overline {CP} = \ frac {\ arrowvert CN \ arrowvert \ cdot \ vec {u} _ {CP}} {\ vec {u} _ {CP} \ cdot \ vec {u} CN

De esta forma, se puede determinar la posición relativa de cualquier punto del eje de un cilindro con respecto al centro óptico de la cámara que adquiere la grabación de los movimientos, utilizando exclusivamente las imágenes que son captadas por dicha cámara y conociendo el diámetro del cilindro y el campo de visión de la misma.In this way, the position can be determined relative of any point on the axis of a cylinder with respect to the optical center of the camera that acquires the recording of the movements, using exclusively the images that are captured by said chamber and knowing the diameter of the cylinder and the field of vision of it.

Aplicación industrialIndustrial application

Como ya se ha comentado en los apartados anteriores, esta invención puede aplicarse como sistema de localización de cuerpos cilíndricos en el espacio.As already mentioned in the sections above, this invention can be applied as a system of location of cylindrical bodies in space.

Esta invención presenta una interesante aplicación en el campo de cirugía de mínima invasión, concretamente laparoscopia, donde la sensación de profundidad se pierde debido a la visualización de la intervención en una pantalla. Este método de posicionamiento permite determinar la posición del extremo del instrumental laparoscópico (el cual presenta un vástago cilíndrico) con respecto a la cámara mediante las secuencias de imágenes adquiridas por ésta. Además, la invención aporta un valor añadido al no requerir la incursión de elementos adicionales en el escenario, en este caso, en el cuerpo del paciente. En este campo caben destacar cuatro aplicaciones concretas: el análisis automático de intervenciones quirúrgicas para obtener parámetros objetivos de evaluación de las mismas; el desarrollo de aplicaciones de realidad aumentada que permitan guiar al cirujano, en las que el conocimiento de la posición de las herramientas es vital; el estudio de propiedades biomecánicas de tejidos en el campo laparoscópico, mediante la incorporación de sensores de fuerza en las herramientas; el diseño de sistemas robóticos inteligentes de cirugía.This invention presents an interesting application in the field of minimally invasive surgery, specifically laparoscopy, where the feeling of depth is lost due to the intervention display on a screen. This method of positioning allows to determine the position of the end of the laparoscopic instruments (which has a cylindrical stem) with respect to the camera through image sequences acquired by it. In addition, the invention provides added value. by not requiring the incursion of additional elements in the scenario, in this case, in the patient's body. In this field Four specific applications are worth highlighting: the analysis Automatic surgical interventions to obtain parameters objectives for their evaluation; application development  augmented reality to guide the surgeon, in which the knowledge of the position of the tools is vital; he study of biomechanical properties of tissues in the field laparoscopic, by incorporating force sensors in the tools; the design of intelligent robotic systems of surgery.

A su vez, este método de posicionamiento de cuerpos cilíndricos permite su aplicación en otros muchos sectores como el industrial, en sistemas de control, robótica,...In turn, this method of positioning cylindrical bodies allows its application in many other sectors as the industrial, in control systems, robotics, ...

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    
Bibliografía Bibliography

[1] [one]
O. Tonet, T. U. Ramesh, G. Megali, and P. Dario, "Tracking endoscopic instruments without localizer: image analysis-based approach", Stud. Health Technol. Inform., vol. 119, pp. 544-549, \underbar{2006}.O. Tonet , TU Ramesh , G. Megali , and P. Dario , "Tracking endoscopic instruments without localizer: image analysis-based approach", Stud. Health Technol Inform., Vol. 119, pp. 544-549, \ underbar {2006}.

[2] [2]
C. Doignon, F. Nageotte, M. de Mathelin. "Segmentation and Guidance of Multiple Rigid Objects for Intra-operative Endoscopic Vision". International Workshop on Dynamical Vision, in conjunction with ECCV 2006, Springer Graz (Austria), May \underbar{2006}.C. Doignon , F. Nageotte , M. de Mathelin . "Segmentation and Guidance of Multiple Rigid Objects for Intra-operative Endoscopic Vision". International Workshop on Dynamical Vision, in conjunction with ECCV 2006, Springer Graz (Austria), May \ underbar {2006}.

[3] [3]
A.M. Cano, P. Lamata, F. Gayá, F. del Pozo, E. J. Gómez. "New Methods for Video-Based Tracking of Laparoscopic Tools", Lecture Notes in Computer Science 4072, pp.142-149, July, \underbar{2006}.AM Cano , P. Lamata , F. Gayá , F. del Pozo , EJ Gómez . "New Methods for Video-Based Tracking of Laparoscopic Tools", Lecture Notes in Computer Science 4072, pp. 142-149, July, \ underbar {2006}.

[4] [4]
M. P. Heilbrun, P. McDonald, J. C. Wiker, S. Koehler, W. Peters. "Medical instrument localizing apparatus for surgical applications, establishes 3D workspace coordinate framework, from calibration image pair generated by fiducial structure", US2001039421-A1; US6491702-B2.MP Heilbrun , P. McDonald , JC Wiker , S. Koehler , W. Peters . "Medical instrument localizing apparatus for surgical applications, establishes 3D workspace coordinate framework, from calibration image pair generated by fiducial structure", US2001039421-A1; US6491702-B2.

[5] [5]
S. Koehler, W. Peters, J. C. Wiker, P. McDonald, M. P. Heilbrun. "Photogrammetric surgical localization using two video cameras to provide two dimensional images with a fiducial structure used for calibration and a projection algorithm used to reconstruct the 3D framework", US6165181-A.S. Koehler , W. Peters , JC Wiker , P. McDonald , MP Heilbrun . "Photogrammetric surgical localization using two video cameras to provide two dimensional images with a fiducial structure used for calibration and a projection algorithm used to reconstruct the 3D framework", US6165181-A.

[6] [6]
S. Koehler, M. P. Heilbrun, W. Peters, P. McDonald, J. C. Wiker, "Photogrammetric surgical localisation appts. - defines location of medical instrument relative to elements in medical workspace". US5603318-A.S. Koehler , MP Heilbrun , W. Peters , P. McDonald , JC Wiker , "Photogrammetric surgical localization appts. - defines location of medical instrument relative to elements in medical workspace". US5603318-A.

[7] [7]
S. Lu, "3D position measuring system for movie animation, virtual reality - determines zero crossings of image lines using their derivative order, after which connecting points between zero crossings with respect to image lines is determined for judging pixel consistency". US5852672-A.S. Lu , "3D position measuring system for movie animation, virtual reality - determines zero crossings of image lines using their derivative order, after which connecting points between zero crossings with respect to image lines is determined for judging pixel consistency". US5852672-A.

[8] [8]
H. Mostafavi, "Surgical instrument tracking method e.g. for biopsy needle, involves determining if prior image data set obtained after calibrating video camera using marker block attached to the instrument, is within threshold", US2003063292-A1; WO2004023783-A2; AU2003268401-A1; EP1535457-A2; US6973202-B2.H. Mostafavi , "Surgical instrument tracking method eg for biopsy needle, involves determining if prior image data set obtained after calibrating video camera using marker block attached to the instrument, is within threshold", US2003063292-A1; WO2004023783-A2; AU2003268401-A1; EP1535457-A2; US6973202-B2.

Claims (6)

1. Método para la determinación de la posición en el espacio de cualquier punto del eje de un objeto cilíndrico, de diámetro conocido, que se mueve libremente, caracterizado por el uso exclusivo del análisis de una única imagen de vídeo adquirida por una única cámara en un instante dado, cuyo campo de visión es conocido, y en ausencia de cualquier tipo de marcador externo.1. Method for determining the position in space of any point of the axis of a cylindrical object, of known diameter, that moves freely, characterized by the exclusive use of the analysis of a single video image acquired by a single camera in a given moment, whose field of vision is known, and in the absence of any type of external marker. 2. Método según la reivindicación 1, caracterizado porque el análisis de la imagen de vídeo captada por la cámara comprende las siguientes etapas:2. Method according to claim 1, characterized in that the analysis of the video image captured by the camera comprises the following steps:
--
Análisis de la información 2d del cilindro a partir de la imagen consistente en obtener la dirección de las proyecciones de los bordes del cilindro, la dirección del rayo de vista de un punto de cada uno de los bordes proyectados del objeto cilíndrico y la dirección del rayo de vista de un punto cualquiera del eje del cilindro2d information analysis of cylinder from the image consisting of obtaining the direction of the projections of the edges of the cylinder, the direction of the ray of view of a point on each of the projected edges of the cylindrical object and direction of the point of view ray any of the cylinder shaft
--
Análisis de la sección transversal del cilindro consistente en la determinación de la distancia del cilindro al centro óptico de la cámara y su orientación, y la determinación de la posición relativa de un punto cualquiera del eje del cilindro con respecto al centro óptico de la cámara.Analysis of the cross section of the cylinder consisting in determining the distance of the cylinder to the optical center of the camera and its orientation, and the determination of the relative position of any point on the axis of the cylinder with respect to the optical center of the chamber.
3. Método según reivindicaciones 1 y 2 caracterizado porque para la determinación de la distancia del cilindro al centro óptico de la cámara y su orientación se realizan las siguientes operaciones:3. Method according to claims 1 and 2, characterized in that the following operations are carried out to determine the distance of the cylinder from the optical center of the chamber and its orientation:
--
Determinación de la dirección u orientación del eje del cilindro mediante el producto vectorial de los vectores normales al plano de los bordes del cilindro, u_{\Omega 1} y u_{\Omega 2}, obtenidos a partir de la información 2d extraída del análisis de la imagenDetermination of the address u orientation of the cylinder axis using the vector product of normal vectors to the plane of the cylinder edges, u \ Omega 1 and u \ Omega 2, obtained from the 2d information extracted from image analysis
--
Determinación de la dirección de la recta perpendicular al eje del cilindro y que une éste con el centro óptico de la cámara (\vec{u}_{NC}), mediante la suma de los vectores normales de los bordes del cilindro (u_{\Omega 1} y u_{\Omega 2})Determination of the address of the straight perpendicular to the axis of the cylinder and linking it with the optical center of the camera (\ vec {u} _}), by adding the normal vectors of the edges of the cylinder (u \ Omega 1 and u \ Omega 2)
--
Cálculo del semi-ángulo definido por los planos de vista en la sección transversal, ángulo (\lambda_{N}), mediante la siguiente ecuación:Semi-angle calculation defined by the view planes in the cross section, angle (\ lambda_ {N}), by the following equation:
tan \ \lambda _{N} = \frac{\arrowvert \vec{u}_{\Omega _{1}} + \vec{u} _{\Omega _{2}}\arrowvert}{\arrowvert \vec{u}_{\Omega _{1}} - \vec{u}_{\Omega _{2}}\arrowvert}tan \ \ lambda _ {N} = \ frac {\ arrowvert \ vec {u} _ {\ Omega_ {1}} + \ vec {u} _ {\ Omega _ {2}} \ arrowvert} {\ arrowvert \ vec {u} _ {\ Omega _ {1}} - \ vec {u} _ {\ Omega 2} \ arrowvert}
--
Determinación de la distancia entre el centro óptico (C) de la cámara y el eje del cilindro, concretamente en el punto (N), conocido el diámetro de éste (\Phi_{CIL}), mediante la siguiente ecuación:Determination of the distance between the optical center (C) of the chamber and the axis of the cylinder, specifically at point (N), known its diameter (\ Phi_ {CIL}), by the following equation:
\arrowvert CN \arrowvert = \phi _{CIL} / sen \lambda _{N}\ arrowvert CN \ arrowvert = \ phi CIL / sen \ lambda N
4. Método según reivindicaciones 1 a 3 caracterizado porque para la determinación de la posición relativa de un punto cualquiera del eje del cilindro (P) con respecto al centro óptico (C) de la cámara se realiza la siguiente operación:4. Method according to claims 1 to 3 characterized in that for the determination of the relative position of any point of the axis of the cylinder (P) with respect to the optical center (C) of the chamber the following operation is performed: \overline{CP} = \frac{\arrowvert CN \arrowvert \cdot \vec{u} _{CP}}{\vec{u} _{CP} \cdot \vec{u} _{CN}}\ overline {CP} = \ frac {\ arrowvert CN \ arrowvert \ cdot \ vec {u} _ {CP}} {\ vec {u} _ {CP} \ cdot \ vec {u} CN siendo \vec{u}_{CP} el vector unitario del rayo de vista que une el centro óptico (C) de la cámara con el punto P del cilindro, obtenido a través del parámetro campo de visión de la cámara.where \ vector {CP} is the vector unit of the view beam that joins the optical center (C) of the camera with the point P of the cylinder, obtained through the field parameter of vision of the camera. 5. Uso del método descrito en las reivindicaciones 1 a 4 en cirugía laparoscópica, concretamente en el posicionamiento espacial del instrumental laparoscópico mediante análisis de imágenes captadas por un endoscopio.5. Use of the method described in the claims 1 to 4 in laparoscopic surgery, specifically in the spatial positioning of laparoscopic instruments by analysis of images captured by an endoscope. 6. Uso del método descrito en las reivindicaciones 1 a 4 en otros campos como son la producción industrial, sistemas de control y en robótica.6. Use of the method described in the claims 1 to 4 in other fields such as production industrial, control systems and robotics.
ES200602647A 2006-10-18 2006-10-18 SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS. Active ES2282048B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES200602647A ES2282048B2 (en) 2006-10-18 2006-10-18 SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS.
PCT/ES2007/000579 WO2008046940A1 (en) 2006-10-18 2007-10-15 Method for the spatial positioning of cylindrical objects using image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES200602647A ES2282048B2 (en) 2006-10-18 2006-10-18 SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS.

Publications (2)

Publication Number Publication Date
ES2282048A1 ES2282048A1 (en) 2007-10-01
ES2282048B2 true ES2282048B2 (en) 2008-02-01

Family

ID=38512285

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200602647A Active ES2282048B2 (en) 2006-10-18 2006-10-18 SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS.

Country Status (2)

Country Link
ES (1) ES2282048B2 (en)
WO (1) WO2008046940A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975571B (en) * 2010-09-14 2012-06-13 中国矿业大学 Method for automatically monitoring roadway deformation in real time
DE102018102988A1 (en) * 2018-02-09 2019-08-14 Hochschule Rheinmain University Of Applied Sciences Wiesbaden Rüsselsheim Method and device for determining and monitoring the position and orientation of a cylindrical object
GB2571953A (en) * 2018-03-13 2019-09-18 Massless Emea Ltd Single view tracking of cylindrical objects

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5603318A (en) * 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US6539330B2 (en) * 2000-07-19 2003-03-25 Pentax Corporation Method and apparatus for measuring 3-D information
US7310431B2 (en) * 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects

Also Published As

Publication number Publication date
ES2282048A1 (en) 2007-10-01
WO2008046940A1 (en) 2008-04-24

Similar Documents

Publication Publication Date Title
US9248000B2 (en) System for and method of visualizing an interior of body
Dey et al. Automatic fusion of freehand endoscopic brain images to three-dimensional surfaces: creating stereoscopic panoramas
US7844320B2 (en) Method and apparatus for volumetric image navigation
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
US20130250081A1 (en) System and method for determining camera angles by using virtual planes derived from actual images
CA2898554C (en) Endoscope, particularly for minimally invasive surgery
US11883105B2 (en) Surgical navigation system using image segmentation
CN111970986A (en) System and method for performing intraoperative guidance
US20160360954A1 (en) Imagery System
Tonet et al. Tracking endoscopic instruments without a localizer: a shape-analysis-based approach
Gavaghan et al. Augmented reality image overlay projection for image guided open liver ablation of metastatic liver cancer
ES2282048B2 (en) SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS.
Maurer Jr et al. Augmented-reality visualization of brain structures with stereo and kinetic depth cues: system description and initial evaluation with head phantom
US9285666B2 (en) Object guide system
EP2031559A1 (en) Augmented visualization in two-dimensional images
Dey et al. Mixed reality merging of endoscopic images and 3-D surfaces
Bichlmeier et al. Evaluation of the virtual mirror as a navigational aid for augmented reality driven minimally invasive procedures
Wang et al. Stereo video analysis for instrument tracking in image-guided surgery
Gong et al. Toward real-time endoscopically-guided robotic navigation based on a 3D virtual surgical field model
EP3644845B1 (en) Position detection system by fiber bragg grating based optical sensors in surgical fields
US20230015060A1 (en) Methods and systems for displaying preoperative and intraoperative image data of a scene
Jeung et al. Intraoperative zoom lens calibration for high magnification surgical microscope
Steidle et al. Optical-inertial tracking with active markers and changing visibility
US11154363B1 (en) Terminal guidance for improving the accuracy of the position and orientation of an object
Wu et al. Shape-from-shading under near point lighting and partial views for orthopedic endoscopy

Legal Events

Date Code Title Description
EC2A Search report published

Date of ref document: 20071001

Kind code of ref document: A1

FG2A Definitive protection

Ref document number: 2282048B2

Country of ref document: ES