ES2904749T3 - Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo - Google Patents

Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo Download PDF

Info

Publication number
ES2904749T3
ES2904749T3 ES13731880T ES13731880T ES2904749T3 ES 2904749 T3 ES2904749 T3 ES 2904749T3 ES 13731880 T ES13731880 T ES 13731880T ES 13731880 T ES13731880 T ES 13731880T ES 2904749 T3 ES2904749 T3 ES 2904749T3
Authority
ES
Spain
Prior art keywords
user
image
digital image
feedback
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13731880T
Other languages
English (en)
Inventor
Paolo Invernizzi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SR Labs Srl
Original Assignee
SR Labs Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SR Labs Srl filed Critical SR Labs Srl
Application granted granted Critical
Publication of ES2904749T3 publication Critical patent/ES2904749T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/021Arrangements integrating additional peripherals in a keyboard, e.g. card or barcode reader, optical scanner
    • G06F3/0213Arrangements providing an integrated pointing device in a keyboard, e.g. trackball, mini-joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

Un sistema para ayudar al análisis de imágenes digitales (20) por parte de un usuario que comprende: medios de procesamiento de datos electrónicos (10) conectados a un sistema experto de análisis de imágenes digitales (21) que asocia un índice de relevancia a las zonas de dicha imagen (20), comprendiendo dichos medios de procesamiento de datos (10): medios de almacenamiento de datos (11), medios de visualización de imágenes digitales (12) y medios de interfaz de usuario (13) que comprenden un dispositivo de seguimiento ocular (15) y medios de entrada manual, en el que dichos medios electrónicos de procesamiento de datos (10) son operables para registrar la interacción del usuario con una imagen digital (20) mostrada en los medios de visualización (12) adquiriendo la ruta de exploración del usuario de dicha imagen (20) por medio del dispositivo de seguimiento ocular (15) y entradas manuales del usuario para marcar las zonas seleccionadas de la imagen mostrada, si hay alguna; y comparar dicha interacción con dicho índice de relevancia; generar una primera retroalimentación adaptada para actualizar dicho índice de relevancia procedente de dicho sistema experto de análisis de imágenes digitales (21), en base a la comparación; generar una segunda retroalimentación adaptada para proporcionar marcadores dinámicos adaptados para resaltar zonas de dicha imagen (20) con las que el usuario ha interactuado en desacuerdo con dicho índice de relevancia; y enviar dichos marcadores dinámicos a dichos medios de visualización (12) para ser visualizados superpuestos sobre dicha imagen.

Description

DESCRIPCIÓN
Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo
Campo de la invención
La presente invención se refiere al campo de los sistemas y métodos de visualización de imágenes y adaptados para ayudar a los usuarios en la lectura y uso de estas imágenes, con especial referencia a la detección e identificación de anomalías que presentan dichas imágenes, con respecto a las imágenes de referencia.
Estos sistemas tienen la tarea de ayudar al operador a mejorar la evaluación de la imagen examinada e implementar técnicas y pasos que permitan al usuario reducir significativamente el esfuerzo cognitivo necesario y los tiempos de investigación que se utilizarán para el examen de la imagen.
Estado de la técnica
Diversos campos de la ciencia y la investigación emplean técnicas de análisis y evaluación de imágenes en los que la detección y clasificación de ciertas características reconocibles es el objetivo principal.
Por ejemplo, las tecnologías de formación de imágenes médicas producen diversos tipos de imágenes de diagnóstico que el médico o el radiólogo pueden examinar para buscar la presencia de características identificables específicas y que tengan importancia diagnóstica.
De la misma forma, en otros campos, pueden ser de interés otras características tal como, por ejemplo, el análisis de datos satelitales y de radares meteorológicos que pueden tener como objetivo determinar fenómenos atmosféricos peligrosos, tales como tornados o huracanes, que resultan estar en la fase de formación inicial en las imágenes analizadas. Análogamente es posible evaluar imágenes astronómicas y geológicas con propósitos análogos de identificación de características particulares que son difíciles de detectar.
En los últimos años, con el desarrollo de técnicas de "formación de imágenes digitales" y de las técnicas de procesamiento de imágenes digitales relacionadas, ha aumentado considerablemente la cantidad de imágenes que se pueden someter ventajosamente a exploración y análisis. Se han desarrollado nuevas técnicas como ayuda a dicha exploración de formación de imágenes digitales y análisis de imágenes digitales, que pueden proporcionar un primer análisis de los datos contenidos en la imagen en cuestión, indicando las áreas de interés para su posterior revisión por parte de un experto en la técnica.
Por ejemplo, en el campo de la formación de imágenes diagnósticas médicas se han desarrollado algoritmos de detección y diagnóstico asistidos (indicados con las siglas CAD, Computer Aided Diagnosis), adaptados para integrar y ayudar a los radiólogos en la revisión de las imágenes diagnósticas. Dichos algoritmos son una valiosa ayuda en el análisis de las propias imágenes, especialmente en lo que respecta al tiempo necesario para realizar dicho análisis, el cual debe ser optimizado para alcanzar valores de eficiencia que permitan la pronta emisión de diagnósticos.
Los denominados sistemas CAD se emplean típicamente en la fase inicial del proceso de diagnóstico, para analizar la imagen y resaltar las regiones de interés para preparar el examen adicional llevado a cabo posteriormente por un experto en la técnica.
Dado que tanto los datos como los resultados pueden tener un alto grado de complejidad, puede ser apropiado operar una cierta simplificación de los mismos para enfocar la atención del operador en las características de la imagen bajo observación que se consideran importantes. Esto es especialmente deseable en situaciones tales como el diagnóstico médico donde la cantidad de tiempo dedicado al análisis por un experto en la técnica puede retrasar el diagnóstico y, por lo tanto, el tratamiento, y donde, debido en parte al alto grado de especialización del personal médico, hay muy poco tiempo para analizar los resultados de las pruebas, que a menudo consisten en series de muchas imágenes.
Actualmente no existe una técnica de presentación de marcadores consolidada para dirigir la mirada del operador hacia el área de interés, ya que cada área requiere una presentación y visualización diferentes.
Por ejemplo, en el campo de radiología médica, el operador a menudo prefiere analizar imágenes que tienen una forma lo más fiel posible al original, para que la evaluación no se distorsione por los artefactos introducidos por las técnicas de procesamiento de imágenes. En el análisis de imágenes de satélite, en cambio, el operador puede estar interesado en resaltar la zona de interés modificando ciertos parámetros de la imagen tales como el contraste y el brillo.
El estado de la técnica comprende diversas técnicas de mejora y acondicionamiento de la imagen, que están adaptadas para facilitar al operador designado el análisis de las imágenes en su búsqueda de información particular.
Las solicitudes de patente US2007/0211930 y US2002/0054697 describen técnicas basadas en la colocación de marcadores en la imagen a analizar y adaptadas para resaltar las regiones de interés mediante técnicas de visualización adecuadas implementadas en modo fijo y no dinámico, es decir, mediante la superposición de superposiciones estáticas sobre la imagen analizada por el usuario.
La solicitud de patente US2004/0100476 introduce una técnica de visualización de imágenes, que, mediante el uso de una herramienta de ayuda visual, ayuda al operador a analizar la imagen enfatizando y resaltando ciertas zonas de interés mediante el control directo y voluntario que ejerce el propio operador dejando las zonas no resaltadas de la imagen visible.
La solicitud de patente US2006/0215894 describe una invención que emplea sistemas de seguimiento ocular para calcular, en particular, el tiempo empleado por el operador para revisar los marcadores colocados por el algoritmo CAD. En este caso, las regiones ya analizadas se indican con un marcador especial. La lista de marcadores utilizados es fija y la visualización de los mismos, se realiza nuevamente de modo fijo y no dinámico. El algoritmo descrito en el documento US2006/0215894 se divide en 2 pasos sucesivos y no hay posibilidad de proporcionar retroalimentación al usuario.
La solicitud de patente US2006/0215894 se refiere a un método para mostrar marcadores en una imagen digital, dichos marcadores se subdividen en dos conjuntos diferentes, el primer conjunto producido en el curso de un primer escaneo de la imagen por el operador, el segundo producido por el algoritmo CAD sobre la base de dicho primer escaneo. La combinación y la comparación de estos dos conjuntos de marcadores proporcionan información y pautas al operador para los siguientes escaneos de la imagen.
La solicitud de patente US2011/0206283 da a conocer un método de seguimiento de la distribución de la atención de un usuario en el curso de la exploración de una imagen que prevé la visualización en pantalla de las modificaciones de la propia imagen, adaptada para dirigir la atención del usuario hacia zonas insuficientemente analizadas, proponiéndolas para un segundo análisis. El método descrito en el documento US2011/0206283 se divide en dos pasos sucesivos, siguiendo un primer paso de exploración libre por parte del usuario, dicha imagen se repite - entera o subdividida en bloques - de manera que solo quedan visibles las partes previamente inexploradas, de modo que el usuario examina toda la imagen. Esto ocurre tanto en el caso en donde las regiones inexploradas son efectivamente relevantes, y en el caso en el que no lo son y el usuario deseaba evitarlas deliberadamente.
En una de las realizaciones preferidas descritas en la solicitud de patente US2011/0206283, las áreas ya exploradas por el usuario aparecen representadas como huecos en la imagen.
El documento US8020993 describe un ejemplo adicional de un sistema para ayudar al análisis de imágenes digitales por parte de un usuario, utilizando un dispositivo de seguimiento ocular.
Además, el documento WO2006/128302 describe un sistema para ayudar al análisis de imágenes digitales por parte de un usuario que comprende un algoritmo de diagnóstico asistido por ordenador ajustado en base a la retroalimentación del usuario que consiste en una entrada manual que modifica los marcadores identificados por el algoritmo CAD.
En el estado actual de la técnica, no están presentes unas técnicas adaptadas para realizar un análisis más profundo de la imagen a analizar y del comportamiento del usuario durante el escaneo de dicha imagen y adecuadas para utilizar marcadores de resaltado de tipo dinámico que eviten cambiar la imagen analizada.
Esto es de gran importancia ya que, en determinadas aplicaciones, tal como por ejemplo en el campo de la radiología, los especialistas prefieren evitar la introducción de modificaciones en la imagen a examinar ya que las modificaciones podrían, en cualquier caso, interferir en el análisis.
Por tanto, uno de los objetivos es desarrollar un método de seguimiento de la distribución de la atención de un usuario en el transcurso de la exploración de una imagen, adaptado para producir una retroalimentación que le dé al usuario una indicación de la eficacia de la exploración realizada incluso sobre la base de la relevancia que las diversas zonas de la imagen tienen en relación con un determinado objetivo.
Otro objetivo es desarrollar un método de seguimiento de la distribución de la atención de un usuario en el transcurso de la exploración de una imagen, adaptado para interactuar con un sistema experto encargado de examinar preliminarmente la imagen en función de un determinado objetivo a identificar.
Otro objetivo es desarrollar un método de seguimiento de la distribución de la atención de un usuario en el transcurso de la exploración de una imagen, adaptado para no modificar la imagen original y al mismo tiempo tener estímulos visuales dinámicos y temporales, sobre la imagen original, destinados a atraer la atención del usuario hacia un objetivo particular considerado de interés por un posible sistema experto utilizado. El producto de retroalimentación se adaptará para llevar al operador a ver el objetivo que se considera de interés, para luego disolverse con el fin de permitir una visión clara de la imagen original.
Además, un objetivo adicional es desarrollar un método de seguimiento de la distribución de la atención de un usuario en el curso de la exploración de una imagen, adaptado para sugerir al usuario una llamada "ruta de exploración óptima", es decir, la mejor estrategia de exploración de imágenes en relación con un determinado objetivo, centrando la atención del operador en los puntos de mayor relevancia - según el posible sistema experto responsable de examinar preliminarmente la imagen en función de un determinado objetivo a identificar - con el fin de maximizar la eficiencia del escaneo de la imagen en la parte del operador durante la cantidad limitada de tiempo normalmente disponible para el escaneo mencionado anteriormente.
Breve descripción de los dibujos
La figura 1 muestra el diagrama de bloques de la arquitectura del método en el caso en el que se actualiza el sistema experto encargado de examinar preliminarmente la imagen en función de un determinado objetivo a identificar y también se proporciona una retroalimentación visual al usuario.
La figura 2 muestra el diagrama de bloques de la arquitectura del método en el caso en el que se actualiza el sistema experto responsable de examinar preliminarmente la imagen en función de un determinado objetivo a identificar y no se proporciona retroalimentación visual al usuario.
La figura 3 muestra un diagrama de bloques del algoritmo en la base del método.
La figura 4 muestra el diagrama de flujo del algoritmo de evaluación del comportamiento del usuario y la generación de la actualización del sistema experto y de la retroalimentación para mostrar al usuario.
Compendio de la invención
Se describen un método y un sistema de seguimiento de la distribución de la atención de un usuario en el curso de la exploración de una imagen, adaptado para producir una retroalimentación que le dé al propio usuario una indicación de la eficacia de la exploración realizada, incluso sobre la base de la relevancia de las distintas zonas de la imagen en relación con un determinado objetivo, relevancia que eventualmente podrá ser determinada por un sistema experto encargado de examinar la imagen en función del mencionado objetivo.
A diferencia de las soluciones de la técnica anterior, las principales características del método y del sistema según la presente invención son las siguientes: una primera retroalimentación proporcionada al sistema experto de análisis de imágenes digitales posiblemente parte del sistema según la presente invención, adaptada para actualizar y modificar su comportamiento en función de las elecciones del operador (autoaprendizaje); una segunda retroalimentación que comprende la colocación dinámica de los marcadores de resaltado en la imagen digital que se está examinando; una única acción exploratoria que consta de dos pasos: un primer paso de exploración libre y un segundo paso posterior en el que el sistema, automáticamente y también "aprendiendo" de las elecciones realizadas por el propio usuario, lo guía en la búsqueda del objetivo a través de una retroalimentación visual adecuada .
En mayor detalle, el método y el sistema están adaptados para identificar la información relativa a las áreas observadas y no observadas de la imagen examinada, utilizando la información entrante del dispositivo de seguimiento ocular, que supervisa la mirada del usuario en tiempo real y comunica efectivamente dicha información al propio usuario.
El algoritmo en la base del método según la presente invención está adaptado para recibir información en tiempo real sobre las zonas observadas y no observadas por el usuario, y para presentar en un momento adecuado (por ejemplo, cuando el operador está mirando un punto considerado interesante, pero va más allá) retroalimentación adecuada que dirija la atención del usuario a una determinada zona de la imagen y luego se disuelva para permitir la visualización de la imagen original sin ningún artefacto superpuesto.
Además, el método y el sistema permiten que se presente al usuario la mejor vista de la imagen examinada, seleccionando el método que se considere más eficaz para presentar la retroalimentación visual al usuario. La invención está definida por las reivindicaciones independientes 1 y 8. Otras realizaciones se establecen en las reivindicaciones dependientes 2-7 y 9-12.
Descripción detallada de la invención
La figura 1 ilustra una descripción general del sistema que comprende medios electrónicos de procesamiento de datos 10, asociados a los medios de almacenamiento de datos 11, medios de visualización de imágenes digitales 12 y medios de interfaz 13, adaptados para permitir que dichos medios electrónicos de procesamiento de datos recopilen datos de un usuario, en el que dichos medios electrónicos de procesamiento de datos 10 están adaptados, entre otras cosas, para modificar la visualización de dichas imágenes digitales durante la exploración de las mismas por parte del usuario, a fin de agregar indicadores adaptados para marcar las zonas de dichas imágenes digitales consideradas importantes y que aún no han sido exploradas por el usuario con el cuidado necesario.
Dichos medios de procesamiento de datos 10 pueden implementarse desde cualquier sistema capaz de realizar cálculos en base a un conjunto de instrucciones contenidas en medios de almacenamiento de datos adecuados. Por tanto, dichos medios de procesamiento de datos 10 pueden incluir ordenadores personales, estaciones de trabajo, etc.
Dichos medios de interfaz 13 comprenden preferiblemente teclados alfanuméricos, punteros de ratón, botones 14 y dispositivos de seguimiento ocular 15.
Una imagen digital 20, objeto de análisis por parte del usuario, es analizada inicialmente por un primer módulo de procesamiento que comprende un primer sistema experto de análisis de imágenes digitales 21 posiblemente, pero no necesariamente, almacenado en dichos medios de almacenamiento de datos 11 y adaptado para establecer una serie de puntos de la misma imagen considerados relevantes en función de un objetivo predefinido específico. Dicho primer sistema experto de análisis de imágenes digitales 21 está adaptado para interactuar con bases de datos 22 adecuadas en las que se archivan los resultados obtenidos previamente en análisis similares, de modo que dicho primer sistema experto 21 pueda afinar progresivamente la precisión de sus detecciones.
La serie de puntos identificados por dicho sistema experto se organiza generalmente según una matriz, conocida como "matriz de relevancia" 23, en la que cada punto de la imagen se evalúa mediante un índice de relevancia (con valor entre 0, sin relevancia y 1, relevancia absoluta) con respecto al objetivo predeterminado antes mencionado.
En este punto, dicha matriz de relevancia se proporciona, junto con dicha imagen 20 y con los datos que se originan en dichos medios de interfaz 13, en un segundo módulo de procesamiento que comprende un segundo sistema experto de análisis de imágenes digitales 24, adaptado para proporcionar una retroalimentación tanto a dichos primer sistema experto de análisis de imágenes digitales 21 como a dichos medios de visualización de imágenes digitales 12, preferiblemente en forma de marcadores resaltadores adaptados para dirigir la atención del usuario a una determinada zona de dicha imagen 20, Ventajosamente, dichos marcadores resaltadores están adaptados para disolverse después de un cierto intervalo de tiempo con el fin de permitir al usuario ver la imagen original sin ningún artefacto superpuesto permanente.
Con mayor detalle, y con referencia a la figura adjunta 3, dicho segundo sistema experto de análisis de imágenes digitales 24 opera de la siguiente manera: la mirada del usuario en el acto de explorar dicha imagen 20 mostrada en dichos medios de visualización de imágenes digitales 12 es detectado por dicho dispositivo de seguimiento ocular 15 que, posteriormente, transmite 30 los datos recogidos, relacionados con la mirada del usuario, a dicho segundo sistema experto de análisis de imágenes digitales 24 que procesa los datos recibidos para distinguir 31 los movimientos sacádicos del usuario respecto de las fijaciones. Posteriormente dichas fijaciones son analizadas 32 y categorizadas 33 en un cierto número de casos 34 que se distinguen 35 en relación a unos umbrales preestablecidos y referidos a los índices de relevancia de dicha matriz de relevancia. Como resultado de ello, los índices de la matriz de relevancia se actualizan 36 mediante una actualización del conjunto de entrenamiento de dicho primer sistema experto de análisis de imágenes digitales 21 (por ejemplo, en el caso de un sistema experto basado en redes neuronales se actualizan los parámetros de la red neuronal) y se calcula una ruta de exploración óptima 37 a partir de la cual se generan marcadores dinámicos que se envían 38 a la interfaz gráfica 16 de dichos medios de procesamiento de datos 10 para superponerse dinámicamente sobre dicha imagen 20, de tal forma que oriente la atención del usuario hacia las partes de la imagen que se consideran importantes y que aún no se han explorado adecuadamente.
Dichos marcadores dinámicos se pueden implementar, por ejemplo, con algunas zonas con colores contrastantes, con formas móviles adaptadas para atraer la atención del usuario hacia las zonas de interés, con algunos indicadores de dirección simples (flechas, por ejemplo) apuntando hacia las zonas de interés, o aún más a través de zonas que parpadean intermitentemente.
Ventajosamente, dichos marcadores resaltadores son tales que se disuelven después de un cierto intervalo de tiempo para permitir la visualización de la imagen original sin ninguna modificación superpuesta.
El sistema objeto de la presente invención puede tener diferentes modos de funcionamiento, por ejemplo, puede funcionar tanto en el llamado modo de exploración visual activa (AVE, mostrado en la figura 1 adjunta), en el que se superponen a la imagen que se está examinando los marcadores de resaltado descritos anteriormente según el método descrito anteriormente, en el llamado modo de navegación visual pasiva (PVE, que se muestra en la figura 2 adjunta), en el que no se superponen los marcadores de resaltado descritos anteriormente sobre la imagen sujeta a examen , la exploración de la imagen 20 por el usuario, en este caso es libre y el sistema solo se ocupa de actualizar la matriz de relevancia en base al comportamiento del mismo usuario durante la exploración de la imagen.
Otro modo de funcionamiento puede proporcionar la alternancia entre los modos AVE y PVE mencionados anteriormente. Por ejemplo, el sistema objeto de la presente invención puede configurarse para adquirir la imagen en cuestión y operar durante un cierto intervalo de tiempo inicial T1 en modo PVE hasta el momento en que el usuario visualiza la imagen y comienza su exploración y, en consecuencia, el sistema objeto de la presente invención cambia a modo AVE.
Con referencia a la figura 4 adjunta, un ejemplo de algoritmo implementado en dicho segundo sistema experto de análisis de imágenes digitales 24 comprende la serie de pasos que se describen a continuación.
Se establece un cierto número de umbrales e intervalos de distinción con respecto a los posibles valores de dicho índice de relevancia, por ejemplo, se establecen cuatro umbrales de distinción dividiendo el intervalo de valores comprendido entre 0 y 1 en cuatro subintervalos: a) para índices relevancia entre 0 y 0,2 (cierta no relevancia del punto observado), b) entre 0,2 y 0,5 (baja probabilidad de relevancia del punto observado), c) entre 0,5 y 0,8 (alta probabilidad de relevancia del punto observado), d) entre 0,8 a 1 (cierta relevancia del punto observado).
En este punto, los datos recogidos por dichos medios de interfaz 13 y relevantes para la detección de los movimientos oculares del usuario - mediante dicho dispositivo de seguimiento ocular 15 y la entrada proporcionada por el usuario a través de dichos medios de interfaz manual 14 - se procesan de la siguiente manera:
Se evalúa el punto fijado por el usuario y el tipo de fijación (mirada) adquirido con respecto a dos umbrales de tiempo, un primer umbral S1 y un segundo umbral S2 > S 1,40, 41.
• En el caso de que dicha fijación tenga una duración mayor que tanto dicho primer umbral S1 como dicho segundo umbral S2, la visualización de dicha imagen digital 20 se optimiza 61 para favorecer la inspección por parte del usuario de la misma, posiblemente mostrando el índice de relevancia actual de los puntos fijos. Dicha optimización puede proporcionar un aumento del contraste, aumento de la resolución, aumento del nivel de zoom, etc.
• En el caso de que dicha fijación tenga una duración mayor que dicho primer umbral S1, pero menor que dicho segundo umbral S2, se comprueba 42 la presencia de una entrada manual por parte del usuario (entrada manual correspondiente a la intención del usuario de marcar el punto en cuestión como importante).
• En el caso de que esté presente dicha entrada manual, el índice de relevancia se compara 43, 44, 45 con dichos umbrales de distinción; si dicho índice pertenece a dicho intervalo de c) o a dicho intervalo d), entonces el usuario está de acuerdo con dicho primer sistema experto de análisis de imágenes digitales 21 y, en consecuencia, dicho segundo sistema experto de análisis de imágenes digitales 24 no produce 46 ninguna retroalimentación; si dicho índice pertenece a dicho intervalo b) entonces se añade el punto establecido por el usuario entre los puntos de interés de dicha imagen 47 actualizando el conjunto de objetivos positivos; si dicho índice pertenece a dicho intervalo a) entonces se proporciona una retroalimentación de tipo gráfico 48 mediante un marcador dinámico superpuesto sobre la visualización de dicha imagen digital, posiblemente con solicitud de confirmación del usuario.
• Por el contrario, en el caso en el que dicha entrada manual de usuario no está presente, el índice de relevancia se compara de nuevo 49, 50 con dichos umbrales de distinción; si dicho índice pertenece a dicho intervalo c) o a dicho intervalo d), entonces se genera una retroalimentación adaptada para insertar 51, eventualmente con una solicitud de confirmación del usuario, el punto fijado por el usuario entre los puntos de no interés de dicha imagen; si dicho índice pertenece a dichos intervalos a) o b) entonces el usuario está de acuerdo con el primer sistema experto de análisis de imágenes digitales 21 y, en consecuencia, dicho segundo sistema experto de análisis de imágenes digitales 24 no produce 52 ninguna retroalimentación.
• En el caso en donde dicha fijación tenga una duración menor que dicho primer umbral S1, se comprueba nuevamente 53 la presencia de entrada manual del usuario (entrada manual correspondiente a la intención del usuario de marcar el punto en cuestión como importante).
• En el caso de la presencia de dicha entrada manual, el índice de relevancia se compara 54, 55 con dichos umbrales de distinción: si dicho índice pertenece a dicho intervalo c) o a dicho intervalo d), entonces el usuario está de acuerdo con dicho primer sistema experto de análisis de imágenes digitales 21 y, en consecuencia, dicho segundo sistema experto de análisis de imágenes digitales 24 no produce 56 ninguna retroalimentación; si dicho índice, por el contrario, pertenece a los intervalos a) o b), entonces se genera una retroalimentación que se adapta para actualizar 57, posiblemente con solicitud de confirmación del usuario, el conjunto de positivo y negativo para sumar el punto de dicha imagen digital está siendo examinada actualmente al conjunto de puntos positivos, mientras se le retira del conjunto de puntos negativos.
• Por último, en el caso de que no esté presente dicha entrada manual de usuario, se compara el índice de relevancia 58 con dichos umbrales de distinción: si dicho índice pertenece a dicho intervalo d), el algoritmo tiene prácticamente certeza de que el punto en cuestión es un objetivo positivo y se solicita 59 confirmación del usuario: si el usuario está de acuerdo, se confirma que el punto es un objetivo positivo; de lo contrario, si el usuario no está de acuerdo, el punto se elimina del conjunto de objetivos positivos y se agrega al conjunto de objetivos negativos. Se trata de un caso en el que el punto examinado es un simple objetivo del tipo negativo o un caso en el que el usuario ha prestado poca atención durante su análisis.
Si, por el contrario, dicho índice no pertenece al intervalo d), no se produce retroalimentación 60.

Claims (12)

REIVINDICACIONES
1. Un sistema para ayudar al análisis de imágenes digitales (20) por parte de un usuario que comprende:
medios de procesamiento de datos electrónicos (10) conectados a un sistema experto de análisis de imágenes digitales (21) que asocia un índice de relevancia a las zonas de dicha imagen (20), comprendiendo dichos medios de procesamiento de datos (10):
medios de almacenamiento de datos (11),
medios de visualización de imágenes digitales (12) y
medios de interfaz de usuario (13) que comprenden un dispositivo de seguimiento ocular (15) y medios de entrada manual, en el que
dichos medios electrónicos de procesamiento de datos (10) son operables para registrar la interacción del usuario con una imagen digital (20) mostrada en los medios de visualización (12) adquiriendo la ruta de exploración del usuario de dicha imagen (20) por medio del dispositivo de seguimiento ocular (15) y entradas manuales del usuario para marcar las zonas seleccionadas de la imagen mostrada, si hay alguna; y comparar dicha interacción con dicho índice de relevancia;
generar una primera retroalimentación adaptada para actualizar dicho índice de relevancia procedente de dicho sistema experto de análisis de imágenes digitales (21), en base a la comparación;
generar una segunda retroalimentación adaptada para proporcionar marcadores dinámicos adaptados para resaltar zonas de dicha imagen (20) con las que el usuario ha interactuado en desacuerdo con dicho índice de relevancia; y
enviar dichos marcadores dinámicos a dichos medios de visualización (12) para ser visualizados superpuestos sobre dicha imagen.
2. Un sistema según la reivindicación 1, en el que dichos medios de interfaz (13) comprenden dispositivos seleccionados del grupo que comprende: teclados alfanuméricos, punteros y botones de ratón (14) y dispositivos de seguimiento ocular (15).
3. Un sistema según una o más de las reivindicaciones anteriores, en el que dichos medios de procesamiento de datos electrónicos (10) que comprenden medios de almacenamiento de datos (11) comprenden además un primer módulo de procesamiento que comprende un primer sistema experto de análisis de imágenes digitales (21) adaptado para interactuar con bases de datos adecuadas (22) con el fin de asociar un índice de relevancia a cada punto de la imagen digital analizada en función de un determinado objetivo predeterminado, y un segundo módulo de procesamiento que comprende un segundo sistema experto de análisis de imágenes digitales (24), adaptado para proporcionar una retroalimentación tanto a dicho primer sistema experto de análisis de imágenes digitales (21) como a dichos medios de visualización de imágenes digitales (12).
4. Un sistema según la reivindicación 3, en el que dicha retroalimentación suministrada a dicho primer sistema experto de análisis de imágenes digitales (21) comprende una actualización del valor del índice de relevancia asociado a cada punto de dicha imagen digital (20).
5. Un sistema según una o más de las reivindicaciones anteriores, en el que dichos marcadores resaltadores dinámicos son tales que se disuelven después de un cierto intervalo de tiempo para permitir la visualización de la imagen original sin ninguna modificación superpuesta.
6. Un sistema según una o más de las reivindicaciones anteriores, en el que dichos marcadores resaltadores dinámicos se seleccionan del grupo que comprende: zonas de dicha imagen (20) con colores contrastantes, formas en movimiento superpuestas sobre dicha imagen (20) y adaptadas para atraer la atención del usuario hacia las zonas de interés de dicha imagen (20), indicadores de dirección orientados hacia las zonas de interés de dicha imagen (20), zonas de dicha imagen (20) que parpadean intermitentemente.
7. Un sistema según una o más de las reivindicaciones 3-6, en el que dicho segundo sistema experto de análisis de imágenes digitales (24) está adaptado para procesar los datos recibidos de dicho dispositivo de seguimiento ocular (15) para distinguir (31) los movimientos sacádicos del usuario De las fijaciones; analizar (32) y categorizar (33) dichas fijaciones en un cierto número de casos (34) que se distinguen (35) en relación a umbrales predeterminados y que están relacionados con los índices de relevancia de los puntos de dicha imagen (20) fijados por el usuario; actualizar (36) el valor del índice de relevancia asociado a cada punto de dicha imagen digital (20) y transmitir dicho valor de índice de relevancia actualizado a dicho primer sistema experto de análisis de imágenes digitales (21); calcular (37) una ruta de exploración óptima de dicha imagen (20); generar marcadores dinámicos, sobre la base de dicha ruta de exploración óptima, que están adaptados para resaltar zonas apropiadas de dicha imagen (20); enviar (38) dichos marcadores dinámicos a dicha interfaz gráfica 16 de dichos medios de procesamiento de datos (10) para que se superpongan apropiadamente sobre dicha imagen (20) y sugieran dicha ruta de exploración óptima al usuario.
8. Un método para ayudar al análisis de imágenes digitales por parte de un usuario que comprende:
mostrar una imagen digital (20) a un usuario en unos medios de visualización (12) conectados a medios de procesamiento de datos (10) conectados, a su vez, a medios de almacenamiento (11) y medios de interfaz de usuario (13) que comprenden un dispositivo de seguimiento ocular (15) y medios de entrada manual;
adquirir la ruta de exploración del usuario de dicha imagen (20) por medio del dispositivo de seguimiento ocular (15);
comprobar la presencia de entradas manuales del usuario para marcar zonas seleccionadas de la imagen mostrada;
adquirir entradas manuales del usuario para marcar zonas seleccionadas de la imagen mostrada, si hay alguna;
comparar la ruta de exploración del usuario de dicha imagen (20) y las entradas manuales del usuario para marcar puntos seleccionados de la imagen mostrada, si los hubiera, con el índice de relevancia de las zonas de dicha imagen (20), que se origina en un sistema experto de análisis de imágenes digitales (21);
generar una primera retroalimentación adaptada para actualizar dicho índice de relevancia de las zonas de dicha imagen (20), procedente de un sistema experto de análisis de imágenes digitales (21), en base a la comparación del paso anterior;
generar una segunda retroalimentación con el fin de generar marcadores dinámicos adaptados para resaltar zonas de dicha imagen (20) con las que el usuario ha interactuado en desacuerdo con dicho índice de relevancia;
enviar (38) dichos marcadores dinámicos a dichos medios de visualización (12) para que sean visualizados superpuestos sobre dicha imagen (20).
9. Un método según la reivindicación 8, en el que comparar la ruta de exploración del usuario de dicha imagen (20) y las entradas manuales del usuario para marcar puntos seleccionados de la imagen mostrada, si los hay, con dicho índice de relevancia se lleva a cabo después de establecer un número de umbrales de tiempo para la mirada del usuario y una serie de intervalos con respecto a dicho índice de relevancia.
10. Un método según una o más de las reivindicaciones 8-9, en el que dicha primera y segunda retroalimentación se producen según los siguientes pasos:
establecer cuatro intervalos de distinción dividiendo el intervalo de valores de dicho índice de relevancia, comprendido entre 0 y 1, en cuatro subintervalos: a) para índices de relevancia entre 0 y 0,2, b) entre 0,2 y 0,5, c) entre 0,5 y 0,8, d) entre 0,8 y 1; evaluar (40, 41) el punto fijado por el usuario y el tipo de fijación adquirido con respecto a dos umbrales de tiempo, un primer umbral S1 y un segundo umbral S2 > S1;
en el caso de que la fijación tenga una duración mayor que dicho primer umbral S1 y dicho segundo umbral S2, la visualización de dicha imagen digital (20) se optimiza (61) para promover la inspección de la misma por parte del usuario; si dicha fijación tiene una duración mayor que dicho primer umbral S1 pero menor que dicho segundo umbral S2, se realizan comprobaciones (42) de la presencia de una entrada manual por parte del usuario correspondiente a la intención del usuario de marcar el punto en cuestión como importante, y si está presente el índice de relevancia se compara (43, 44, 45) con dichos umbrales de distinción, si dicho índice pertenece a dicho intervalo c) o a dicho intervalo d), no se produce retroalimentación (46), si dicho índice pertenece a dicho intervalo b) la retroalimentación se produce sumando (47) el punto fijado por el usuario a los puntos de interés de dicha imagen actualizando el conjunto de puntos objetivo positivos, si dicho índice pertenece a dicho intervalo a) se proporciona una retroalimentación tipo gráfica (48) mediante un marcador dinámico superpuesto sobre la visualización de dicha imagen gráfica (20);
en el caso de que dicha entrada manual por parte del usuario no esté presente, se compara el índice de relevancia (49, 50) con dichos umbrales de distinción, si dicho índice pertenece a dicho intervalo c) o a dicho intervalo d), se genera una retroalimentación que está adaptada para insertar (51) el punto fijado por el usuario en los puntos que no son de interés de dicha imagen, si dicho índice pertenece a dichos intervalos a) o b), no se produce retroalimentación (52);
en el caso de que dicha fijación tenga una duración menor que dicho primer umbral S1, se realizan verificaciones (53) para la presencia de entrada manual por parte del usuario, si la hubiera, se compara el índice de relevancia (54, 55) con dichos umbrales de distinción: si dicho índice pertenece a dicho intervalo c) o a dicho intervalo d), no se produce retroalimentación (56), si dicho índice pertenece a dichos intervalos a) o b), se genera retroalimentación (57) que se adapta para añadir el punto de dicha imagen digital que se está examinando actualmente al conjunto de puntos positivos, retirándolo del conjunto de puntos negativos; en el caso de que dicha entrada manual por parte del usuario no esté presente, se compara el índice de relevancia (58) con dichos umbrales de distinción: si dicho índice pertenece a dicho intervalo d), se solicita confirmación al usuario de que el punto examinado es un objetivo positivo: si el usuario está de acuerdo, entonces se confirma que el punto es un objetivo positivo, de lo contrario, si el usuario no confirma, el punto se elimina del conjunto de objetivos positivos y se agrega al conjunto de objetivos negativos, si dicho índice no pertenece a dicho intervalo d), no se produce ninguna retroalimentación (60).
11. Un programa informático que comprende instrucciones que hacen que el ordenador lleve a cabo los pasos del método descrito en las reivindicaciones 8-10 cuando dicho programa es ejecutado por un ordenador.
12. Un medio de registro legible por ordenador que tiene un programa registrado en el mismo, comprendiendo dicho programa instrucciones que hacen que el ordenador lleve a cabo todos los pasos de las reivindicaciones 8-10, cuando dicho programa informático se ejecuta en un ordenador.
ES13731880T 2012-04-05 2013-04-05 Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo Active ES2904749T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IT000072A ITFI20120072A1 (it) 2012-04-05 2012-04-05 Metodo e sistema per il miglioramento dell'esplorazione visiva di un'immagine durante la ricerca di un target.
PCT/IB2013/052730 WO2013150494A2 (en) 2012-04-05 2013-04-05 Method and system for improving the visual exploration of an image during a target search

Publications (1)

Publication Number Publication Date
ES2904749T3 true ES2904749T3 (es) 2022-04-05

Family

ID=46147571

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13731880T Active ES2904749T3 (es) 2012-04-05 2013-04-05 Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo

Country Status (8)

Country Link
US (1) US11354937B2 (es)
EP (1) EP2834775B1 (es)
CA (1) CA2869695C (es)
DK (1) DK2834775T3 (es)
ES (1) ES2904749T3 (es)
IT (1) ITFI20120072A1 (es)
PT (1) PT2834775T (es)
WO (1) WO2013150494A2 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6802795B2 (ja) * 2014-12-16 2020-12-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自動放射線読み取りセッション検出
NL2019927B1 (en) * 2017-11-16 2019-05-22 Joa Scanning Tech B V A computer controlled method of and apparatus and computer program product for supporting visual clearance of physical content.
US11809674B2 (en) * 2020-07-30 2023-11-07 International Business Machines Corporation Machine learning methods for monitoring a user's interaction with 3D medical images
CN118331860A (zh) * 2024-04-01 2024-07-12 青岛黄海学院 一种汽车人机交互系统评价模型构建方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6434262B2 (en) 1993-09-29 2002-08-13 Shih-Ping Wang Computer-aided diagnosis system and method
US20040100476A1 (en) 2002-11-25 2004-05-27 Morita Mark M. Method and apparatus for viewing computer aided detection and diagnosis results
US8031917B2 (en) * 2005-03-23 2011-10-04 Siemens Medical Solutions Usa, Inc. System and method for smart display of CAD markers
WO2006128302A1 (en) * 2005-06-02 2006-12-07 The Medipattern Corporation System and method of computer-aided detection
US8020993B1 (en) * 2006-01-30 2011-09-20 Fram Evan K Viewing verification systems
US20070211930A1 (en) * 2006-03-09 2007-09-13 Terry Dolwick Attribute based image enhancement and display for medical imaging applications
US7672495B2 (en) * 2006-08-17 2010-03-02 Mevis Breastcare Gmbh & Co. Kg Method, apparatus and computer program for displaying marks in an image data set
US8311279B2 (en) * 2010-02-23 2012-11-13 Fuji Xerox Co., Ltd. System and method for improved image analysis through gaze data feedback
US20110307216A1 (en) * 2010-06-10 2011-12-15 Optimetrics, Inc. Method for automated measurement of eye-tracking system random error

Also Published As

Publication number Publication date
PT2834775T (pt) 2022-01-27
WO2013150494A3 (en) 2013-11-28
EP2834775A2 (en) 2015-02-11
US20210341997A1 (en) 2021-11-04
CA2869695A1 (en) 2013-10-10
EP2834775B1 (en) 2021-11-03
US11354937B2 (en) 2022-06-07
ITFI20120072A1 (it) 2013-10-06
WO2013150494A2 (en) 2013-10-10
DK2834775T3 (da) 2022-01-24
CA2869695C (en) 2020-08-11

Similar Documents

Publication Publication Date Title
Bastawrous et al. Development and validation of a smartphone-based visual acuity test (peek acuity) for clinical practice and community-based fieldwork
JP6643379B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN103649961B (zh) 对图像数据中的发现的解剖学标记的方法
JP6799301B2 (ja) 情報処理装置、制御方法、及びプログラム
Castner et al. Scanpath comparison in medical image reading skills of dental students: distinguishing stages of expertise development
US20220308664A1 (en) System and methods for evaluating images and other subjects
CN103635909B (zh) 一种临床发现管理系统
Mahajan et al. The algorithmic audit: working with vendors to validate radiology-AI algorithms—how we do it
Cabitza et al. Rams, hounds and white boxes: Investigating human–AI collaboration protocols in medical diagnosis
CN103733200B (zh) 由带有解剖学标记临床管理促进的检查审阅
Fox et al. Eye-tracking in the study of visual expertise: methodology and approaches in medicine.
ES2904749T3 (es) Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo
Singh et al. Evaluation of explainable deep learning methods for ophthalmic diagnosis
WO2014156160A1 (ja) グラフ表示装置およびグラフ表示装置の作動方法並びにグラフ表示プログラム
KR20140125207A (ko) 피검사자의 심리 상태를 진단하기 위한 이미지 분석 방법, 장치 및 기록매체
RU2709268C2 (ru) Способ поддержки измерений ответа опухоли
Venjakob et al. Review of prospects and challenges of eye tracking in volumetric imaging
Huang et al. An automatic screening method for strabismus detection based on image processing
Eckstein et al. Evaluation of search strategies for microcalcifications and masses in 3D images
Xia et al. CARES: A Comprehensive Benchmark of Trustworthiness in Medical Vision Language Models
Wang et al. Object-gaze distance: Quantifying near-peripheral gaze behavior in real-world applications
Kliewer et al. The search patterns of abdominal imaging subspecialists for abdominal computed tomography: Toward a foundational pattern for new radiology residents
CN112885435B (zh) 图像目标区域的确定方法、装置和系统
Trucco et al. Validation
CN108242055B (zh) 一种心肌融合图像处理方法及系统