MX2014005945A - Un dispositivo de procesamiento de informacion y un metodo de procesamiento de informacion. - Google Patents

Un dispositivo de procesamiento de informacion y un metodo de procesamiento de informacion.

Info

Publication number
MX2014005945A
MX2014005945A MX2014005945A MX2014005945A MX2014005945A MX 2014005945 A MX2014005945 A MX 2014005945A MX 2014005945 A MX2014005945 A MX 2014005945A MX 2014005945 A MX2014005945 A MX 2014005945A MX 2014005945 A MX2014005945 A MX 2014005945A
Authority
MX
Mexico
Prior art keywords
attribute
detected object
detected
event
processing device
Prior art date
Application number
MX2014005945A
Other languages
English (en)
Inventor
Takayuki Yoshigahara
Hideki Shimomura
Seiji Kobayashi
Yoshihiro Wakita
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2014005945A publication Critical patent/MX2014005945A/es

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medicinal Chemistry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Un dispositivo de procesamiento de información, y método utilizan una unidad de control de atributos para cambiar una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado. Al cambiar una asociación de un atributo entre el objeto detectado permite un seguimiento autónomo de sustancias que se mueven entre los objetos.

Description

UN DISPOSITIVO DE PROCESAMIENTO DE INFORMACIÓN Y UN MÉTODO DE PROCESAMIENTO DE INFORMACIÓN Campo Técnico La presente descripción se relaciona con un dispositivo de procesamiento de información, y un método de procesamiento de información.
Técnica Antecedente En el campo médico, se han hecho muchos esfuerzos para prevenir que ocurran errores en las prácticas médicas, tales como la preparación de medicamento e inyección de medicamento en pacientes. Por ejemplo, en la preparación de los medicamentos líquidos para una inyección de una solución de Ringer, doctores o enfermeras han copiado los nombres y cantidades de medicinas líquidas inyectadas en bolsas de solución de Ringer sobre las bolsas de solución de Ringer, con una herramienta de escritura que incluye un marcador. La Literatura de Patente 1 siguiente sugiere la escritura, como un historial, datos en los cuales los identificadores de operadores, pacientes, y herramientas médicas utilizadas y las horas se asocian entre sí para prevenir prácticas médicas inapropiadas cuando la práctica médica se lleva a cabo.
Dar un seguimiento al historial de acciones es importante para otros campos así como también para el campo médico. Por ejemplo, en el campo de procesamiento de alimentos, se han hecho esfuerzos que permitan que se escriban los datos históricos para métodos de procesamiento y se dé un seguimiento posterior al historial para el propósito de higiene o mantenimiento de la calidad de un producto.
Lista de Citas Literatura de Patente PTL 1: JP 2009-289067A Compendio de la invención Problema Técnico Muchos esfuerzos existentes para rastrear los datos de historial necesitan trabajar en las pantallas para ingresar datos, etc. Sin embargo, una forma de solicitar el trabajo conlleva riesgos de errores de ingreso de datos o ingreso incorrecto intencional. Además, forzar a los operadores a ingresar datos además de sus responsabilidades normales pone presión en los operadores. De acuerdo con el esquema descrito en la Literatura de Patente 1, la entrada de datos es automatizada a través de la introducción de un dispositivo de terminal especial conectado a herramientas médicas. Sin embargo, debido a que el esquema se basa en la presencia del dispositivo de terminal especial, está limitado su alcance de aplicación.
Respecto a esto, se considera una forma de registrar fotografías de las acciones como un historial. En este caso, la labor no es necesaria para registrar el historial. Sin embargo, simplemente registrar las fotografías complica el reconocimiento posterior de los detalles de acciones utilizados para contenedores cuyos contenidos son indeterminables desde el exterior.
Solución al Problema De acuerdo con una modalidad, se proporciona un dispositivo de procesamiento de información que incluye una unidad de control de atributos que cambia una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado .
De acuerdo con un método del procesamiento de información, el método incluye almacenar en la memoria un atributo en una asociación con un objeto detectado; y cambiar con una unidad de control de atributos la asociación entre el objeto detectado y el atributo en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado .
De acuerdo con otra modalidad del dispositivo de procesamiento de información, el dispositivo incluye una interfaz que intercambia datos con una unidad de control de atributos que cambia una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado; y una unidad de control de visualización que superpone los atributos de datos adyacentes al objeto detectado en una unidad de interfaz de usuario .
Efectos Ventajosos de la Invención De acuerdo con la tecnología que se relaciona con un ejemplo de la descripción, es posible gestionar más fácilmente los detalles de las acciones como un historial sin poner presión excesiva en los operadores.
Breve Descripción de los Dibujos La Figura 1 es un diagrama explicativo para describir una visión general de un sistema de procesamiento de imágenes de acuerdo con una modalidad.
La Figura 2 es un diagrama de bloque que ilustra un ejemplo de una configuración de hardware de un dispositivo de procesamiento de imágenes de acuerdo con una modalidad.
La Figura 3 es un diagrama de bloque que ilustra un ejemplo de una configuración funcional lógica de un dispositivo de procesamiento de imagen de acuerdo con una modalidad .
La Figura 4 es un diagrama de explicación para describir un concepto básico del control de atributos en una modalidad .
La Figura 5 es un diagrama de bloque que ilustra un ejemplo de una configuración de hardware de un dispositivo de terminal de acuerdo con una modalidad.
La Figura 6 es un diagrama de bloque que ilustra un ejemplo de una configuración funcional lógica de un dispositivo de terminal de acuerdo con una modalidad.
La Figura 7 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas para una modalidad .
La Figura 8 es un diagrama explicativo para describir un ejemplo de los datos de objeto en un primer ejemplo.
La Figura 9 es un diagrama explicativo para describir un ejemplo de una tabla de control de atributos en un primer ejemplo.
La Figura 10A es una primera mitad de un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un primer ejemplo.
La Figura 10B es una segunda mitad de un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un primer ejemplo.
La Figura 11 es un diagrama explicativo para describir un ejemplo de datos de atributos en un primer ej emplo .
La Figura 12 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas para un primer ejemplo.
La Figura 13 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos en un primer ejemplo.
La Figura 14 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de visualización en un primer ejemplo.
La Figura 15 es un diagrama explicativo para describir un ejemplo de los datos de objeto en un segundo ejemplo.
La Figura 16 es un diagrama explicativo para describir un ejemplo de una tabla de control de atributos en un segundo ejemplo.
La Figura 17A es una primera mitad de un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un segundo ejemplo.
La Figura 17B es una segunda mitad de un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un segundo ejemplo.
La Figura 18 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas para un segundo ejemplo.
La Figura 19 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos en un segundo ejemplo.
La Figura 20 es un diagrama explicativo para describir un ejemplo de los datos de objeto en un tercer ejemplo.
La Figura 21 es un diagrama explicativo para describir un ejemplo de los datos de historial en un tercer ejemplo.
La Figura 22 es un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un tercer ejemplo.
La Figura 23 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas para un tercer ejemplo.
La Figura 24 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos en un tercer ejemplo.
La Figura 25 es un diagrama explicativo para describir un ejemplo de los datos de objeto en un cuarto ejemplo .
La Figura 26 es un diagrama explicativo para describir un ejemplo de una tabla de control de atributos en un cuarto ejemplo.
La Figura 27A es una primera mitad de un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un cuarto ejemplo.
La Figura 27B es una segunda mitad de un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos en un cuarto ejemplo.
La Figura 28 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas para un cuarto ejemplo.
La Figura 29 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos en un cuarto ejemplo.
La Figura 30 es un diagrama de bloque que ilustra un ejemplo de una configuración funcional lógica de un dispositivo de procesamiento de imagen de acuerdo con una variació .
Descripción de los Ejemplos En lo sucesivo, ejemplos preferidos de la presente descripción se describirán en detalle con referencia a los dibujos anexos. Observe que, en esta especificación y los dibujos anexos, los elementos estructurales que tienen sustancialmente la misma función y estructura se indican con los mismos números de referencia, y se omiten las explicaciones repetidas de estos elementos estructurales.
Además, la descripción se hace en el siguiente orden . 1. Visión general de un sistema 2. Ejemplos constitucionales de un dispositivo de procesamiento de imágenes 2-1. Configuración de hardware 2-2. Configuración funcional 3. Ejemplos constitucionales de un dispositivo de terminal 3-1. Configuración de hardware 3-2. Configuración funcional 4. Primer ejemplo 5. Segundo ejemplo 6. Tercer ejemplo 7. Cuarto ejemplo 8. Variación 9. Conclusión <1. Visión general de un sistema> La Figura 1 es un diagrama explicativo para describir una visión general de un sistema de procesamiento de imágenes de acuerdo con una modalidad. Con referencia a la Figura 1, un sistema 1 de procesamiento de imágenes se ilustra como un ejemplo. El sistema 1 de procesamiento de imágenes incluye un dispositivo 100 de procesamiento de imágenes y un dispositivo 200 de terminal.
El dispositivo 100 de procesamiento de imágenes tiene una unidad 102 de captura de imágenes. La lente de la unidad 102 de captura de imágenes se orienta hacia objetos implicados en cualesquier acciones en un espacio real. En el ejemplo en la Figura 1, una persona Ua realiza una acción pretendida para uno o ambos de los objetos Objl y 0bj2, los cuales se encuentran presentes en el espacio real. Además de los objetos Objl y 0bj2, la persona Ua también puede tratarse como uno de los objetos. La unidad 102 de captura de imágenes captura las acciones en las cuales los objetos toman parte, y genera imágenes capturadas (típicamente, cada trama que compone las imágenes en movimiento) . Las imágenes capturadas generadas son imágenes de entrada para procesar imágenes realizadas por el dispositivo 100 de procesamiento de imágenes pretendido para gestionar un historial de acciones.
El dispositivo 200 de terminal tiene una unidad de captura de imágenes (no mostrada) y una unidad 210 de visualización . El dispositivo 200 de terminal captura cualquier objeto que utiliza la unidad de captura de imágenes, y solicita al dispositivo 100 de procesamiento de imágenes distribuir datos que se asocian con objetos en las imágenes. Además, el dispositivo 200 de terminal despliega datos enviados desde el dispositivo 100 de procesamiento de imágenes en la unidad 210 de visualización. Los datos enviados desde el dispositivo 100 de procesamiento de imágenes permiten un historial de acciones tomadas para diversos objetos para reconocerse después. Por ejemplo, el historial de acciones puede reconocerse a través de atributos asociados con los objetos o puede reconocerse a partir de datos de historial mismos para los cuales se determina un registro de la hora.
En la Figura 1, el dispositivo 100 de procesamiento de imágenes y el dispositivo 200 de terminal muestran un ejemplo formado como dispositivos que son físicamente diferentes. Sin embargo, el dispositivo 100 de procesamiento de imágenes y el dispositivo 200 de terminal pueden formarse como un dispositivo integrado. El dispositivo 100 de procesamiento de imágenes y el dispositivo 200 de terminal puede ser cada uno dispositivos generales, por ejemplo PCs de escritorio, PCs tipo Tablet, PCs tipo notebooks, teléfonos inteligentes, o PDAs, o pueden ser dispositivos dedicados pretendidos para la gestión/lectura del historial. Además, la pantalla del dispositivo 200 de terminal puede realizarse con un visualizador de montaje superior. <2. Ejemplos constitucionales de un dispositivo de procesamiento de imágenes> 2-1. Configuración de hardware La Figura 2 es un diagrama de bloque que ilustra un ejemplo de la configuración de hardware de un dispositivo 100 de procesamiento de imágenes de acuerdo con una modalidad. Con referencia a la Figura 2, el dispositivo 100 de procesamiento de imágenes incluye una unidad 102 de captura de imágenes, una unidad 104 de entrada, una unidad 106 de almacenamiento, una unidad 110 de visualización, una unidad 112 de comunicación, un bus 116 y una unidad 118 de control. (1) Unidad de captura de imágenes La unidad 102 de captura de imágenes es un módulo de cámara que captura imágenes. La unidad 102 de captura de imágenes captura sujetos con elementos de captura de imágenes, tal como un CCD (Dispositivo de Carga Acoplado) o un CMOS (Semiconductor de Óxido Metálico Complementario) , y genera imágenes capturadas. La unidad 102 de captura de imágenes no siempre puede ser parte del dispositivo 100 de procesamiento de captura de imágenes. Por ejemplo, como en el ejemplo de la Figura 1, un dispositivo de captura de imágenes conectado en una forma alámbrica o inalámbrica al dispositivo 100 de procesamiento de imágenes puede tratarse como la unidad 102 de captura de imágenes. (1) Unidad de entrada La unidad 104 de entrada es un dispositivo de entrada, el cual se utiliza por un usuario para operar el dispositivo 100 de procesamiento de imágenes o la información de entrada al dispositivo 100 de procesamiento de imágenes. Por ejemplo, la unidad 104 de entrada puede incluir un sensor táctil, que detecta el toque por un usuario en la pantalla de la unidad 110 de visualización . En lugar de (o además de), la unidad 104 de entrada puede incluir un dispositivo de señalización, tal como un ratón o una almohadilla táctil. Además, la unidad 104 de entrada puede incluir otros dispositivos de entrada, tal como un teclado, un teclado numérico, botones, un interruptor o un control remoto. (3) Unidad de almacenamiento La unidad 106 de almacenamiento incluye un medio de almacenamiento, tal como una memoria semiconductora o un disco duro, y programas de almacenamiento y datos para procesos con el dispositivo 100 de procesamiento de imágenes. Los datos almacenados en la unidad 106 de almacenamiento pueden incluir, por ejemplo, datos de imágenes capturadas generados por la unidad 102 de captura de imágenes y diversos datos en una base de datos, la cual se describirá posteriormente. Además, una porción o todos los programas y datos en la especificación pueden adquirirse a partir de las fuentes de datos externas (por ejemplo, servidores de datos, almacenamiento en red o memorias externas, etc.) sin que se almacenen en la unidad 106 de almacenamiento. (4) Unidad de visualización La unidad 110 de visualización es un módulo de visualización que consiste de una LCD (Pantalla de Cristal Liquido) , un OLED (Diodo Orgánico de Emisión de Luz) o un CRT (Tubo de Rayos Catódicos) . Además, la unidad 110 de visualización no siempre puede ser parte del dispositivo 100 de procesamiento de imágenes. Por ejemplo, un dispositivo de visualización conectado en una forma alámbrica o inalámbrica al dispositivo 100 de procesamiento de imágenes puede tratarse como la unidad 110 de visualización. (5) Unidad de comunicación La unidad 112 de comunicación es una interfaz de comunicación, la cual transmite la comunicación entre el dispositivo 100 de procesamiento de imágenes y otros dispositivos (por ejemplo, el dispositivo 200 de terminal) . La unidad 112 de comunicación soporta cualesquier protocolos de comunicación inalámbricos o alámbricos y establece las conexiones de comunicación con otros dispositivos. (7) Bus El bus 116 conecta la unidad 102 de captura de imágenes, la unidad 104 de entrada, la unidad 106 de almacenamiento, la unidad 110 de visualización, la unidad 112 de comunicación y la unidad 118 de control entre si. (8) Unidad de control La unidad 118 de control corresponde a un procesador, tal como una CPU (unidad de Procesamiento Central) o un DSP (Procesador de Señal Digital) . La unidad 118 de control ejecuta programas almacenados en la unidad 106 de almacenamiento u otro medio de almacenamiento para operar diversas funciones del dispositivo 100 de procesamiento de imágenes, las cuales se describirán posteriormente. 2-2. Configuración funcional La Figura 3 es un diagrama de bloque que ilustra un ejemplo de la configuración funcional lógica realizada por la unidad 106 de almacenamiento y la unidad 118 de control del dispositivo 100 de procesamiento de imágenes mostrado en la Figura 2. Con referencia a la Figura 3, el dispositivo 100 de procesamiento de imágenes incluye una unidad 120 de adquisición de imágenes, una unidad 130 de identificación de objetos, una base de datos (BD) 140 de objetos, una unidad 150 de detección de eventos, una BD 160 de atributos, una unidad 170 de control de atributos, una unidad 180 de distribución de datos y una unidad 190 de interfaz de usuario. (1) Unidad de adquisición de imágenes La unidad 120 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 102 de captura de imágenes como imágenes de entrada. En las imágenes de entrada, aparecen objetos implicados en las prácticas médicas, acciones de procesamiento de alimentos u otras acciones. Una serie de imágenes de entrada adquiridas por la unidad 120 de adquisición de imágenes típicamente incluye imágenes en movimiento. La unidad 120 de adquisición de imágenes secuencialmente produce las imágenes de entrada adquiridas a la unidad 130 de identificación de objetos. (2) Unidad de identificación de objetos La unidad 130 de identificación de objetos identifica los objetos presenten en los espacios reales de las imágenes de entrada. La unidad 130 de identificación de objetos puede identificar objetos en las imágenes de entrada, por ejemplo, al combinar cantidades de característica de imágenes extraídas a partir de las imágenes de entrada con cantidades de característica de imágenes previamente extraídas para cada objeto. Además, la unidad 130 de identificación de objetos puede identificar objetos en las imágenes de entrada al interpretar la información de identificación, tal como los códigos de barras unidos al mismo, e impresos o montados en cada objeto, o códigos 2D (por ejemplo, Código QR (marca registrada)). Además, la unidad 130 de identificación de objetos puede identificar objetos en las imágenes de entrada al leer las cadenas de caracteres o etiquetas de la superficie de cada objeto. Además, las personas en las imágenes de entrada también se identifican como un objeto en un ejemplo, el cual se describirá posteriormente. Por ejemplo, identificar a las personas puede realizarse con cantidades de característica de imágenes frontales previamente extraídas. En esta modalidad, la identificación de los objetos por la combinación de las cantidades de característica de imágenes se describe principalmente como un ejemplo. (3) BD de objetos La BD 140 de objetos es una base de datos que almacena datos relacionados con objetos implicados en acciones como un objetivo de gestión de historial. Los datos almacenados en la BD 140 de objetos pueden utilizarse para identificar objetos por la unidad 130 de identificación de objetos, detectar eventos por la unidad 150 de detección de eventos y controlar los atributos de los objetos por la unidad 170 de control de atributos. En esta modalidad, la BD 140 de objetos almacena los datos 142 de objetos que incluyen al menos cantidades de característica de imágenes conocidas de cada objeto. Además, la BD 140 de objetos puede almacenar una tabla 144 de control de atributos, la cual define los patrones de control de los atributos. Ejemplos particulares de tales datos se describen posteriormente. (4) Unidad de detección de eventos La unidad 150 de detección de eventos detecta eventos que corresponden a actos físicos entre la pluralidad de los objetos identificados por la unidad 130 de identificación de objetos utilizando las imágenes de entrada. En esta especificación, los actos físicos entre los objetos indican cualquier acto en el espacio real entre la pluralidad de objetos (los cuales pueden incluir tanto objetos reales como personas) implicados en estas acciones. Por ejemplo, el contacto o aproximación de dos objetos puede corresponder a actos físicos entre estos objetos. Una operación pretendida para cualquier objeto real de cualquier persona también puede corresponder a actos físicos entre una persona correspondiente y un objeto correspondiente. Eventos correspondientes a estos actos físicos se vuelven el desencadenante para el procesamiento que debe realizarse en respuesta a los actos físicos descritos en lo anterior en los espacios reales. Si un evento debe detectarse en relación con un acto físico puede definirse de acuerdo con el uso de una aplicación. Los eventos relacionados con los siguientes actos físicos se detectan en cuatro ejemplos, los cuales se describirán posteriormente.
Primer ejemplo) Transporte de medicamento líquido en la práctica médica Segundo ejemplo) Combinación del medicamento en la preparación del medicamento Tercer ejemplo) Ingestión de medicamento por los pacientes Cuarto ejemplo) Mezcla de materiales alimenticios y condimentos en acciones de procesamiento de alimentos Además, estos son sólo ejemplos para la descripción, y pueden detectarse los eventos relacionados con los actos físicos entre los objetos en otras acciones. (5) BD de atributos La BD 160 de atributos es una base de datos que almacena datos para permitir un historial de acciones tomadas por cada objeto a reconocerse. Los datos almacenados en la BD 160 de atributos se gestionan por una unidad 170 de control de atributos, la cual se describirá posteriormente. En esta modalidad, la BD 160 de atributos almacena datos 162 de atributos, los cuales representan los atributos asociados con cada objeto. Los datos 162 de atributos pueden representar ambos de los atributos iniciales previamente asociados con algunos objetos y atributos posteriores asociados con los otros objetos en respuesta a la detección de los eventos descritos en lo anterior. Al leer tales datos 162 de atributos, el historial de acciones tomado para cada objeto puede reconocerse. Además, la BD 160 de atributos puede almacenar datos 164 de historial, los cuales representan la transición de los atributos de cada objeto para cada evento descrito en lo anterior. (6) Unidad de control de atributo La unidad 170 de control de atributos controla atributos asociados con cada objeto. Por ejemplo, en esta modalidad, en respuesta a la detección del evento descrito en lo anterior por la unidad 150 de detección de eventos, la unidad 170 de control de atributos asocia los datos de atributos, los cuales se asocian con un primer objeto implicado en un acto físico que corresponde al evento detectado, con un segundo objeto.
La Figura 4 es un diagrama explicativo para describir un concepto básico de control de atributos en esta modalidad. Con referencia a la Figura 4, se muestran dos objetos Obj 1 y Obj2 implicados en actos físicos. Estos dos objetos son objetos típicamente capaces de contener una sustancia. En esta especificación, contener una sustancia incluye diversos tipos de acciones, tal como recibir una sustancia dentro, mantener una sustancia portable, y contener una sustancia como un componente. Por ejemplo, en la mitad superior de la Figura 4, el objeto Objl contiene una sustancia SBl y el objeto 0bj2 contiene una sustancia SB2. En este caso, en los datos 162 de atributos, un valor de los atributos que representa la clase de la sustancia SBl se asocia con el objeto Objl y otro valor de los atributos que representa la clase de la sustancia SB2 se asocia con el objeto Obj2. Además, la unidad 170 de control de atributos asocia nuevamente el valor de los atributos asociado con el objeto Objl con el objeto 0bj2 si se detecta un evento correspondiente a un acto físico del objeto Objl al objeto 0bj2. En diversos ejemplos, la dirección del movimiento de tal valor de los atributos puede determinarse por la unidad 170 de control de atributos con referencia a la tabla 144 de control de atributos descrita en lo anterior. En la mitad inferior de la Figura 4, como resultado de detectar un evento correspondiente a un acto físico, un valor de los atributos que representa la clase de la sustancia SBl se asocia nuevamente con el objeto Obj2. Alternativamente, un valor de los atributos que representa la clase de la sustancia SBl se remueve del objeto Objl. Además, los datos de atributos de cada objeto pueden representar la cantidad así como también la clase de la sustancia contenida en el objeto asociado. (7) Unidad de distribución de datos La unidad 180 de distribución de datos distribuye los datos de atributos asociados con diversos objetos a un dispositivo que despliega imágenes de estos objetos, y despliega los datos de atributos enviados en la pantalla de ese dispositivo. Por ejemplo, la unidad 180 de distribución de datos recibe una solicitud para los datos transmitidos desde el dispositivo 200 de terminal ilustrado en la Figura 1. La solicitud de datos puede incluir imágenes capturadas por el dispositivo 200 de terminal o cantidades de característica extraídas de estas imágenes. La unidad 180 de distribución de datos produce las imágenes o las cantidades de característica de imágenes incluidas en la solicitud de datos a la unidad 130 de identificación de objetos para permitir a los objetos identificarse en las imágenes. Además, si el ID (identificador ) de un objeto en una imagen capturada por el dispositivo 200 de terminal se incluye en la solicitud de datos, la identificación de un objeto por la unidad 130 de identificación de objetos puede omitirse. Entonces, la unidad 180 de distribución de datos adquiere datos de atributos asociados con el ID de objeto del objeto identificado a partir de la BD 160 de atributos. Además, la unidad 180 de distribución de datos distribuye los datos de atributos adquiridos al dispositivo 200 de terminal. La unidad 180 de distribución de datos además puede distribuir los datos de ubicación que representan las ubicaciones del objeto identificado en la imagen al dispositivo 200 de terminal. (8) Unidad de interfaz de usuario La unidad 190 de interfaz de usuario puede proporcionar diversas interfases de usuario a usuarios que se conforman al propósito de una aplicación. Por ejemplo, la unidad 190 de interfaz de usuario puede proporcionar pantallas de UI de modo que los usuarios puedan leer o editar los datos 142 de objetos, la tabla 144 de control de atributos, los datos 162 de atributos o los datos 164 de historial. Además, la interfaz 190 de usuario puede proporcionar pantallas de aprobación para que los usuarios sean capaces de recibir la aprobación a partir de los usuarios con la actualización de los datos de atributos. <3. Ejemplos constitucionales de un dispositivo de terminal> 3-1. Configuración de hardware La Figura 5 es un diagrama de bloque que ilustra un ejemplo de la configuración de hardware de un dispositivo 200 de terminal de acuerdo con una modalidad. Con referencia a la Figura 5, el dispositivo 200 de terminal incluye una unidad 202 de captura de imágenes, una unidad 204 de entrada, una unidad 206 de almacenamiento, una unidad 210 de visualización, una unidad 212 de comunicación, una unidad 214 de salida de voz, un bus 216 y una unidad 218 de control. (1) Unidad de captura de imágenes La unidad 202 de captura de imágenes es un módulo de cámara que captura imágenes. La unidad 202 de captura de imágenes captura sujetos con elementos de captura de imágenes, tal como un CCD o un CMOS, y genera imágenes capturadas. La unidad 202 de captura de imágenes no siempre puede ser parte del dispositivo 200 de terminal. Por ejemplo, un dispositivo de captura de imágenes conectado en una forma alámbrica o inalámbrica al dispositivo 200 de terminal puede tratarse como la unidad 202 de captura de imágenes. (2) Unidad de entrada La unidad 204 de entrada es un dispositivo de entrada, el cual se utiliza por un usuario para operar el dispositivo 200 de terminal o la información de entrada al dispositivo 200 de terminal. Por ejemplo, la unidad 204 de entrada puede incluir un sensor táctil, que detecta el tacto por un usuario en la pantalla de la unidad 210 de visualización . En lugar de (o además), la unidad 204 de entrada puede incluir un dispositivo de señalización, tal como un ratón o una almohadilla táctil. Además, la unidad 204 de entrada puede incluir otros dispositivos de entrada, tal como un teclado, un teclado numérico, botones, un interruptor o un control remoto. (3) Unidad de almacenamiento La unidad 206 de almacenamiento incluye un medio de almacenamiento, tal como una memoria semiconductora o un disco duro, y almacena programas y datos para procesar con el dispositivo 200 de terminal. Los datos almacenados en la unidad 206 de almacenamiento pueden incluir, por ejemplo, datos enviados desde el dispositivo 100 de procesamiento de imágenes descrito en lo anterior. Además, una porción o todos los programas o datos en la especificación pueden adquirirse a partir de las fuentes de datos externas (por ejemplo, servidores de datos, almacenamiento en red o memorias externas, etc.) sin que se almacene por la unidad 206 de almacenamiento . (4) Unidad de visualización La unidad 210 de visualización es un módulo de visualización que incluye una LCD, un OLED o un CRT. Además, la unidad 210 de visualización no siempre puede ser parte del dispositivo 200 de terminal. Por ejemplo, un dispositivo de visualización conectado en una forma alámbrica o inalámbrica al dispositivo 200 de terminal puede tratarse como la unidad 210 de visualización. (5) Unidad de comunicación La unidad 212 de comunicación es una interfaz de comunicación, la cual modera la comunicación entre otros dispositivos (por ejemplo, el dispositivo 100 de procesamiento de imágenes) y el dispositivo 200 de terminal. La unidad 212 de comunicación soporta cualquier protocolo de comunicación inalámbrico o alámbrico y establece la conexión de comunicación con otros dispositivos. (6) Unidad de salida de voz La unidad 214 de salida de voz es un módulo de salida de voz, el cual incluye un altavoz, por ejemplo. Además, la unidad 214 de salida de voz no siempre puede ser parte del dispositivo 200 de terminal. Por ejemplo, una unidad de salida de voz conectada en una forma alámbrica o inalámbrica al dispositivo 200 de terminal puede tratarse como la unidad 214 de salida de voz. (7) Bus El bus 216 conecta la unidad 202 de captura de imágenes, la unidad 204 de entrada, la unidad 206 de almacenamiento, la unidad 210 de visualización, la unidad 212 de comunicación, la unidad 214 de salida de voz y la unidad 218 de control entre sí. (8) Unidad de control La unidad 218 de control corresponde a un procesador, tal como una CPU o un DSP. La unidad 218 de control ejecuta programas almacenados en la unidad 206 de almacenamiento u otro medio de almacenamiento para operar diversas funciones del dispositivo 200 de terminal, los cuales se describirán posteriormente. 3-2. Configuración funcional La Figura 6 es un diagrama de bloque que ilustra un ejemplo de la configuración funcional lógica realizada por la unidad 206 de almacenamiento y la unidad 218 de control del dispositivo 200 de terminal mostrado en la Figura 5. Con referencia a la Figura 6, el dispositivo 200 de terminal incluye una unidad 220 de adquisición de imágenes, una unidad 230 de adquisición de datos, una unidad 240 de control de visualización y una unidad 250 de interfaz de usuario. (1) Unidad de adquisición de imágenes La unidad 220 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 202 de captura de imágenes como imágenes de entrada. En las imágenes de entrada, aparecen diversos objetos presentes en el espacio real. La unidad 220 de adquisición de imágenes secuencialmente produce las imágenes de entrada adquiridas a la unidad 230 de adquisición de datos y la unidad 240 de control de visualización. (2) Unidad de adquisición de datos La unidad 230 de adquisición de datos adquiere datos de atributos asociados con objetos identificados en las imágenes de entrada adquiridas por la unidad 220 de adquisición de imágenes. Por ejemplo, la unidad 230 de adquisición de datos transmite solicitudes para datos que incluyen las imágenes de entrada o las cantidades de característica de imágenes de las imágenes de entrada al dispositivo 100 de procesamiento de imágenes. La unidad 230 de adquisición de datos identifica los objetos en las imágenes de entrada y pueden incluir el ID de objeto del objeto identificado en la solicitud de datos. Además, la unidad 230 de adquisición de datos puede adquirir datos de atributos enviados desde el dispositivo 100 de procesamiento de imágenes en respuesta a la solicitud de datos . Además de los datos de atributos, los datos de ubicación que representan la ubicación del objeto identificado en la imagen pueden adquirirse adicionalmente a partir del dispositivo 100 de procesamiento de imágenes. Además, la unidad 230 de adquisición de datos produce los datos de atributos adquiridos (y los datos de ubicación) a la unidad 240 de control de visualización.
En esta modalidad, los datos de atributos adquiridos desde la unidad 230 de adquisición de datos pueden incluir datos de atributos asociados con un segundo objeto implicado en un acto físico con un primer objeto. Los datos de atributos pueden ser datos los cuales se asocian con el primer objeto antes de que se detecte el evento correspondiente a un acto físico, y se asocian nuevamente con el segundo objeto en respuesta a la detección de tal evento. En otras palabras, al leer los datos de atributos adquiridos por la unidad 230 de adquisición de datos, los detalles de las acciones tomadas para el objeto en una imagen de entrada pueden reconocerse. Además, los datos de atributos adquiridos a partir del dispositivo 100 de procesamiento de imágenes pueden representarse en un tipo de datos de historial determinados en un registro de la hora. (3) Unidad de control de visualización La unidad de control de visualización controla la visualización de imágenes y datos en el dispositivo 200 de terminal. Por ejemplo, si los datos de atributos asociados con objetos en las imágenes de entrada se adquieren por la unidad 230 de adquisición de datos, la unidad 240 de control de visualización superpone los datos de atributos adquiridos con las imágenes de entrada. Los datos de atributos pueden representarse junto con los ID de objeto o los nombres de los objetos sin depender de la ubicación de los objetos asociados. En lugar de ello, los datos de atributos pueden representarse para superponerse en la ubicación del objeto asociado en la imagen o para representar la ubicación.
La Figura 7 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas para una modalidad. A la izquierda de la Figura 7, una imagen ImOO de entrada se ilustra como un ejemplo que puede capturar la imagen por el dispositivo 200 de terminal. En la imagen ImOO de entrada, aparece un objeto Obj2. El dispositivo 200 de terminal transmite una solicitud de datos, solicitando datos para superponerse con la imagen ImOO de entrada, al dispositivo 100 de procesamiento de imágenes, y recibe los datos enviados desde el dispositivo 100 de procesamiento de imágenes. A la derecha de la Figura 7, se ilustra una imagen ImOl de salida como un ejemplo que puede desplegarse por el dispositivo 200 de terminal. La imagen ImOl de salida se genera al superponer un objeto virtual, un mensaje MSG1, con la imagen ImOO de entrada. El mensaje MSG1 se genera basado en los datos 162 de atributos ilustrados en la mitad inferior en, por ejemplo, la Figura 4, y representa que el objeto Obj2 en la imagen ImOO de entrada contiene sustancias SB1 y SB2. El usuario del dispositivo 200 de terminal puede reconocer al visualizar la imagen ImOl de salida, por ejemplo, que se ha realizado una acción de agregar las sustancias SB1 y SB2 al objeto 0bj2. Además, la lectura de voz del mensaje MSG1 puede producirse a través de la unidad 214 de salida de voz en lugar del mensaje MSG1 que se despliega por la unidad 240 de control de visualización a través de la unidad 210 de visualización . (4) Unidad de interfaz de usuario La unidad 250 de interfaz de usuario puede proporcionar diversas interfases de usuario a usuarios que se conforman para propósitos de una aplicación. Por ejemplo, la unidad 250 de interfaz de usuario puede proporcionar pantallas de UI para indicar claramente que los datos de atributos se adquieren por la unidad 230 de adquisición de datos a partir de un usuario.
Hasta ahora, se ha dado la descripción conceptual de una modalidad de acuerdo con la descripción. En cuatro ejemplos de los siguientes párrafos, las situaciones de aplicación particular de la tecnología de acuerdo con la descripción se discutirán respectivamente y se describirán nuevos detalles de acuerdo con la tecnología. <4. Primer ejemplo> En el primer ejemplo, la transportación de medicamento líquido en la práctica médica se ilustra como un objetivo de la gestión de historial. Por consiguiente, el dispositivo 100 de procesamiento de imágenes detecta eventos que corresponden a actos físicos entre las herramientas médicas que utilizan las personas tales como doctores, enfermeras o farmacéuticos para tratar con un medicamento líquido. (1) Ejemplo de los objetos La Figura 8 es un diagrama explicativo para describir un ejemplo de los datos de objeto en el primer ejemplo. Con referencia a la Figura 8, los datos 142a de objeto se ilustra como un ejemplo almacenado en la BD 140 de objetos. Los datos 142a de objeto incluyen cinco elementos de datos que se denominan "ID de Objeto", "Nombre", "Número de Producto", "Tipo" y "Cantidad de característica." "ID de Objeto" es un identificador para identificar inmediatamente cada objeto. "Nombre" representa un nombre determinado para cada objeto. En el ejemplo de la Figura 8, como nombres, "frasco" se determina para un objeto Objll, "Jeringa" se determina para un objeto Objl2 y "Bolsa de solución de Ringer" se determina para un objeto 0bjl3. "Número de Producto" representa cadenas de caracteres determinadas para distinguir individualmente la misma clase de objetos.
"Tipo" es un elemento denominado para controlar atributos por la unidad 170 de control de atributos y al menos uno de una pluralidad de tipos de candidatos se define para cada objeto. En este ejemplo, algunos de los siguientes tres tipos de candidatos se asignan para cada objeto.
"ORIGEN" ... Un tipo que representa el objeto de la fuente de transporte de una sustancia "TRANSPORTADOR" ... Un tipo que representa un objeto capaz de transportar la sustancia "DESTINO" ... Un tipo que representa el objeto de un destino de transporte de la sustancia En el ejemplo de la Figura 8, el tipo del objeto Objll es "ORIGEN", el tipo del objeto 0bjl2 es "TRANSPORTADOR", y el tipo del objeto Objll es "DESTINO".
"Cantidad de Característica" se extrae de una imagen conocida para cada objeto. La unidad 130 de identificación de objetos combina cantidades de característica de imágenes extraídas de una imagen de entrada con tales cantidades de característica de los datos 142a de objeto, y puede identificar objetos en la imagen de entrada. (2) Evento En este ejemplo, la unidad 150 de detección de eventos detecta eventos que corresponden a actos físicos entre las herramientas médicas identificadas por la unidad 130 de identificación de objetos. Por ejemplo, los siguientes eventos pueden discutirse como eventos en los cuales los objetos ilustrados en la Figura 8 toman parte.
Evento Evll) Inyección de medicamento líquido en la jeringa desde el frasco Evento Evl2) Inyección de medicamento líquido a una bolsa de solución de Ringer desde la jeringa Estos eventos pueden detectarse si se satisfacen las condiciones de detección de eventos dadas, por ejemplo, dos eventos. Las condiciones de detección de eventos determinadas pueden ser parte de las siguientes condiciones.
Condición Cll) La distancia entre dos objetos es menor que un valor de umbral.
Condición C12) El tiempo durante el cual la condición Cll se ha satisfecho continuamente es sobre un valor de umbral.
Condición C13) Se identifica un gesto determinado de una persona con respecto a dos objetos.
La distancia en la condición Cll puede ser una distancia 2D en una imagen de entrada o una distancia 3D en un espacio real, el cual se reconoce basado en la tecnología de reconocimiento de estructura 3D conocida. Los valores de umbral para las condiciones Cll y C12 pueden definirse en común sin depender de objetos o individualmente para cada obj eto .
Si se detectan eventos que corresponden a actos físicos entre una pluralidad de objetos de acuerdo con las condiciones de detección de eventos descritas en lo anterior, la unidad 150 de detección de eventos notifica la unidad 170 de control de atributos del evento detectado. (3) Control sobre atributos En este ejemplo, si los tipos definidos para objetos implicados en los eventos detectados satisfacen las condiciones de control de atributos determinadas, la unidad 170 de control de atributos cambia los atributos de estos objetos. Las condiciones de control de atributos se definen en una tabla de control de atributos descrita en lo anterior.
La Figura 9 es un diagrama explicativo para describir un ejemplo de una tabla de control de atributos en el primer ejemplo. Con referencia a la Figura 9, la tabla 144a de control de atributos se encuentra representada como un ejemplo almacenado en la BD 140 de objetos. La tabla 144a de control de atributos se define en una forma de matriz con tres tipos de objetos en ambas columnas e hileras. Cada columna corresponde al tipo de un primer objeto implicado en un evento. Cada hilera corresponde al tipo de un segundo objeto implicado en el evento.
Por ejemplo, si el tipo del primer objeto es "ORIGEN" y el tipo del segundo objeto es "TRANSPORTADOR", entonces un atributo asociado con el primer objeto se agrega a (o se asocia nuevamente con) el segundo objeto. El atributo del primer objeto no se actualiza.
Además, si el tipo del primer objeto es "TRANSPORTADOR", y el tipo del segundo objeto "DESTINO", entonces el atributo asociado con el primer objeto se agrega al segundo objeto. El atributo del primer objeto se elimina.
Para combinaciones de otros tipos, los atributos del primer y segundo objetos no se actualizan.
En otras palabras, si un evento se detecta por la unidad 150 de detección de eventos, entonces la unidad 170 de control de atributos especifica un objeto implicado en el evento detectado, y determina el contenido de control de los atributos que corresponden a la combinación de los tipos del objeto especificado al referirse a la tabla 144a de control de atributos. Además, la unidad 170 de control de atributos actualiza los datos 162 de atributos almacenados en la BD 160 de atributos de acuerdo con el contenido de control determinado. La actualización de los datos 162 de atributos en este punto puede incluir la asociación de nuevos atributos con el objeto especificado y la eliminación de los atributos del objeto especificado. Además, la unidad 170 de control de atributos agrega un registro que corresponde al evento detectado para los datos de atributos, los cuales se describirán posteriormente. (4) Transición de datos Las Figuras 10A y 10B son diagramas explicativos para describir un ejemplo de la transición de estado de los datos de atributos de acuerdo con un escenario ejemplar en este ejemplo. A la izquierda de los dibujos, cuatro imágenes Imll a Iml4 de entrada adquiridas en una serie de tiempo se ilustran secuencialmente , y a la derecha del mismo, se ilustra el contenido parcial de los datos 162a de atributos en cada punto de tiempo.
Con referencia a la Figura 10A, aparecen en la imagen Imll de entrada, un frasco Objll y una jeringa 0bjl2. Para los datos 162a de atributos, un atributo que representa una sustancia SBll se asocia con el frasco Objll. Esto representa que la sustancia SBll se encuentra contenida en el frasco Objll. Por otro lado, ningún valor de atributo se asocia con la jeringa 0bjl2. Esto representa que nada se encuentra contenido en la jeringa 0b l2.
Además, en la imagen Iml2 de entrada, la jeringa 0b l2 aparece en un margen de un valor DI de umbral de distancia desde el frasco Objll. La unidad 150 de detección de eventos detecta un evento correspondiente a la extracción del medicamento liquido entre el frasco Objll y la jeringa Objl2, de acuerdo con, por ejemplo, la condición Cll o C12 que detecta el evento descrito en lo anterior. De acuerdo con los datos 142a de objeto, el tipo de frasco Objll es "ORIGEN", y el tipo de jeringa Objl2 es "TRANSPORTADOR" . La unidad 170 de control de atributos determina el contenido de control de los atributos que corresponden a la combinación de "ORIGEN" y "TRANSPORTADOR" al referirse a la tabla 144a de control de atributos, y asocia nuevamente el valor de los atributos "SBll" asociado con el frasco Objll, con la jeringa Objl2. Como resultado, los datos 162a de atributo representan que la sustancia SBll se ha contenido en la jeringa Objl2.
Entonces, con referencia a la Figura 10B, aparece en la imagen Iml3 de entrada, la jeringa Objl2 y una bolsa de solución de Ringer 0bjl3. Para los datos 162a de atributos, un valor de los atributos que representa la sustancia SB12 se asocia con la bolsa de solución de Ringer 0bjl3. Esto es resultado de una acción antes del escenario mostrado en las Figuras 10A y 10B, y representa que la sustancia SB12 se ha contenido en la bolsa de solución de Ringer 0bjl3.
Además, aparece en la imagen Iml4 de entrada, dentro de un margen de un valor DI de umbral de distancia desde la jeringa 0bjl2, la bolsa de solución de Ringer 0bjl3. La unidad 150 de detección de eventos detecta un evento correspondiente a la inyección del medicamento liquido entre la jeringa 0bjl2 y la bolsa de solución de Ringer 0bjl3 de acuerdo con, por ejemplo, la condición Cll o C12 que detecta el evento descrito en lo anterior. De acuerdo con los datos 142a de objeto, el tipo de la jeringa Objl2 es "TRANSPORTADOR", y el tipo de la bolsa de solución de Ringer Objl3 es "DESTINO". La unidad 170 de control de atributos determina el contenido de control de los atributos que corresponden a la combinación de "TRANSPORTADOR" y "DESTINO" al referirse a la tabla 144a de control de atributos, y asocia nuevamente el valor del atributo "SB11" asociado con la jeringa 0bjl2, con la bolsa de solución de Ringer 0bjl3. Como resultado, los datos 162a de atributos representan que las sustancias SB11 y SB12 se han contenido en la bolsa de solución de Ringer 0bjl3.
La Figura 11 representa el contenido de los datos 164a de historial como un ejemplo generado por la unidad 170 de control de atributos entre los escenarios descritos en lo anterior. Con referencia a la Figura 11, los datos 164a de historial incluyen cuatro elementos de datos que se denominan "ID de Objeto", "Atributos (antes)", "Atributos (después)", y "Tiempo". "ID de Objeto" es un identificador, el cual identifica los objetos implicados en un historial, que representa cada registro. "Atributos (antes)" representa el valor de los atributos de un objeto antes de que se actualice por la unidad 170 de control de atributos. "Atributos (después)" representa el valor de los atributos de un objeto después de que se actualice por la unidad 170 de control de atributos. "Tiempo" representa el tiempo de detección de un evento correspondiente (o puede ser el tiempo actualizado de un atributo) . La unidad 170 de control de atributos adquiere datos de autenticación de tiempo que corresponden a estos tiempos desdé un servidor de autenticación de tiempo externo, y puede almacenar los datos de autenticación de tiempo adquiridos al asociar los datos de autenticación de tiempo obtenidos con el historial como se muestra en la FIGURA 11 para mejorar la conflabilidad del historial. En el ejemplo de la Figura 11, la actualización del atributo de la jeringa 0bjl2 en el tiempo Til, y la actualización de los atributos de la jeringa 0bjl2 y la bolsa de solución de Ringer 0bjl3 y al tiempo T12 se ilustran como los datos 164a de historial. (5) Ejemplo de Visualización La Figura 12 es un diagrama explicativo para describir un ejemplo de imágenes de salida mostradas por el dispositivo 200 de terminal para este ejemplo. Con referencia a la Figura 12, una imagen Iml9 de salida se ilustra como un ejemplo. Además, aparece en la imagen Iml9 de salida, el frasco Objll y la bolsa de solución de Ringer Objl3. Además, un mensaje SG11 indica que el frasco Objll y un mensaje MSG12 indica que la bolsa de solución de Ringer 0bjl3 se superponen con la imagen Iml9 de salida. El mensaje MSG11 representa que el frasco Objll contiene la sustancia SB11. El mensaje MSG12 representa que la bolsa de solución de Ringer Objl3 contiene las sustancias SBll y SB12. El usuario del dispositivo 200 de terminal puede reconocer fácilmente, por ejemplo, al leer tal mensaje MSG12, si el medicamento liquido apropiado se ha inyectado en la bolsa de solución de Ringer 0bjl3. (6) Flujo de procesamiento (6-1) Procesamiento de control de atributos La Figura 13 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos por el dispositivo 100 de procesamiento de imágenes en este ejemplo. El procesamiento de control de atributos mostrado en la Figura 13 se repite para las imágenes de entrada secuencialmente adquiridas por la unidad 120 de adquisición de imágenes.
En primer lugar, la unidad 120 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 102 de captura de imágenes como imágenes de entrada (etapa S100) . Además, la unidad 120 de adquisición de imágenes produce las imágenes de entrada adquiridas a la unidad 130 de identificación de objetos.
Después, la unidad 130 de identificación de objetos identifica los objetos en las imágenes de entrada con cantidades de característica conocidas de cada objeto almacenado por la BD 140 de objetos (etapa S104).
Después, la unidad 150 de detección de eventos determina si se satisfacen las condiciones de detección de eventos descritas en lo anterior para los objetos identificados por la unidad 130 de identificación de objetos (etapa S108). En este punto, cuando las condiciones de detección de eventos no se satisfacen, el siguiente proceso se omite (etapa S112) . Si las condiciones de detección de eventos se satisfacen, la unidad 150 de detección de eventos notifica a la unidad 170 de control de atributos del evento detectado .
Si el evento se detecta por la unidad 150 de detección de eventos, la unidad 170 de control de atributos determina el contenido de control de los atributos de objetos implicados en el evento detectado utilizando datos 144a de control de atributos (etapa S116). Además, si se determina mover un valor de los atributos desde un primer objeto hasta un segundo objeto (etapa S120), entonces la unidad 170 de control de atributos asocia el valor de los atributos asociado con el primer objeto, con el segundo objeto (etapa S124). Además, si se determina eliminar el valor de los atributos del primer objeto (etapa S128), entonces la unidad 170 de control de atributos elimina el valor de los atributos asociado con el primer objeto (etapa S132) .
Además, la unidad 170 de control de atributos almacena nuevos registros de datos 164a de historial que incluyen los valores de atributos antes y después de que se actualicen en la BD 160 de atributos (etapa S148). (6-2) Procesamiento de control de visualización La Figura 14 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de visualización por el dispositivo 200 de terminal en este ejemplo. El procesamiento de control de visualización mostrado en la Figura 14 puede repetirse para las imágenes de entrada secuencialmente adquiridas por la unidad 220 de adquisición de imágenes del dispositivo 200 de terminal, o realizarse una vez durante una imagen de entrada adquirida como una instantánea.
En primer lugar, la unidad 220 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 202 de captura de imágenes como imágenes de entrada (etapa S150) . Además, la unidad 220 de adquisición de imágenes produce las imágenes de entrada adquiridas para la unidad 230 de adquisición de datos y la unidad 240 de control de visualización .
Después, la unidad 230 de adquisición de datos transmite una solicitud de datos, solicitando los datos de atributos asociados con objetos identificados en las imágenes de entrada adquiridas, al dispositivo 100 de procesamiento de imágenes (etapa S154) . La unidad 230 de obtención de datos recibe una respuesta que corresponde a la solicitud de datos desde el dispositivo 100 de procesamiento de imágenes (etapa S158) . En este punto, si los datos de atributos descritos en lo anterior como una respuesta de la solicitud de datos se han recibido, el procesamiento procede a S170. Por otro lado, si los datos de atributos no se han recibido, las imágenes de entrada se despliegan por la unidad 240 de control de visualización (etapa S166) .
En S170, la unidad 240 de control de visualización genera imágenes de salida al superponer los datos de atributos adquiridos por la unidad 230 de adquisición de datos con las imágenes de entrada (etapa S170) . Además, la unidad 240 de control de visualización despliega las imágenes de salida en la unidad 210 de visualización (etapa S164).
Hasta ahora, un primer ejemplo se ha descrito con referencia a las Figuras 8 a 14. De acuerdo con este ejemplo, en un estado en el cual el medicamento líquido se transporta desde una herramienta médica a otra herramienta médica, es posible reconocer la configuración del medicamento líquido contenido en una herramienta médica a través de los atributos de un objeto.
En general, una vez que se transporta el medicamento líquido a una herramienta médica, es difícil para personas distintas al operador saber lo que se encuentra contenido en la herramienta médica a menos, por ejemplo, que se escriba un memo. Sin embargo, de acuerdo con este ejemplo, personas distintas al operador también pueden reconocer fácilmente qué se encuentra contenido en la herramienta médica al leer un historial de actualización de los atributos o los datos de atributos de un objeto.
Además, no existe necesidad de que el operador en las prácticas médicas ingrese datos cuando se actualicen los atributos de un objeto. Por consiguiente, se previene escribir un historial incorrectamente o datos incorrectos debido a la presión excesiva en el operador. <5. Segundo ejemplo> En el segundo ejemplo, una combinación del medicamento en la preparación del medicamento se ilustra como el objetivo de la gestión de historial. Por consiguiente, el dispositivo 100 de procesamiento de imágenes detecta un evento correspondiente a un acto físico entre las herramientas de preparación de medicamento utilizadas cuando personas tales como doctores, enfermeras o farmacéuticos se hacen cargo del medicamento. Además, la descripción de los mismos elementos como en el primer ejemplo se omite a partir de este ejemplo para aclarar la descripción. (1) Ejemplo de un objeto La Figura 15 es un diagrama explicativo para describir un ejemplo de los datos de objeto en el segundo ejemplo. Con referencia a la Figura 15, Los datos 142b de objetos se representan como un ejemplo almacenado por la BD 140 de objetos. Los datos 142b de objetos incluyen cinco elementos de datos que se denominan "ID de Objeto", "Nombre", "Número de Producto", "Tipo" y "Cantidad de Característica", como se representa como los datos 142a de objeto en el primer ej emplo .
En el ejemplo de la Figura 15, como nombres, "Botella de Medicamento" se da a un objeto Obj21, "Cuchara" se da a un objeto Obj22, "Paquete de Medicamento" se da a un objeto Obj23, "Báscula" se da a un objeto Obj24, y "Paquete" se da a un objeto Obj25.
Para este ejemplo, algunos de los siguientes cinco tipos se asignan para cada objeto.
"ORIGEN"... Un tipo que representa el objeto de la fuente de transporte de la sustancia "TRANSPORTADOR 1" ...Un tipo que representa un objeto capaz de transportar la sustancia "TRANSPORTADOR 2"... Un tipo que representa un objeto capaz de transportar la sustancia "BÁSCULA" ...Un tipo que representa un objeto capaz de medir la sustancia "DESTINO" ... Un tipo que representa el objeto del destino de transporte de la sustancia En el ejemplo de la Figura 15, el tipo del objeto Obj21 es "ORIGEN", el tipo del objeto Obj22 es "TRANSPORTADOR 1", el tipo del objeto Obj23 es "TRANSPORTADOR 2", el tipo del objeto Obj24 es "BÁSCULA", y el tipo del objeto Obj25 es "DESTINO" . (2) Evento Para este ejemplo, la unidad 150 de detección de eventos detecta un evento correspondiente a un acto físico entre las herramientas de preparación de medicamento identificadas por la unidad 130 de identificación de objetos. Por ejemplo, los siguientes eventos se determinan como eventos en los cuales los objetos ilustrados en la Figura 15 toman parte.
Evento Ev21) Tomar el medicamento de una botella de medicamento con una cuchara Evento Ev22) Movimiento del medicamento desde la cuchara hasta un paquete de medicamento Evento Ev23) Poner el medicamento en un paquete desde la cuchara Evento Ev24) Poner el medicamento en el paquete desde el paquete de medicamento Evento Ev25) Medir el medicamento contenido en el paquete de medicamento en una báscula Estos eventos pueden detectarse bajo condiciones que satisfacen las condiciones de detección de eventos determinadas, por ejemplo, para dos objetos. Las condiciones de detección de eventos determinadas pueden ser algunas de las siguientes condiciones, por ejemplo.
Condición C21) La distancia entre dos objetos es menor que un valor de umbral.
Condición C22) Un objeto se coloca sobre otro obj eto .
Condición C23) El tiempo por el cual la condición C21 o la condición C22 se ha satisfecho continuamente es sobre un valor de umbral.
Condición C24) Se identifica un gesto determinado de una persona utilizando dos objetos.
La distancia en la condición C21 puede ser una distancia 2D en una imagen de entrada o una distancia 3D en el espacio real reconocido basado en la tecnología de reconocimiento de estructura 3D conocida. Valores de umbral para las condiciones C21 y C23 pueden definirse en común sin depender de objetos o individualmente para cada objeto. (3) Control de los atributos En este ejemplo, si los tipos definidos por los objetos implicados en el evento detectado satisfacen las condiciones de control de atributos determinadas, la unidad 170 de control de atributos cambia los atributos de estos objetos. Las condiciones de control de atributos se definen en una tabla de control de atributos .
La Figura 16 es un diagrama explicativo para describir un ejemplo de una tabla de control de atributos en el segundo ejemplo. Con referencia a la Figura 16, una tabla 144b de control de atributos se ilustra como un ejemplo almacenado en la BD 140 de objetos. La tabla 144b de control de atributos se define en una forma de matriz con cinco tipos de los objetos en ambas columnas e hileras. Cada columna corresponde al tipo de un primer objeto implicado en un evento. Cada hilera corresponde al tipo de un segundo objeto implicado en el evento.
Por ejemplo, si el tipo del primer objeto es "ORIGEN" y el tipo del segundo objeto es "TRANSPORTADOR 1" o "TRANSPORTADOR 2", entonces un atributo asociado con el primer objeto se agrega a (o se asocia nuevamente con) el segundo objeto. Los atributos del primer objeto no se actualizan.
Además, si el tipo del primer objeto es "TRANSPORTADOR 1" y el tipo del segundo objeto es "TRANSPORTADOR 2 " o "DESTINO", entonces un atributo asociado con el primer objeto se agrega al segundo objeto. El atributo del primer objeto se elimina.
Además, si el tipo del primer objeto es "TRANSPORTADOR 2" y el tipo del segundo objeto es "DESTINO", entonces un atributo asociado con el primer objeto se agrega al segundo objeto. El atributo del primer objeto se elimina.
Además, si el tipo del primer objeto es "TRANSPORTADOR 2" y el tipo del segundo objeto es "BÁSCULA", entonces la cantidad de la sustancia se agrega a un atributo asociado con el segundo objeto. En otras palabras, la unidad 170 de control de atributos lee la medición que resulta por una báscula, por ejemplo, con el tipo "Báscula" de una tecnología de imagen de entrada (al aplicar el OCR conocido (Reconocimiento de Carácter Óptico) a un panel de visualización) , y agregar el valor para la cantidad leída para los atributos del segundo objeto.
Igualmente, si el tipo del primer objeto es "Báscula" y el tipo del segundo objeto es "DESTINO", entonces la cantidad de la sustancia se agrega a un atributo asociado con el primer objeto.
Para otros tipos de combinaciones, los atributos del primer y segundo objetos no se actualizan.
Además, para una herramienta, tal como una cuchara de medición, dos tipos que se denominan "TRANSPORTADOR 2" y "Báscula" pueden establecerse. Además, para una herramienta utilizada para medir una cantidad fija, un valor predefinido para una cantidad fija en lugar de un valor de lectura dinámicamente puede asignarse. (4) Transición de datos Las Figuras 17A y 17B son diagramas explicativos para describir un ejemplo de la transición de estado de los datos de atributos de acuerdo con un escenario ejemplar en este ejemplo. A la izquierda de estos dibujos, seis imágenes Im21 a Im26 de entrada adquiridas en una serie de tiempo se ilustran secuencialmente, y a la derecha de las mismas, el contenido parcial de los datos 162b de atributos en cada punto de tiempo se ilustra.
Con referencia a la Figura 17A, aparece en la imagen Im21 de entrada, una Botella Obj21 de medicamento y una cuchara Obj22. Para los datos 162b de atributos, un valor de los atributos que representa una sustancia SB21 se asocia con la botella Obj21 de medicamento. Esto representa que la sustancia SB21 se encuentra contenida en la botella 0bj21 de medicamento. Por otro lado, valores sin atributos se asocian con la cuchara Obj22. Esto representa que nada se encuentra contenido en la cuchara Obj22.
Después, en la imagen Im22 de entrada, la cuchara Obj22 aparece sobre la botella 0bj21 de medicamento. La unidad 150 de detección de eventos detecta un evento correspondiente a la extracción del medicamento entre la botella Obj21 de medicamento y la cuchara Obj22, de acuerdo con, por ejemplo, el evento que detecta la condición C22 o C23 descritos en lo anterior. De acuerdo con Los datos 142b de objetos, el tipo de la botella Obj21 de medicamento es "ORIGEN" y el tipo de la cuchara Obj22 es "TRANSPORTADOR 1". La unidad 170 de control de atributos determina el contenido de control de los atributos que corresponden a la combinación de "ORIGEN" y "TRANSPORTADOR 1" al referirse a la tabla 144b de control de atributos, y se asocia nuevamente el valor "SB21" de atributo asociado con la botella Obj21 de medicamento, con la cuchara Obj22. Como resultado, los datos 162b de atributos representan que la sustancia SB21 se encuentra contenida en la cuchara Obj22.
Después, aparece en la imagen Im23 de entrada, la cuchara Obj22, el paquete Obj23 de medicamento y la báscula Obj24. Para los datos 162b de atributos, un valor de los atributos que representa la sustancia SB21 se asocia con la cuchara Obj22. Por otro lado, el valor sin atributos se asocia con el paquete Obj23 de medicamento.
Después, con referencia a la Figura 17B, en la imagen Im24 de entrada, la cuchara Obj22 aparece sobre el paquete Obj23 de medicamento. La unidad 150 de detección de eventos detecta un evento correspondiente al movimiento del medicamento entre la cuchara Obj22 y el paquete Obj23 de medicamento, de acuerdo con, por ejemplo, el evento detecta la condición C22 o C23 descrito en lo anterior. De acuerdo con Los datos 142b de objetos, el tipo de la cuchara 0bj22 es "TRANSPORTADOR 1" y el tipo del paquete Ob 23 de medicamento es el "TRANSPORTADOR 2." La unidad 170 de control de atributos determina el contenido de control de los atributos que corresponde a la combinación de "TRANSPORTADOR 1" y "TRANSPORTADOR 2" al referirse a la tabla 144b de control de atributos, y asocia nuevamente el valor "SB21" de atributos asociado con la cuchara Obj22, con el paquete Obj23 de medicamento. Como resultado, los datos 162b de atributos representan que la sustancia SB21 se encuentra contenida en el paquete Obj23 de medicamento.
Después, aparece en la imagen Im25 de entrada, una figura en la cual la báscula Obj24 mide la cantidad de la sustancia contenida en el paquete Obj23 de medicamento. De acuerdo con Los datos 142b de objetos, el tipo de paquete Obj23 de medicamento es "TRANSPORTADOR 2" y el tipo de la báscula Obj24 es "BÁSCULA." La unidad 170 de control de atributos lee los valores para la cantidad desplegada por la báscula Obj24 desde la imagen Im25 de entrada, y agrega los valores de lectura al atributo del paquete Obj23 de medicamento. En el ejemplo de la Figura 17B, los datos 162b de atributos representan que 3.0 g de la sustancia SB21 se encuentran contenidos en el paquete Obj23 de medicamento.
Después, en la imagen Im26 de entrada, el paquete Obj23 de medicamento aparece sobre el paquete Obj25. La unidad 150 de detección de eventos detecta un evento correspondiente a la puesta del medicamento en el paquete Ob 25 desde el paquete Ob 23 de medicamento. De acuerdo con Los datos 142b de objetos, el tipo del paquete Obj23 de medicamento es "TRANSPORTADOR 2" y el tipo del paquete Obj25 es "DESTINO". La unidad 170 de control de atributos determina el contenido de control de los atributos que corresponden a la combinación del "TRANSPORTADOR 2" y "DESTINO" al referirse a la tabla 144b de control de atributos, y asocia nuevamente el valor de los atributos "SB21_3.0g" asociado con el paquete Ob 23 de medicamento, con el paquete Obj25. Como resultado, los datos 162b de atributos representan que 3.0 g de la sustancia SB21 se encuentra contenida en el paquete Obj25. (5) Ejemplo de visualización La Figura 18 es un diagrama explicativo para describir un ejemplo de imágenes de salida desplegadas por el dispositivo 200 de terminal para este ejemplo. Con referencia a la Figura 18, una imagen Im29 de salida se ilustra como un ejemplo. En la imagen Im29 de salida, aparece el paquete Obj25. Además, la imagen Im29 de salida se superpone con un mensaje MSG21 que indica el paquete Obj25. El mensaje MSG21 representa que el paquete Obj25 contiene 3.0 g de la sustancia SB21. El usuario del dispositivo 200 de terminal puede reconocerse fácilmente, por ejemplo, al leer tal mensaje MSG21, en cuanto a qué tipo de medicamento se encuentra contenido en el paquete Obj25. (6) Flujo de procesamiento La Figura 19 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos por el dispositivo 100 de procesamiento de imágenes en este ejemplo. El procesamiento de control de atributos mostrado en la Figura 19 se repite para las imágenes de entrada secuencialmente adquiridas por la unidad 120 de adquisición de imágenes .
En primer lugar, la unidad 120 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 102 de captura de imágenes como imágenes de entrada (etapa S200) . Además, la unidad 120 de adquisición de imágenes produce las imágenes de entrada adquiridas en la unidad 130 de identificación de objetos.
Después, la unidad 130 de identificación de objetos identifica los objetos en las imágenes de entrada con cantidades de característica conocidas de cada objeto almacenado por la BD 140 de objetos (etapa S204).
Después, la unidad 150 de detección de eventos determina si las condiciones de detección de eventos descritas en lo anterior para los objetos identificados por la unidad 130 de identificación de objetos se satisfacen (etapa S208). En este punto, si las condiciones de detección de eventos no se satisfacen, el siguiente proceso se omite (etapa S112). Si las condiciones de detección de eventos se satisfacen, la unidad 150 de detección de eventos notifica a la unidad 170 de control de atributos del evento detectado.
Si el evento se detecta por la unidad 150 de detección de eventos, la unidad 170 de control de atributos determina el contenido de control de los atributos de los objetos implicados en el evento detectado utilizando los datos 144b de control de atributos (etapa S216) . Además, si se determina mover un valor de los atributos desde un primer objeto hasta un segundo objeto (etapa S220) , entonces la unidad 170 de control de atributos asocia el valor de los atributos asociado con el primer objeto, con el segundo objeto (etapa S224). Además, si se determina eliminar el valor de los atributos del primer objeto (etapa S228), después la unidad 170 de control de atributos elimina el valor de los atributos asociado con el primer objeto (etapa S232) .
Además, si se ha determinado incrementar la cantidad de cualquier objeto (etapa S239) , entonces la unidad 170 de control de atributos adquiere valores para la cantidad de una sustancia a agregarse (etapa S240) y agrega los valores adquiridos a los atributos de cualquier objeto que excluye el objeto "Báscula" (etapa S244).
Además, la unidad 170 de control de atributos almacena nuevos registros de los datos 164 de historial que incluyen los valores de atributos antes y después de que se actualicen en la BD 160 de atributos (etapa S248). Además, si no se actualizan los atributos de cualquier objeto, el procesamiento de S248 se omite.
Hasta ahora, un segundo ejemplo se ha descrito con las Figuras 15 a 19. De acuerdo con este ejemplo, en un estado en el cual el medicamento se combina utilizando una herramienta de preparación de medicamento, es posible reconocer los ingredientes del medicamento contenido en la herramienta de preparación de medicamento a través de los atributos de un objeto. Además, es posible agregar la cantidad de la sustancia contenida en el objeto para los atributos del objeto. Además, las personas distintas al operador también pueden reconocer fácilmente los ingredientes y la cantidad del medicamento al leer un historial de actualización de los atributos o los datos de atributos de un objeto. Cuando los atributos del objeto se actualizan, no existe la necesidad de un preparador del medicamento para ingresar datos. <6. Tercer ejemplo> En el tercer ejemplo, la ingestión de medicamento por un paciente se ilustra como el objetivo de la gestión de historial. Por consiguiente, el dispositivo 100 de procesamiento de imágenes detecta un evento que corresponde a un acto físico entre el paciente y el medicamento, una acción de ingesta del medicamento. Además, la descripción de los mismos elementos con cualquier ejemplo precedente se omite desde este ejemplo para clarificar la descripción. (1) Ejemplo de un objeto La Figura 20 es un diagrama explicativo para describir un ejemplo de los datos de objeto en el tercer ejemplo. Con referencia a la Figura 20, los datos 142c de objeto se ilustran como un ejemplo almacenado en la BD 140 de objetos. Los datos 142c de objeto incluyen datos personales con respecto a los objetos de la persona y los datos del medicamento de prescripción con respecto a los objetos del medicamento de prescripción.
Los datos personales incluyen tres elementos de datos que se denominan "ID de Objeto", "Nombre", y "Cantidad de Característica". "ID de Objeto" es un identificador para identificar inmediatamente cada persona objeto. "Nombre" representa cada nombre de la persona. "Cantidad de Característica" se extrae de una imagen de la cara conocida de cada persona.
Los datos del medicamento de prescripción incluyen cinco elementos de datos que se denominan "ID de Objeto", "Nombre", "ID de Paciente", "Dosis" y "Cantidad de Característica". "ID de Objeto" es un identificador para identificar inmediatamente cada medicamento de prescripción objeto. "Nombre" representa el nombre de cada medicamento de prescripción. "ID de Paciente" representa el ID de objeto de una persona que ingiere cada medicamento de prescripción. En la Figura 20, una persona que ingiere un objeto Obj35, es decir, "Tableta XI" es un objeto 0bj31, es decir, "Sr./Sra. XX". "Dosis" representa la información de cuánto medicamento de prescripción debe ingerir un paciente. "Cantidad de Característica" se extrae de una imagen conocida de cada medicamento de prescripción. (2) Evento Para este ejemplo, la unidad 150 de detección de eventos detecta un evento correspondiente a una acción de ingesta de medicamento de prescripción por una persona identificada por la unidad 130 de identificación de objetos. La unidad 150 de detección de eventos puede detectar un gesto de ingesta del medicamento por la persona, por ejemplo, utilizando tecnología de identificación de gesto conocida. Una condición de detección de evento en este ejemplo es como sigue .
Condición C31) Un gesto de una persona objeto que ingiere un medicamento de prescripción objeto se reconoce. (3) Control de atributos Si se detecta un evento correspondiente a una acción de ingesta de medicamento por la unidad 150 de detección de eventos, entonces la unidad 170 de control de atributos actualiza los atributos de la persona objeto implicada en la acción de la ingesta de medicamento y el medicamento de prescripción objeto. Por ejemplo, la unidad 170 de control de atributos puede asociar nuevamente los atributos que representan la dosificación y la clase de la sustancia contenida en el medicamento de prescripción objeto, con la persona objeto. Además, la unidad 170 de control de atributos puede eliminar una cantidad que corresponde a la dosificación de los atributos del medicamento de prescripción objeto. Además, cuando los atributos del objeto se actualizan, la unidad 170 de control de atributos almacena los registros que representan un historial actualizado en los datos 164c de historial.
La Figura 21 representa el contenido de los datos 164c de historial como un ejemplo generado por la unidad 170 de control de atributos en este ejemplo. Con referencia a la Figura 21, los datos 164c de historial incluyen tres elementos de datos que se denominan "ID de Objeto", "Atributos" y "Tiempo". "ID de Objeto" es un identificador que identifica la persona objeto que representa la persona que ingiere el medicamento de prescripción. "Atributos" representa un valor de los atributos asociados nuevamente con la persona objeto por la unidad 170 de control de atributos. "Tiempo" representa el tiempo detectado de un evento correspondiente (o puede ser el tiempo actualizado de un atributo) . La unidad 170 de control de atributos adquiere datos de autenticación de tiempo que corresponden a estos tiempos de un servidor de autenticación de tiempo externo para mejorar la conflabilidad del historial, y puede almacenar los datos de autenticación de tiempo adquiridos al asociar los datos de autenticación de tiempo obtenidos con el historial como se muestra en la Figura 21. En el ejemplo de la Figura 21, en los tiempos T31, T32 y T33, los datos 164c de historial muestran que el paciente Obj31 ha ingerido dos tabletas de la sustancia 31 cada vez.
Además, en respuesta a la detección de un evento que corresponde a una acción de la ingesta de medicamento, la unidad 170 de control de atributos puede transmitir un mensaje de noticia a un dispositivo de terminal, el cual tiene un doctor, una enfermera o un familiar del paciente correspondiente. Además, la unidad 170 de control de atributos puede transmitir un mensaje de alarma o emitir una alarma si se ha detectado que un paciente ha ingerido medicamento que el paciente no debe haber ingerido. (4) Transición de datos La Figura 22 es un diagrama explicativo para describir un ejemplo de la transición de estado de los datos de atributos de acuerdo con un escenario ejemplar en este ejemplo. A la izquierda del dibujo, tres imágenes Im31 a Im33 de entrada adquiridas en una serie de tiempo se ilustran secuencialmente, y a la derecha de las mismas, el contenido parcial de los datos 162c de atributos en cada punto de tiempo se ilustra.
Con referencia a la Figura 22, aparece en la imagen Im31 de entrada, un paciente Obj31 y un medicamento Obj35 de prescripción. Para datos 162c de atributos, el valor sin atributos se asocia con el paciente Obj31. Por otro lado, un valor de los atributos que representa la clase y cantidad de 30 tabletas de la sustancia SB31 se asocia con el medicamento Obj35 de prescripción. Esto representa que 30 tabletas de la sustancia SB31 se encuentran contenidas en el medicamento Obj35 de prescripción.
A continuación, aparece en la imagen Im32 de entrada, una figura en la cual el paciente 0bj31 ingiere un medicamento Obj35 de prescripción. Al reconocer un gesto de tal acción de ingesta de medicamento, la unidad 150 de detección de eventos detecta un evento correspondiente a la acción de ingerir el medicamento. Entonces, la unidad 170 de control de atributos asocia nuevamente el valor de los atributos "SB31" asociados con el medicamento Obj35 de prescripción, con el paciente 0b 31. Además, la unidad 170 de control de atributos agrega la cantidad correspondiente a la dosificación para los atributos del paciente 0bj31. Además, la unidad 170 de control de atributos elimina la cantidad correspondiente a la dosificación de los atributos del medicamento Obj35 de prescripción. Como resultado, los datos 162c de atributos representan que el paciente Obj31 ingirió 2 tabletas de la sustancia 31, y 28 tabletas de la sustancia 31 se encuentran contenidas en el medicamento Ob 35 de prescripción .
A continuación, un paciente 0bj31 aparece en una imagen Im33 de entrada. Los datos 162c de atributos representan que el paciente Obj31 ingiere continuamente dos tabletas de la sustancia 31. Además, la unidad 170 de control de atributos puede eliminar atributos asociados con el paciente objeto cuando el evento se ha detectado, después el tiempo sostenido del efecto del medicamento de prescripción pasado desde el tiempo detectado del evento que corresponde a la acción de ingestión. 5) Ejemplo de visualización La Figura 23 es un diagrama explicativo para describir un ejemplo de imágenes de salida desplegadas por el dispositivo 200 de terminal para este ejemplo. Con referencia a la Figura 23, una imagen Im39 de salida se encuentra representada como un ejemplo. En la imagen Im39 de salida, aparece el paciente Obj31. Además, la imagen Im39 de salida se superpone con un mensaje MSG31 que indica el paciente Obj31. El mensaje MSG31 representa que el paciente Obj31 ingirió dos tabletas de "XI" a las 14:00, el 1 de noviembre de 2011. El usuario del dispositivo 200 de terminal puede reconocer fácilmente, por ejemplo, al leer tal mensaje MSG31, si el paciente ingirió el medicamento de prescripción apropiado en el momento apropiado.
Además, la unidad 190 de interfaz de usuario del dispositivo 100 de procesamiento de imágenes o la unidad 250 de interfaz de usuario del dispositivo 200 de terminal provoca que el ID de objeto o nombre de un paciente designe un usuario (por ejemplo, un doctor, una enfermera o familiar) , y puede proporcionar una pantalla de IU para presentar el historial de la acción de ingesta del medicamento asociado con el paciente designado al usuario. (6) Flujo de procesamiento La Figura 24 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos por el dispositivo 100 de procesamiento de imágenes en este ejemplo. El procesamiento de control de atributos mostrado en la Figura 24 se repite para las imágenes de entrada secuencialmente adquiridas por la unidad 120 de adquisición de imágenes .
En primer lugar, la unidad 120 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 102 de captura de imágenes como imágenes de entrada (etapa S300) . Además, la unidad 120 de adquisición de imágenes produce las imágenes de entrada adquiridas en la unidad 130 de identificación de objetos.
Entonces, la unidad 130 de identificación de objetos identifica estos objetos en las imágenes de entrada con cantidades de característica conocidas de una persona objeto y un medicamento de prescripción objeto almacenado por la BD 140 de objetos (etapa S304).
Entonces, la unidad 150 de detección de eventos determina si las condiciones de detección de eventos se satisfacen utilizando la tecnología de reconocimiento de gesto para los objetos identificados por la unidad 130 de identificación de objetos (etapa S308). En este punto, si las condiciones de detección de eventos no se satisfacen, el siguiente proceso se omite (etapa S312). Si las condiciones de detección de eventos se satisfacen, la unidad 150 de detección de eventos notifica a la unidad 170 de control de atributos del evento detectado.
Si el evento se detecta por la unidad 150 de detección de eventos, la unidad 170 de control de atributos asocia una dosificación y un valor de los atributos asociados con un primer objeto, es decir, el medicamento de prescripción objeto, con un segundo objeto o persona objeto (etapa S324). Además, la unidad 170 de control de atributos elimina la dosificación de la cantidad de atributos asociada con el primer objeto (etapa S332) . La unidad 170 de control de atributos almacena nuevos registros de los datos 164c de historial en la BD 160 de atributos (S348) .
El tercer ejemplo se ha descrito en lo anterior con referencia a las Figuras 20 a 24. De acuerdo con este ejemplo, en una situación en la cual un paciente ingiere el medicamento de prescripción, es posible para un tercero reconocer a través del historial actualizado de los atributos o los datos de atributos de un objeto qué tipo de medicamento ha ingerido el paciente y en qué momento. Cuando los atributos del objeto se actualizan, no existe necesidad para el paciente o un tercero ingresar datos. <7. Cuarto ejemplo> En el cuarto ejemplo, la mezcla de materiales alimenticios y condimentos en acciones de procesamiento de alimentos se ilustra como el objetivo de la gestión de historial. Por consiguiente, el dispositivo 100 de procesamiento de imágenes detecta un evento correspondiente a un acto físico cuando los chefs, empleados de restaurantes o empleados de las fábricas de procesamiento de alimentos, etc. utilizan materiales alimenticios y condimentos. Además, la descripción de los mismos elementos como en cualquier ejemplo precedente se omite de este ejemplo para aclarar la descripción . (1) Ejemplo de un objeto Se describe en la Figura 25 un diagrama explicativo para describir un ejemplo de los datos de objeto en el cuarto ejemplo. Con referencia a la Figura 25, los datos 142d de objeto se ilustran como un ejemplo almacenado por la BD 140 de objetos. Los datos 142d de objeto incluyen cinco elementos de datos que se denominan "ID de Objeto", "Nombre", "Número de Producto", "Tipo" y "Cantidad de Característica", similares a los datos 142a de objeto en el primer ejemplo.
Para este ejemplo, algunos de los siguientes cuatro tipos de candidatos se asignan para cada objeto.
"ORIGEN" Un tipo que representa los objetos de las fuentes de transporte de materiales alimenticios o condimentos. Esto puede corresponder a contenedores para materiales alimenticios o condimentos, o los materiales alimenticios mismos.
"TRANSPORTADOR 1" Un tipo que representa un objeto capaz de transportar los materiales alimenticios o condimentos "CONTENEDOR" Un tipo que representa un objeto capaz de contener alimento para cocinarse "FOOD_ITEM" Un tipo que representa el objeto del alimento a cocinarse En el ejemplo de la Figura 25, los tipos de un objeto 0bj41 (carne picada) y un objeto Obj42 (una botella de pimienta negra) son "ORIGEN". El tipo de un objeto Obj43 (un cucharón) es "TRANSPORTADOR". Los tipos de un objeto Obj44 (un tazón), un objeto Obj45 (un sartén) y un objeto Obj46 (una charola) son "CONTENEDOR". El tipo de un objeto Ob 50 (alimento) es "FOOD_ITEM" .
Además, la cantidad de característica (por ejemplo, cantidad FD 50 de característica en los datos 142d de objeto) para identificar el objeto "F00D_ITEM" no se determinan en un estado inicial para identificar el objeto "F00D_ITEM" . La cantidad de característica del objeto "F00D_ITEM" puede extraerse desde una imagen de entrada en respuesta a la detección de un evento, el cual se describirá posteriormente. (2) Evento Para este ejemplo, la unidad 150 de detección de eventos detecta un evento correspondiente a un acto físico entre los objetos identificados por la unidad 130 de identificación de objetos. Por ejemplo, como eventos en los cuales los objetos ilustrados en la Figura 25 toman parte, los siguientes eventos se determinan.
Evento Ev41) Poner la carne picada en un tazón Evento Ev42) Poner la pimienta negra desde la botella de pimienta negra en el tazón Evento Ev43) Movimiento del alimento desde el tazón hasta el sartén Evento Ev44) Movimiento del alimento desde el sartén hasta la charola Estos eventos pueden detectarse bajo condiciones que satisfacen las condiciones de detección de eventos determinadas, por ejemplo, por dos objetos. Las condiciones de detección de eventos determinadas pueden algunas de las siguientes condiciones, por ejemplo.
Condición C41) Un objeto se coloca sobre otro obj eto .
Condición C42) El tiempo por el cual la condición C41 se ha satisfecho continuamente se encuentra sobre un valor de umbral.
Condición C43) Se identifica un gesto determinado de una persona utilizando dos objetos.
El valor de umbral para la condición C42 puede definirse en común sin depender de objetos o individualmente para cada objeto. (3) Control de los atributos En este ejemplo, si los tipos definidos para los objetos implicados en un evento detectado satisfacen las condiciones de control de atributos determinadas, la unidad 170 de control de atributos actualiza los atributos de estos objetos. Las condiciones de control de atributos se definen en una tabla de control de atributos.
La Figura 26 es un diagrama explicativo para describir un ejemplo de una tabla de control de atributos en el cuarto ejemplo. Con referencia a la Figura 26, una tabla 144d de control de atributos se ilustra como un ejemplo almacenado en la BD 140 de objetos. La tabla 144d de control de atributos se define en una forma de matriz con cuatro tipos de objetos en ambas columnas e hileras. Cada columna corresponde al tipo de un primer objeto implicado en un evento. Cada hilera corresponde al tipo de un segundo objeto implicado en el evento.
Por ejemplo, si el tipo del primer objeto es "ORIGEN" y el tipo del segundo objeto es "TRANSPORTADOR" , entonces un atributo asociado con el primer objeto se agrega a (o se asocia nuevamente con) el segundo objeto. El atributo del primer objeto no se actualiza.
Si el tipo del primer objeto es "ORIGEN" y el tipo del segundo objeto es "CONTENEDOR", entonces se determina si existe un tercer objeto contenido en el segundo objeto, y si no, se genera ese tercer objeto. El tercer objeto generado en este punto es el objeto "FOOD_ITEM". Además, un atributo asociado con el primer objeto se agrega al tercer objeto. Además, nuevas cantidades de característica del tercer objeto se extraen de las imágenes de entrada. El atributo del primer objeto no se actualiza.
Además, si el tipo del primer objeto es "ORIGEN" y el tipo del segundo objeto es "FOOD_ITEM", entonces un atributo asociado con el primer objeto se agrega al segundo objeto. Además, nuevas cantidades de característica del tercer objeto se extraen a partir de imágenes de entrada. El atributo del primer objeto no se actualiza.
Además, si el tipo del primer objeto es "TRANSPORTADOR" y el tipo del segundo objeto es "CONTENEDOR", entonces se determina si existe un tercer objeto contenido en el segundo objeto, y si no, se genera ese tercer objeto. El tercer objeto generado en este punto es el objeto "FOOD_ITE ". Además, un atributo asociado con el primer objeto se agrega al tercer objeto. Además, nuevas cantidades de característica del tercer objeto se extraen a partir de imágenes de entrada. El atributo del primer objeto se elimina .
Además, si el tipo del primer objeto es "TRANSPORTADOR" y el tipo del segundo objeto es "FOOD_ITEM" , entonces un atributo asociado con el primer objeto se agrega al segundo objeto. Además, nuevas cantidades de característica del segundo objeto se extraen desde las imágenes de entrada. El atributo del primer objeto se elimina .
Además, si el tipo del primer objeto es "CONTENEDOR" y el tipo del segundo objeto también es "CONTENEDOR", entonces un atributo asociado con el primer objeto se agrega al segundo objeto. Además, nuevas cantidades de característica del segundo objeto se extraen desde las imágenes de entrada. El atributo del primer objeto se elimina .
Además, si el tipo del primer objeto es "CONTENEDOR" y el tipo del segundo objeto es "FOOD_ITEM", entonces un atributo asociado con el primer objeto se agrega al segundo objeto. Además, nuevas cantidades de característica del segundo objeto se extraen desde las imágenes de entrada. El atributo del primer objeto se elimina .
Para otros tipos de combinaciones, los atributos del primer y segundo objetos no se actualizan.
Además, las cantidades de característica del objeto "FOOD_ITEM" pueden extraerse desde un área diferencial que se determina al excluir una parte de un objeto "CONTENEDOR" conocido desde el área de imagen del objeto "CONTENEDOR" que contiene el objeto "FOOD_ITEM". Cuando un evento en el cual el objeto "FOOD_ITEM" toma parte se ha detectado que no se presentan grandes cambios en la apariencia del objeto, la unidad 170 de control de atributos no puede extraer ni actualizar las cantidades de característica de ese objeto. Además, también en este ejemplo, el tipo "Báscula" que representa un objeto capaz de medir una sustancia puede utilizarse adicionalmente, como se describe en el segundo ej emplo . (4) Transición de datos Las Figuras 27A y 27B son diagramas explicativos para describir un ejemplo de la transición de estado de los datos de atributos de acuerdo con un escenario ejemplar en este ejemplo. A la izquierda de estos dibujos, cinco imágenes Im41 a Im45 de entrada adquiridas en una serie de tiempo se ilustran secuencialmente, y a la derecha de las mismas, se ilustra el contenido parcial de los datos 162d de atributos en cada punto de tiempo.
Con referencia a la Figura 27A, aparece en la imagen Im41 de entrada, carne picada 0bj41 y un tazón Obj44. Para los datos 162d de atributos, con la carne picada 0bj41, los valores de atributos que representan una sustancia SB41 y una sustancia SB43 se asocian. Esto representa que la carne picada Obj41 tiene la sustancia SB41 y la sustancia SB43 como sus componentes constitucionales. Por otro lado, el valor sin atributos se asocia con el tazón Obj44. Esto representa que nada se encuentra contenido en el tazón Obj44.
Después, aparece para la imagen Im42 de entrada, la carne picada Obj41 sobre el tazón Obj44. La unidad 150 de detección de eventos detecta un evento que corresponde a poner la carne picada Obj41 en el tazón Obj44, de acuerdo con, por ejemplo, cualquiera de las condiciones C41 a C43 de detección de eventos descritas en lo anterior. De acuerdo con los datos 142d de objetos, el tipo de la carne picada Obj41 es "ORIGEN" y el tipo del tazón Obj44 es "CONTENEDOR". La unidad 170 de control de atributos genera nuevamente el alimento Ob 50, el objeto "FOOD_ITEM", de acuerdo con el contenido de control mostrado por la tabla 144d de control de atributos, y asocia el valor de los atributos "SB41" y "SB43" asociados con la carne picada 0bj41, con el alimento 0bj50. El valor de los atributos que representa el alimento Obj50 se asocia con el tazón 44. Además, la unidad 170 de control de atributos extrae la cantidad FD 50 de característica del alimento Obj50 desde la imagen Im42 de entrada, y almacena la cantidad FD 50 de característica extraída en la BD 140 de objetos.
Después, en la imagen Im43 de entrada, aparece la botella de pimienta negra Obj42, el tazón Obj44 y el alimento Obj50. La unidad 150 de detección de eventos detecta un evento correspondiente al poner pimienta negra en el alimento Obj50 en el tazón Obj44, de acuerdo con, por ejemplo, cualquiera de las condiciones C41 a C43 de detección de evento descritas en lo anterior. En este punto, el tipo de alimento Obj50 es "FOOD_ITEM" y el tipo de la botella de pimienta negra Obj42 es "ORIGEN". La unidad 170 de control de atributos asocia nuevamente el valor de los atributos "SB42" asociado con la botella de pimienta negra Obj42, con el alimento Obj50 de acuerdo con el contenido de control mostrado por la tabla 144d de control de atributos. Para los datos 162d de atributos, un valor de los atributos que representa la sustancia SB42 (pimienta negra) se asocia con la botella de pimienta negra Obj42. Un valor de los atributos que representa el alimento Obj50 se asocia con el tazón Obj44. El valor de atributos que representa las sustancias SB41, SB42 y SB43 se asocia con el alimento Obj50.
A continuación, con referencia a la Figura 27B, en la imagen Im44 de entrada, aparece una figura en la cual el alimento Obj50 se encuentra contenido en el sartén Obj45. Los datos 162d de atributos representan que el alimento Obj50 se encuentra contenido en el sartén Obj 5, y el alimento 0bj50 tiene las sustancias SB41, SB42 y SB43 como componentes constitucionales .
Además, después de finalizar la cocción en el sartén Obj45, en la imagen Im45 de entrada, la charola Obj46 aparece cerca del sartén Obj45. La unidad 150 de detección de eventos detecta un evento correspondiente al movimiento del alimento Obj50 desde el sartén Obj45 hasta la charola Obj46. En este punto, los tipos de sartén Obj45 y la charola Obj46 ambos son "CONTENEDOR". La unidad de control de atributos 70 asocia nuevamente el valor "Obj50" de los atributos asociado con el sartén Obj45, con la charola Obj46 de acuerdo con el contenido de control mostrado por la tabla 144d de control de atributos. Como resultado, los datos 162d de atributos representan que el alimento Obj50 se encuentra contenido en la charola Obj46. Además, la unidad 170 de control de atributos extrae la cantidad FD 50 de característica del alimento Obj50 desde la imagen Im42 de entrada, y almacena la cantidad FD 50 de característica extraída en la BD 140 de objetos. En este punto, la cantidad FD 50 de característica almacenada representa características de la apariencia del alimento Obj50 cocinado utilizando el sartén Obj45. (5) Ejemplo de visualización La Figura 28 es un diagrama explicativo para describir un ejemplo de imágenes de salida desplegadas por el dispositivo 200 de terminal para este ejemplo. Con referencia a la Figura 28, una imagen Im49 de salida se ilustra como un ejemplo. En la imagen Im49 de salida, aparecen la charola Obj46 y el alimento Obj50. Además, la imagen Im49 de salida se superpone con un mensaje MSG41 que indica el alimento Obj50. El mensaje MSG41 representa que el alimento Obj50 incluye carne de res, carne de cerdo y pimienta negra, lo cual puede corresponder a las sustancias SB41, SB43 y SB42, respectivamente. El usuario del dispositivo 200 de terminal puede reconocer fácilmente, por ejemplo, al leer tal mensaje MSG41, qué componentes se incluyen en el alimento 0bj50. (6) Flujo de procesamiento La Figura 29 es un diagrama de flujo que ilustra un ejemplo del flujo de procesamiento de control de atributos por el dispositivo 100 de procesamiento de imágenes en este ejemplo. El procesamiento de control de atributos mostrado en la Figura 29 se repite para imágenes de entrada secuencialmente adquiridas por la unidad 120 de adquisición de imágenes.
En primer lugar, la unidad 120 de adquisición de imágenes adquiere imágenes capturadas generadas por la unidad 102 de captura de imágenes como imágenes de entrada (etapa S400) . Además, la unidad 120 de adquisición de imágenes produce las imágenes de entrada adquiridas para la unidad 130 de identificación de objetos.
Entonces, la unidad 130 de identificación de objetos identifica los objetos en las imágenes de entrada con cantidades de característica conocidas de cada objeto almacenado por la BD 140 de objetos (etapa S404).
Después, la unidad 150 de detección de eventos determina si las condiciones de detección de eventos descritas en lo anterior se satisfacen para los objetos identificados por la unidad 130 de identificación de objetos (etapa S408). En este punto, si las condiciones de detección de eventos no se satisfacen, el siguiente proceso se omite (etapa S412). Si las condiciones de detección de eventos se satisfacen, la unidad 150 de detección de eventos notifica a la unidad 170 de control de atributos del evento detectado.
Si el evento se detecta por la unidad 150 de detección de eventos, la unidad 170 de control de atributos determina el contenido de control de los atributos de los objetos implicados en el evento detectado utilizando la tabla 144d de control de atributos (etapa S416) . Además, si se determina mover un valor de los atributos desde un primer objeto hasta un segundo objeto (etapa S420), entonces la unidad 170 de control de atributos asocia el valor de los atributos asociado con el primer objeto, con el segundo objeto (etapa S424). Además, si se determina eliminar el valor de los atributos del primer objeto (etapa S428), entonces la unidad 170 de control de atributos elimina el valor de los atributos asociado con el primer objeto (etapa S432).
Además, si se ha determinado generar un nuevo objeto "FOOD_ITE " (etapa S436) , entonces la unidad 170 de control de atributos genera el objeto "FOOD_ITEM" (etapa S438). En este punto, un valor de los atributos asociado con el primer objeto se asocia con el objeto "F00D_ITEM" generado .
Además, si se ha determinado actualizar las cantidades de característica del objeto "F00D_ITEM" (etapa S440) , entonces la unidad 170 de control de atributos extrae las cantidades de característica de imágenes desde un área objetivo de extracción descrita en lo anterior, y actualiza las cantidades de característica del objeto "F0OD_ITEM" con las cantidades de característica de imágenes extraídas (etapa S444) .
Además, la unidad 170 de control de atributos almacena nuevos registros de los datos 164 de historial en la BD 160 de atributos (etapa S448). Además, si ninguno de los atributos de cualquier objeto puede actualizarse, S448 se omite .
El cuarto ejemplo se ha descrito en lo anterior con referencia a las Figuras 25 a 29. De acuerdo con este ejemplo, en una situación en la cual el alimento se cuece utilizando herramientas de cocción, es posible reconocer los ingredientes del alimento a través de los atributos de un objeto. Los consumidores pueden comparar o comer alimento sin ansiedad, debido a que pueden reconocer fácilmente los ingredientes del alimento procesado al mantener un dispositivo de terminal con una cámara sobre el alimento. <8. Variación> En las modalidades anteriores, las descripciones se han hecho principalmente de ejemplos en los cuales el dispositivo 100 de procesamiento de imágenes y el dispositivo 200 de terminal se hacen como dispositivos físicamente separados. Sin embargo, el dispositivo 100 de procesamiento de imágenes y el dispositivo 200 de terminal pueden hacerse como un dispositivo integrado, como se muestra en un dispositivo 300 de procesamiento de imágenes ilustrado en la Figura 30.
La Figura 30 es un diagrama de bloque en el cual se ilustra un ejemplo de la configuración funcional lógica del dispositivo 300 de procesamiento de imágenes de acuerdo con una variación. Con referencia a la Figura 30, el dispositivo 300 de procesamiento de imágenes incluye una unidad 120 de adquisición de imágenes, una unidad 130 de identificación de objetos, una BD 140 de objetos, una unidad 150 de detección de eventos, una BD 160 de atributos, una unidad 170 de control de atributos, una unidad 240 de control de visualización y una unidad 190 y 250 de interfaz de usuario. La función de cada bloque de procesamiento del dispositivo 300 de procesamiento de imágenes, en principio, es la misma que aquella de un bloque de procesamiento con el mismo número de referencia descrito en lo anterior. La unidad 240 de control de visualización del dispositivo 300 de procesamiento de imágenes adquiere datos de atributos asociados con un objeto en una imagen de entrada, desde la BD 160 de atributos, y superpone los datos de atributos adquiridos en la imagen de entrada. <9. Compendio> Hasta ahora, la tecnología de acuerdo con una modalidad de la descripción se ha descrito basada en una modalidad y cuatro ejemplos de la misma. De acuerdo con la tecnología de acuerdo con un ejemplo de la descripción, los objetos presentes en un espacio real se identifican a partir de una imagen de entrada, y los datos de atributos asociados con un primer objeto se asocian con un segundo objeto en respuesta a la detección de un evento que corresponde a un acto físico entre los objetos identificados. Por consiguiente, es posible gestionar un historial de diversas acciones que resulta en un acto físico entre estos objetos, en un formato denominado como atributos de los objetos. Aquí, la actualización de los datos de atributos no pone presión sobre un operador, debido a que tal actualización es realiza automáticamente utilizando tecnología de reconocimiento de imágenes.
De acuerdo con la modalidad, el objeto puede ser capaz de contener una sustancia, y los datos de atributos pueden representar la clase de la sustancia contenida en un objeto asociado con los datos de atributos. De acuerdo con tal configuración, es posible reconocer posteriormente los detalles de una acción realizada en un objeto en el cual la sustancia contenida no será capaz de verse desde el exterior.
Además, de acuerdo con la modalidad, un evento que correspondiente a un acto físico entre objetos puede detectarse si la relación de ubicación entre estos objetos satisface una condición determinada. En lugar de la condición en la relación de ubicación entre los objetos, una condición con relación al reconocimiento del gesto de una persona que corresponde a un objeto puede emplearse. De acuerdo con tal configuración, es posible realizar la constitución de gestión de historial descrita en lo anterior sin solicitar ninguna información distinta de las imágenes de entrada. En otras palabras, debido a que no existe la necesidad de preparar por adelantado información de entrada especifica para el propósito de una aplicación distinta que una base de datos, es posible para diversas personas, tales como doctores, enfermeras, farmacéuticos, un familiar del paciente, chefs o trabajadores de la fábrica acumular fácilmente un historial o ver el historial acumulado.
Además, de acuerdo con la modalidad, el contenido de control de atributos se determina dependiendo de los tipos definidos en relación con los objetos implicados en eventos detectados. De acuerdo con tal configuración, es posible distinguir diversos patrones de las acciones a través de combinaciones de los tipos y realizar el control de diferentes atributos para cada patrón. Por consiguiente, es posible aplicar flexiblemente la constitución de la gestión de historial descrita en lo anterior para diversas variaciones de las acciones, las cuales son objetivos de la gestión de historial.
En una situación en la cual la precisión de un historial es más importante, puede proporcionarse una interfaz de usuario para recibir una aprobación en la actualización de un atributo a partir de un usuario. En este caso, es posible asegurar la exactitud de un historial para gestionarse por un ligero incremento en la presión aplicada a un operador. Además, es posible verificar el tiempo de una acción al agregar datos de autenticación de tiempo para almacenar los datos de historial e incrementar la conflabilidad y seguimiento del historial.
Además, una serie de procesamientos de control para cada dispositivo descrito en la descripción puede realizarse utilizando cualquiera de software, hardware, y una combinación de software y hardware. Un software de composición de programa se pre-almacena en un medio de almacenamiento instalado dentro y fuera de cada dispositivo, por ejemplo. Además, cada programa se carga en una RAM (Memoria de Acceso Aleatorio) para su ejecución, y se ejecuta por un procesador, tal como CPU.
Además, algunas de las funciones lógicas de cada dispositivo pueden montarse en, en lugar de ese dispositivo, un dispositivo presente en un ambiente de cómputo en la nube. En este caso, la información comunicada entre las funciones lógicas puede transmitirse o recibirse entre los dispositivos a través de la unidad 112 de comunicación ilustrada en la Figura 2 o la unidad 212 de comunicación ilustrada en la Figura 5.
Aunque las modalidades preferidas de la presente descripción se han descrito con referencia a los dibujos anexos, un alcance técnico de la presente descripción no se limita al mismo. Se debe entender por aquellos con experiencia en la técnica que diversas modificaciones, combinaciones, subcombinaciones y alteraciones pueden ocurrir dependiendo de los requerimientos de diseño y otros factores en la medida en que están dentro del alcance de las reivindicaciones anexas o equivalentes de las mismas.
Adicionalmente, la presente tecnología también puede configurarse como sigue.
Un dispositivo de procesamiento de información puede incluir una unidad de control de atributos que cambia una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado.
De acuerdo con un aspecto, el dispositivo puede incluir además una unidad de identificación de objeto configurada para determinar la acción física detectada mediante el análisis de imágenes.
De acuerdo con otro aspecto, el dispositivo puede incluir además una unidad de control que cambia la asociación del atributo que se asocia previamente con el objeto detectado para asociarse subsecuentemente con otro objeto detectado .
De acuerdo con otro aspecto, el dispositivo puede incluir además una unidad de detección de eventos que detecta la acción física detectada como un primer evento que ocurre entre el objeto detectado y otro objeto detectado, y también detecta un segundo evento entre el primer objeto físico y un tercer objeto físico.
De acuerdo con otro aspecto, el primer evento involucra cambiar la asociación de los atributos de almacenarse en asociación con el objeto detectado para ser almacenados en asociación con el tercer objeto físico.
De acuerdo con otro aspecto, el atributo es el medicamento, y la asociación del medicamento con una primera unidad de almacenamiento se cambia para asociarse con una segunda unidad de almacenamiento.
De acuerdo con otro aspecto, la unidad de detección de eventos detecta un tercer evento entre el primer objeto físico y el tercer objeto físico y cambia la asociación de los atributos para almacenarse en asociación con el tercer objeto físico, y un cuarto evento entre el tercer objeto físico y un cuarto objeto físico y cambia adicionalmente la asociación de los atributos para almacenarse en asociación con el cuarto objeto físico, y un quinto evento para analizar una característica física de los atributos.
De acuerdo con otro aspecto, el atributo es un medicamento, y el quinto evento es un peso del medicamento.
De acuerdo con otro aspecto, el dispositivo puede incluir además una unidad de detección de eventos que detecta la acción física detectada como un primer evento que ocurre entre el objeto detectado y el otro objeto detectado, el primer objeto detectado siendo un humano, y el segundo objeto detectado siendo un objeto que contiene medicamento, y la acción física detectada es el humano que ingiere el medicamento.
De acuerdo con otro aspecto, el dispositivo puede incluir además una unidad de detección de eventos que detecta la acción física detectada como un primer evento que ocurre entre el objeto detectado y el otro objeto detectado, un segundo evento entre el objeto detectado y un tercer objeto y asocia otros atributos con el objeto detectado, un tercer evento para mover el objeto detectado a un cuarto objeto, y De acuerdo con otro aspecto, el dispositivo puede incluir además una interfaz de usuario que incluye una visualización que despliega el objeto detectado.
De acuerdo con otro aspecto, el dispositivo puede incluir además una unidad de adquisición de datos que adquiere datos de atributos, y una unidad de detección de eventos que utiliza los datos de atributos para determinar una característica de la acción física detectada.
De acuerdo con otro aspecto, el dispositivo puede incluir además una unidad de control de visualización que superpone datos de atributos adyacentes al objeto detectado en la interfaz de usuario.
De acuerdo con otro aspecto, la interfaz de usuario incluye una visualización de al menos uno de un teléfono inteligente, una computadora tipo Tablet y un visualizador de montaje superior.
De acuerdo con otro aspecto, la unidad de detección de eventos se configura para detectar el primer evento como al menos uno de una distancia entre dos objetos que es menor que un umbral predeterminado, una duración de tiempo cuando dos objetos se localizan dentro del umbral predeterminado, y un gesto predeterminado.
De acuerdo con otro aspecto, el objeto detectado es uno de un origen, un transportador y un destino, y el otro objeto detectado es uno del origen, el transportador y el destino, el cambio en asociación ocurre cuando la fuente es el objeto detectado y el transportador es el otro objeto detectado o cuando el transportador es el objeto detectado y el destino es el otro objeto detectado.
De acuerdo con otro aspecto, la asociación de los atributos se mueve para almacenarse en asociación con el objeto detectado para almacenarse en asociación con el otro objeto detectado.
De acuerdo con otro aspecto, el objeto detectado también puede incluir uno de un segundo transportador, y una báscula, y el otro objeto detectado puede incluir el segundo transportador y la báscula.
Lista de Signos de Referencia 100, 300 Dispositivo de procesamiento de imágenes 120 Unidad de adquisición de imágenes 130 Unidad de identificación de objetos 140 BD de objetos 142 Datos de objetos 144 Tabla de control de atributos 150 Unidad de detección de eventos 160 BD de atributos 162 Datos de atributos 164 Datos de historial 170 Unidad de control de atributos 180 Unidad de distribución de datos 190 Unidad de interfaz de usuario 200 Dispositivo de terminal 220 Unidad de adquisición de imágenes 230 Unidad de adquisición de datos 240 Unidad de control de visualizacion 250 Unidad de interfaz de usuario

Claims (20)

REIVINDICACIONES
1. Un dispositivo de procesamiento de información caracterizado porque comprende: una unidad de control de atributos que cambia una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado.
2. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado además porque comprende: una unidad de identificación de objeto configurada para determinar la acción física detectada mediante el análisis de imágenes.
3. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado además porque comprende: una unidad de control que cambia la asociación del atributo que se asocia previamente con el objeto detectado para asociarse subsecuentemente con el otro objeto detectado.
4. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado además porque comprende una unidad de detección de eventos que detecta la acción física detectada como un primer evento que ocurre entre el objeto detectado y otro objeto detectado, y también detecta un segundo evento entre el primer objeto físico y un tercer objeto físico.
5. El dispositivo de procesamiento de información de conformidad con la reivindicación 4, caracterizado porque el primer evento implica cambiar la asociación de los atributos de almacenarse en asociación con el objeto detectado para almacenarse en asociación con el tercer objeto físico .
6. El dispositivo de procesamiento de información de conformidad con la reivindicación 5, caracterizado porque el atributo es un medicamento, y la asociación del medicamento con una primera unidad de almacenamiento se cambia al asociarse con una segunda unidad de almacenamiento.
7. El dispositivo de procesamiento de información de conformidad con la reivindicación 4, caracterizado porque la unidad de detección de eventos detecta un tercer evento entre el primer objeto físico y el tercer objeto físico y cambia la asociación de los atributos para almacenarse en asociación con el tercer objeto físico, y un cuarto evento entre el tercer objeto físico y un cuarto objeto físico y cambia adicionalmente la asociación de los atributos para almacenarse en asociación con el cuarto objeto físico, y un quinto evento para analizar una característica física de los atributos.
8. El dispositivo de procesamiento de información de conformidad con la reivindicación 7, caracterizado porque el atributo es un medicamento, y el quinto evento es un peso del medicamento.
9. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado además porque comprende : una unidad de detección de eventos que detecta la acción física detectada como un primer evento que ocurre entre el objeto detectado y el otro objeto detectado, el primer objeto detectado siendo un humano, y el segundo objeto detectado siendo un objeto que contiene medicamento, y la acción física detectada es el humano que ingiere el medicamento .
10. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado además porque comprende una unidad de detección de eventos que detecta la acción física detectada como un primer evento que ocurre entre el objeto detectado y el otro objeto detectado, un segundo evento entre el objeto detectado y un tercer objeto y se asocia otro atributo con el objeto detectado, un tercer evento para mover el objeto detectado a un cuarto objeto.
11. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado además porque comprende una interfaz de usuario que incluye una visualización que despliega el objeto detectado.
12. El dispositivo de procesamiento de información de conformidad con la reivindicación 11, caracterizado además porque comprende: una unidad de adquisición de datos que adquiere datos de atributos, y una unidad de detección de eventos que utiliza los datos de atributos para determinar una característica de la acción física detectada.
13. El dispositivo de procesamiento de información de conformidad con la reivindicación 11, caracterizado además porque comprende: una unidad de control de visualización que superpone datos de atributos adyacentes al objeto detectado en la interfaz de usuario.
14. El dispositivo de procesamiento de información de conformidad con la reivindicación 13, caracterizado porque la interfaz de usuario incluye una visualización de al menos uno de un teléfono inteligente, una computadora tipo Tablet y un visualizador de montaje superior.
15. El dispositivo de procesamiento de información de conformidad con la reivindicación 4, caracterizado porque la unidad de detección de eventos se configura para detectar el primer evento como al menos uno de una distancia entre dos objetos que es menor que un umbral predeterminado, una duración de tiempo cuando dos objetos se localizan dentro del umbral predeterminado, y un gesto predeterminado.
16. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado porque: el objeto detectado es uno de un origen, un transportador y un destino, y el otro objeto detectado es uno de un origen, el transportador y el destino, el cambio en asociación ocurre cuando el origen es el objeto detectado y el transportador es el otro objeto detectado o cuando el transportador es el objeto detectado y el destino es el otro objeto detectado.
17. El dispositivo de procesamiento de información de conformidad con la reivindicación 1, caracterizado porque la asociación de los atributos se mueve de almacenarse en asociación con el objeto detectado para almacenarse en asociación con el otro objeto detectado.
18. El dispositivo de procesamiento de información de conformidad con la reivindicación 16, caracterizado porque el objeto detectado también puede incluir uno de un segundo transportador, y una báscula, y el otro objeto detectado puede incluir el segundo transportador y la báscula .
19. Un método de procesamiento de información caracterizado porque comprende: almacenar en la memoria un atributo en una asociación con un objeto detectado; y cambiar con una unidad de control de atributos la asociación entre el objeto detectado y el atributo en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado.
20. Un dispositivo de procesamiento de información caracterizado porque comprende: una interfaz que intercambia datos con una unidad de control de atributos que cambia una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado; y una unidad de control de visualización que superpone datos de atributos adyacentes al objeto detectado en una unidad de interfaz de usuario. RESUMEN DE LA INVENCIÓN Un dispositivo de procesamiento de información, y método utilizan una unidad de control de atributos para cambiar una asociación entre un objeto detectado y un atributo almacenado en asociación con el objeto detectado en respuesta a una acción física detectada entre el objeto detectado y otro objeto detectado. Al cambiar una asociación de un atributo entre el objeto detectado permite un seguimiento autónomo de sustancias que se mueven entre los obj etos .
MX2014005945A 2011-11-25 2012-10-25 Un dispositivo de procesamiento de informacion y un metodo de procesamiento de informacion. MX2014005945A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011257561A JP6069826B2 (ja) 2011-11-25 2011-11-25 画像処理装置、プログラム、画像処理方法及び端末装置
PCT/JP2012/006849 WO2013076917A2 (en) 2011-11-25 2012-10-25 An information processing device and an information processing method

Publications (1)

Publication Number Publication Date
MX2014005945A true MX2014005945A (es) 2014-08-08

Family

ID=47216381

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014005945A MX2014005945A (es) 2011-11-25 2012-10-25 Un dispositivo de procesamiento de informacion y un metodo de procesamiento de informacion.

Country Status (11)

Country Link
US (1) US9760265B2 (es)
EP (1) EP2783316A2 (es)
JP (1) JP6069826B2 (es)
CN (1) CN103946850B (es)
AU (1) AU2012341945A1 (es)
BR (1) BR112014011908A2 (es)
CA (1) CA2848997A1 (es)
IN (1) IN2014CN03729A (es)
MX (1) MX2014005945A (es)
RU (1) RU2014119846A (es)
WO (1) WO2013076917A2 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130076898A1 (en) * 2011-08-01 2013-03-28 Richard Philippe Apparatus, systems, and methods for tracking medical products using an imaging unit
US20160005329A1 (en) * 2013-02-28 2016-01-07 Sony Corporation Information processing device and storage medium
JP6245914B2 (ja) * 2013-10-01 2017-12-13 共同印刷株式会社 識別コード読取システム及び方法
JP2017513086A (ja) * 2014-01-29 2017-05-25 ベクトン・ディキンソン・アンド・カンパニーBecton, Dickinson And Company 臨床的な使用時に患者への投薬と液送達を確実にするためのシステムおよび方法
EP3100187B1 (en) 2014-01-29 2019-04-03 Becton, Dickinson and Company System and method for assuring patient medication and fluid delivery at the clinical point of use
ES2879290T3 (es) * 2014-01-29 2021-11-22 Becton Dickinson Co Sistema y método de confirmación de recogida y seguimiento de muestras en el punto clínico de uso
KR102499626B1 (ko) * 2016-05-31 2023-02-14 한국전자통신연구원 상호작용 이벤트 인식장치
JP6681800B2 (ja) 2016-07-15 2020-04-15 株式会社日立製作所 制御装置、制御システム、および制御方法
JPWO2020071057A1 (ja) * 2018-10-01 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体
KR20200056593A (ko) * 2018-11-15 2020-05-25 주식회사 하이퍼커넥트 이미지 처리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
JP6875024B2 (ja) * 2020-01-22 2021-05-19 株式会社フロンティア・フィールド 支援システム及び支援プログラム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2889410B2 (ja) * 1991-11-22 1999-05-10 シャープ株式会社 画像認識装置
US20030076983A1 (en) * 2000-06-06 2003-04-24 Cox Dale W. Personal food analyzer
JP4181313B2 (ja) * 2001-07-13 2008-11-12 日本放送協会 シーン内容情報付加装置及びシーン内容情報付加プログラム
JP4009583B2 (ja) * 2003-05-28 2007-11-14 オリンパス株式会社 医療用画像記録システム
TW200504620A (en) * 2003-06-19 2005-02-01 Yuyama Mfg Co Ltd Medicine inspection apparatus
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
DE10352628A1 (de) 2003-11-11 2005-06-23 Ispat Industries Ltd., Taluka-Pen Verfahren und Einrichtung zum Bestimmen der Schmelzbadhöhe von aufeinanderfolgenden Roheisen-Chargen in einem Elektrolichtbogen-Ofen
JP2005157877A (ja) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> オブジェクト管理システム、情報利用装置、オブジェクト管理方法、情報利用方法、オブジェクト管理用プログラム、情報利用プログラム、およびプログラム記録媒体
JP2005173787A (ja) * 2003-12-09 2005-06-30 Fujitsu Ltd 移動物体の検出・認識を行う画像処理装置
US7689465B1 (en) * 2005-03-10 2010-03-30 Amazon Technologies, Inc. System and method for visual verification of order processing
JP2006004421A (ja) * 2005-06-03 2006-01-05 Sony Corp データ処理装置
CN104537236A (zh) * 2005-12-15 2015-04-22 皇家飞利浦电子股份有限公司 改正人的饮食和活动习惯
US20070179359A1 (en) * 2006-01-10 2007-08-02 Goodwin Amanda M Healthy city living guide and related functionality for managing health
JP4612646B2 (ja) * 2006-03-03 2011-01-12 株式会社湯山製作所 混注監査システム
US20080162188A1 (en) * 2006-06-12 2008-07-03 Sunil Kripalani Method and system for generating graphical medication information
JP4771543B2 (ja) * 2006-11-14 2011-09-14 国立大学法人電気通信大学 物体認識システム、物体認識方法及び物体認識ロボット
US8538775B2 (en) 2007-08-16 2013-09-17 Qualcomm Incorporated Mobile wireless medication management system
JP2009289067A (ja) 2008-05-29 2009-12-10 Sony Corp 医療行為の記録システム、及び端末装置
US20100042430A1 (en) * 2008-08-12 2010-02-18 Irody Inc System and method for collecting and authenticating medication consumption
US8363913B2 (en) * 2008-09-05 2013-01-29 Purdue Research Foundation Dietary assessment system and method
US8439683B2 (en) * 2009-01-07 2013-05-14 Sri International Food recognition using visual analysis and speech recognition
JP5093399B2 (ja) * 2009-03-31 2012-12-12 パナソニック株式会社 薬剤混合装置および薬剤混合方法
US20110119073A1 (en) 2009-11-18 2011-05-19 Al Cure Technologies LLC Method and Apparatus for Verification of Medication Administration Adherence
US8605165B2 (en) * 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
JP5526860B2 (ja) * 2010-02-24 2014-06-18 沖電気工業株式会社 空間情報可視化システム
US8606596B1 (en) * 2010-06-27 2013-12-10 Crisi Medical Systems, Inc. Medication waste and data collection system
KR20120039102A (ko) * 2010-10-15 2012-04-25 엘지전자 주식회사 식이관리장치 및 식이관리방법
KR101926319B1 (ko) * 2010-11-10 2018-12-06 나이키 이노베이트 씨.브이. 시간 기반 체육 활동 측정 및 표시를 위한 시스템 및 방법
US20120179665A1 (en) * 2011-01-07 2012-07-12 Access Business Group International Llc Health monitoring system
WO2012115297A1 (en) * 2011-02-25 2012-08-30 Lg Electronics Inc. Analysis of food items captured in digital images
US9665767B2 (en) * 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
US9067014B2 (en) * 2011-03-04 2015-06-30 Becton, Dickinson And Company Attachment device for identifying constituents within a fluid
US20130076898A1 (en) * 2011-08-01 2013-03-28 Richard Philippe Apparatus, systems, and methods for tracking medical products using an imaging unit
US8761922B2 (en) * 2011-10-10 2014-06-24 Jonathan P Dekar Method and apparatus for monitoring food consumption by an individual
US10006896B2 (en) * 2011-11-14 2018-06-26 University of Pittsburgh—of the Commonwealth System of Higher Education Method, apparatus and system for food intake and physical activity assessment
US20140315162A1 (en) * 2011-12-09 2014-10-23 Joel Ehrenkranz System and methods for monitoring food consumption
US9129158B1 (en) * 2012-03-05 2015-09-08 Hrl Laboratories, Llc Method and system for embedding visual intelligence
EP2836798A1 (en) * 2012-04-11 2015-02-18 Eastern Virginia Medical School Automated intelligent mentoring system (aims)

Also Published As

Publication number Publication date
JP2013114315A (ja) 2013-06-10
CA2848997A1 (en) 2013-05-30
JP6069826B2 (ja) 2017-02-01
BR112014011908A2 (pt) 2017-05-16
EP2783316A2 (en) 2014-10-01
IN2014CN03729A (es) 2015-07-03
CN103946850B (zh) 2018-10-23
US9760265B2 (en) 2017-09-12
US20140331157A1 (en) 2014-11-06
RU2014119846A (ru) 2015-11-27
WO2013076917A2 (en) 2013-05-30
AU2012341945A1 (en) 2014-03-13
WO2013076917A3 (en) 2013-11-07
CN103946850A (zh) 2014-07-23

Similar Documents

Publication Publication Date Title
CN103946850B (zh) 信息处理装置和信息处理方法
US11468975B2 (en) Medication reconciliation system and method
US20200135331A1 (en) Medication monitoring and identification
CN101923606B (zh) 基于数字标签的药品摆药、配发及溯源的系统和方法
KR101122501B1 (ko) 조제제어시스템
US20140009287A1 (en) Information processor apparatus, method, and program
JP6879298B2 (ja) 画像処理プログラム、および、画像処理装置
CN104428776A (zh) 药物管理设备和方法
JP6341299B2 (ja) 画像処理システム、プログラム及び画像処理方法
CN108198613A (zh) 信息登记方法及装置
JP6545446B2 (ja) 処方箋情報送信システム、患者情報管理サーバ、情報送信方法及びプログラム
EP3839962A1 (en) System and method for monitoring adherence to drug regimen
KR101935961B1 (ko) 처방전 자동 입력 시스템 및 방법
JP7142093B2 (ja) 情報提供システム、情報提供サーバ、情報提供方法、情報提供ソフトウエア、及び対話型ソフトウエア
JP6781302B2 (ja) 処方箋情報送信システム、患者情報管理サーバ、情報送信方法及びプログラム
CN113450889A (zh) 一种对象处理方法及其装置
Hiremath et al. Automatic Medication Dispensing System using Machine Learning, Internet of Things and Cloud Computing
Li et al. Application of augmented reality in the medicine packaging box
JP7039875B2 (ja) 薬剤業務支援システム、薬剤業務支援プログラム及び薬剤業務支援方法
KR20190122521A (ko) 바코드를 이용한 전자 처방방법 및 전자 처방시스템
US20190198147A1 (en) Systems and methods for a connected medication dispenser
JP2022067763A (ja) 添付文書表示装置、利用者端末、確認システム、添付文書表示方法、確認方法、コンピュータプログラム
CN113449134A (zh) 食材查询系统、食材查询方法及存储介质
EP4288969A1 (en) Systems and methods for tracking items
US20170076441A1 (en) System and Method for Locating Errors in the Distribution of Prescribed Pills in an Organizer Box of Sequential Compartments Holding the Pills Therein

Legal Events

Date Code Title Description
FA Abandonment or withdrawal