ES2219390T3 - Procedimiento y dispositivo para detectar y analizar el comportamiento en recepcion de personas. - Google Patents
Procedimiento y dispositivo para detectar y analizar el comportamiento en recepcion de personas.Info
- Publication number
- ES2219390T3 ES2219390T3 ES00960614T ES00960614T ES2219390T3 ES 2219390 T3 ES2219390 T3 ES 2219390T3 ES 00960614 T ES00960614 T ES 00960614T ES 00960614 T ES00960614 T ES 00960614T ES 2219390 T3 ES2219390 T3 ES 2219390T3
- Authority
- ES
- Spain
- Prior art keywords
- people
- coordinates
- reception
- reception space
- modules
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Multimedia (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Geophysics And Detection Of Objects (AREA)
- Closed-Circuit Television Systems (AREA)
- Air Conditioning Control Device (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Procedimiento para la detección y el análisis del comportamiento de recepción de personas en al menos un espacio de recepción (w1, w2, w3) dependiendo de mensajes visuales, audiovisuales y/o auditivos (d), acciones o la orientación de la afluencia de clientes, en el que las coordenadas de lugar de cada persona, que son en forma de coordenadas de los centros de gravedad superficiales, desde su entrada al espacio de recepción hasta su salida del espacio de recepción, son registradas en relación al tiempo con una frecuencia determinada, que preferiblemente es mayor a uno, caracterizado por el hecho de que, aparte de las coordenadas de los centros de gravedad superficiales, se captan otras coordenadas seleccionadas del cuerpo de cada persona, incluyendo tanto las coordenadas del centro de gravedad de valores grises de las personas como los centros de gravedad diferenciales de partes individuales del cuerpo de las personas, mediante los cuales se determinan las inclinaciones y los giros del cuerpo de las personas y/o de las partes del cuerpo de las personas, así como la postura del cuerpo y/o de las partes del cuerpo.
Description
Procedimiento y dispositivo para detectar y
analizar el comportamiento en recepción de personas.
La invención se refiere a un procedimiento y a un
dispositivo para la detección y el análisis del comportamiento en
la recepción de personas en al menos un espacio de recepción,
dependiendo de los mensajes visuales, audiovisuales y auditivos,
según la clase de las reivindicaciones. Particularmente está
dirigida a la investigación automática con una verificación
objetiva de la eficacia publicitaria de mensajes, acciones y
dispositivos para la orientación de la afluencia de clientes, así
como a la investigación del comportamiento dirigido de los clientes
en tiendas, calles comerciales, galerías comerciales, terminales,
estaciones, gasolineras etc..
Para determinar la efectividad de las medidas
publicitarias de productos y servicios se utilizan sensores
(sensores de infrarrojos, CCD, entre otros) en disposiciones
idóneas, para contar las personas a la entrada de una zona de
publicidad y a la salida de una zona de publicidad, así como para
determinar más o menos estadísticamente la duración de su estancia
en la zona de publicidad. Dado el caso, se puede determinar
indirectamente también el comportamiento de compra de las personas,
dependiendo de la publicidad en curso o no en curso, según las
mercancías efectivamente compradas con ayuda de los registros de
las cajas electrónicas a la salida de una zona de compra. Todos los
resultados pueden ser evaluados en un ordenador y en consecuencia
se pueden sacar ciertas conclusiones de la actitud de compra de los
receptores dependiendo de la publicidad. El método conocido en
WO-A- 98/22901 es bastante impreciso, sin embargo,
en su forma practicada hasta ahora, debido a que, por ejemplo, la
mera presencia en la zona publicitaria aún no dice nada sobre la
atención a la publicidad.
Un método preciso para determinar la percepción
de mensajes visuales o audiovisuales es el denominado
"seguimiento visual", por el que se determina y se registra el
movimiento de los ojos de una o algunas personas con ayuda de
sensores adecuados dispuestos apropiadamente. La posición de los
ojos y de las pupilas señala la percepción y la atención del medio
publicitario por parte del receptor en cuestión, y a través de una
larga cadena de análisis unida a interrogaciones se puede
establecer una coherencia entre la percepción u atención de la
publicidad y el comportamiento de compra de los receptores. Este
método es técnicamente muy costoso, teniendo en cuenta que
temporalmente permanecen varios receptores en una zona publicitaria
y de compra, con lo cual habría que seguir el movimiento de ojos de
cada receptor.
También se conocen diversos procedimientos para
la extracción de personas desde imágenes de vídeo, así como la
localización de las formaciones de la cabeza y los hombros y el
reconocimiento y memorización de rostros. Sirven para contar e
identificar así como para verificar la presencia de personas. De
esta manera se reconocen en general la cabeza, la cara o los hombros
y se les asignan modelos de cuerpo. Estos cuerpos modelados y las
coordenadas de los cuerpos resultantes son en gran parte virtuales
y no utilizables para un análisis de atención y comunicación
real.
El objeto de la invención es, por lo tanto, la
creación de un procedimiento preciso y poco costoso para la
detección, el análisis y la evaluación del movimiento de personas
con el fin de determinar la eficacia publicitaria de mensajes,
acciones y la orientación de la afluencia de clientes, y un
dispositivo para la puesta en práctica de tal procedimiento.
Según la invención este objeto se alcanza
mediante las características distintivas de la reivindicación
primera y cuarta, y mediante la configuración ventajosa con las
características distintivas de las reivindicaciones secundarias. La
invención se caracteriza por el hecho de que se detecta
repetidamente un espacio definido, en su totalidad y en sus
detalles, con una frecuencia relativamente alta y con ayuda de al
menos un sensor pasivo o activo. Esta detección puede estar unida a
la cuenta y/o identificación de personas. La frecuencia de la
detección debe ser superior a uno, y favorablemente es de 7 a 30
Hz. El o los sensores pueden ser en forma de una cámara
fotoeléctrica CCD (pasiva), o un láser u otras ondas
electromagnéticas u ondas acústicas, o sensores que emiten o
reciben radiaciones térmicas (activas y pasivas). Éstos
dispositivos pueden estar dispuestos en el techo o en las paredes
laterales, en la zona superior del espacio definido. Utilizando un
emisor electromagnético, acústico o térmico, el interior del
espacio es explorado en una secuencia rápida y entonces se produce
de una manera activa un perfil sobre la planta incluyendo los
objetos o sujetos situados en el espacio, mientras que con una
cámara fotoeléctrica CCD se reproduce el volumen sobre una matriz
CCD, que en el proceso de la ilustración es pasiva.
En cualquier caso, no sólo pueden ser
registradas todas las variaciones del espacio y los rastros de las
personas y objetos que se mueven en el espacio desde que entran al
espacio hasta que salen del mismo, sino que también pueden captarse
los giros e inclinaciones del cuerpo o de la cabeza de cada
persona, la variación de su postura o la postura de sus
extremidades, y también se registra la velocidad y la permanencia de
los objetos y sujetos individualmente en relación al tiempo. Los
objetos inmóviles, en efecto, son registrados igualmente, sin
embargo durante los sucesivos procesos de tratamiento de datos
quedan descartados o desatendidos. El interior del espacio puede
ser registrado por un proceso con una imagen o un proceso con dos
imágenes (estereoscopio). De la misma manera, no sólo es posible
evaluar imágenes en blanco y negro, sino también imágenes en color,
y no sólo imágenes ópticas, sino también imágenes producidas por
radiación de ondas radioeléctricas o por radiación térmica, es
decir, por ejemplo por reflejos espectroscópicos. De esta manera,
es igualmente posible detectar objetos y sujetos también según su
tamaño, sexo y edad, durante todo el tiempo que se hallen en el
espacio definido.
Para la detección o identificación de los objetos
y sujetos que se hallan o se mueven en el espacio definido se
emplean preferiblemente medios y métodos (algoritmos) de
elaboración de imágenes. A partir de valores grises o cromáticos, o
de polígonos característicos, preferiblemente circunscritos,
incluyendo triángulos, se determinan los centros de gravedad y sus
variaciones de posición dependiendo del tiempo, y se deduce el
comportamiento del movimiento de personas y objetos. Para la
determinación de su número, posiciones, sentidos de movimiento,
modelos de movimiento, velocidades, permanencias, posturas y giros
corporales, así como de la dirección de la vista pueden
establecerse también centros de gravedad diferenciales, los cuales
se pueden detectar y elaborar de manera vectorial, incluyendo
puntos o líneas de marcación del cuerpo, de las extremidades, de
los hombros y/o de la cabeza de personas, o dentro de un sistema
cartesiano de coordenadas espaciales.
El procedimiento según la invención permite una
cuenta más precisa que los procedimientos conocidos, dado que la
cuenta no se realiza a lo largo de una barra (línea, plano), sino
dentro del espacio. Otra diferenciación de las personas detectadas
es posible gracias al análisis espectroscópico y/o térmico de la
radiación u ondas reflejadas.
Un dispositivo para la detección del número y los
movimientos, las características y coordenadas de objetos y
sujetos, dependiendo de los mensajes ofrecidos, comprende
principalmente uno o varios sensores (módulos sensores) o cámaras
(módulos de cámaras), que se sitúan en el techo y/o en las paredes
laterales, particularmente en la zona superior contigua al techo de
un espacio definido, módulos de tratamiento de imágenes subordinados
a los sensores/cámaras con capturadora de vídeo, interfaces de
soporte, interfaz de Ethernet u otras interfaces de teletransmisión
de datos, y un módulo de bases de datos (con interfaces de soporte
o interfaces de Ethernet). Los módulos de bases de datos
individuales pueden estar comunicados con un módulo central de
evaluación y/o de control mediante teletransmisión de datos, el cual
da forma a los resultados de las señales suministradas por los
sensores y puede influir y controlar los mensajes, acciones y
sistemas de orientación de los clientes. Cada módulo sensor o
módulo de cámara fotoeléctrica tiene un módulo subordinado de señal
del sensor o un módulo de tratamiento de imágenes que capta
cualquier objeto o sujeto que entra en el espacio definido, lo
identifica como tal y lo diferencia en cada caso de la manera arriba
mencionada mediante la exploración repetida o el registro del
espacio y su interior, los rastros del objeto/sujeto, sus
movimientos dentro del espacio y a través del espacio hasta
abandonar el mismo, así como sus distintivos específicos, y luego
envía los resultados así obtenidos al módulo de bases de datos que
realiza la evaluación. Por lo tanto, el módulo de bases de datos
puede pertenecer a diferentes módulos de sensores y módulos de
tratamiento de imágenes.
Mediante la relación entre el sensor de
información o el tratamiento de imágenes y la base de datos que
realiza la evaluación estadística, el sensor o el módulo de
tratamiento de imágenes pueden generar de forma continua un gran
número de datos, con cuyo análisis en el módulo de bases de datos se
pueden obtener opcional o simultáneamente informaciones sobre la
afluencia de clientes y el comportamiento de recepción de manera
cuantificada y cualificada, incluso de clientes individuales.
Eventualmente, cuando se solicite, se puede iniciar, consultar y/o
captar la información del modulo sensor o del módulo de tratamiento
de imágenes, durante toda la proyección de imágenes en pantallas
publicitarias, o bien durante cada nuevo anuncio publicitario.
Tanto en el primer como en el segundo caso anteriormente descritos,
es posible un análisis del comportamiento de recepción en relación
al tiempo, al anuncio publicitario o al contenido. En el segundo
caso mencionado sólo puede realizarse un análisis general del
comportamiento de recepción en relación al anuncio publicitario.
Siempre que se pueda descomponer el anuncio publicitario en
intervalos es posible a su vez un análisis en relación al tiempo y
a la secuencia, lo que permitirá conclusiones referidas a los
contenidos de los anuncios publicitarios y a la estructura de los
mismos. Si el análisis del anuncio publicitario se descompone en
intervalos, entonces es posible una optimización de los contenidos
y la estructura del anuncio publicitario en virtud de la eficacia u
atención de las secuencias individuales de los mensajes
publicitarios. Debido a la alta frecuencia de análisis de las
imágenes es posible una descomposición interna de los anuncios
publicitarios. Puesto que, por ejemplo, en un anuncio publicitario
de 15 segundos con una frecuencia de exploración de 7,5 Hz hay
disponibles mas de 100 imágenes para el análisis, las cuales pueden
distribuirse en varios intervalos razonables del anuncio
publicitario, se puede determinar bastante bien y con exactitud la
eficacia publicitaria de las escenas individuales.
A continuación, la invención se describirá mas en
detalle con ayuda de los dibujos esquemáticos que muestran:
Fig. 1 una galería con tres espacios
definidos,
Fig. 2 el alcance de la perspectiva central de la
cámara fotoeléctrica sobre el espacio captado,
Fig. 3 una ilustración de un espacio de recepción
sobre una matriz CCD de una cámara fotoeléctrica,
Fig. 4 la estructura básica de un dispositivo
según la invención, y
Fig. 5 la conexión de varios dispositivos según
la invención con una central de evaluación y control.
En la Fig. 1 se sitúan diferentes objetos y
sujetos (receptores) r con diversos movimientos y direcciones de
movimiento en espacios de recepción definidos w_{1} a w_{3} de
una galería P. La discrepancia de objetos y sujetos se expresa por
su diferente comportamiento de reflexión, lo que a su vez está
condicionado por el tamaño, la ropa, la forma del cuerpo, la edad,
el sexo, las personas acompañantes y objetos etc., que aquí se
resume bajo el concepto de distintivos característicos o
específicos. En una pared lateral s del espacio de recepción
w_{2} está dispuesta un pantalla d. En cada espacio de recepción
w_{1} a w_{3} hay un módulo con una cámara fotoeléctrica c_{1}
o c_{2} o c_{3}, que según un régimen de tiempo prefijado capta
el contenido de su espacio de recepción, lo registra y lo transmite
a un dispositivo de evaluación no representado. De esta forma es
posible detectar las personas según su número y diferenciación y,
captar sus movimientos, giros del cuerpo, movimientos de la cabeza
y brazos, sus paradas como receptores r y, a partir de esto, deducir
la atención a los mensajes publicitarios de la pantalla. A través
de los campos de solapamiento ü_{i} se permite la transferencia
de las personas identificadas mediante coordenadas y distintivos
característicos a un dispositivo de evaluación, que no está
representado en la Fig. 1, conectado a los módulos de cámaras
fotoeléctricas y que se describirá más adelante (seguimiento de una
zona a otra).
La Fig. 2 representa de nuevo un espacio de
recepción w situado bajo un módulo sensor c, que presenta en una
pared lateral s una pantalla d. El sensor c está acoplado a un
biosensor c_{b}, que forma parte del sensor c y también puede
estar integrado al mismo, el cual evalúa de manera espectroscópica
o radiológica las características diferenciadas de la radiación
reflejada por los receptores r.
En el espacio de recepción w hay diferentes
receptores r, que se mueven en sentidos diferentes o permanecen en
determinados lugares. Un espacio limitado por un trazo de líneas 1
aclara que sólo los receptores (objetos o sujetos) r que se hallan
en este espacio son captados completamente, y que las superficies
de planta de los espacios de recepción w_{i}; adyacentes deben
solaparse respecto a la perspectiva central de la ilustración óptica
con el fin de transferir las personas identificadas, de manera que
se puedan captar completamente todos los receptores en cuanto a sus
movimientos y características específicas hasta una altura de
aprox. 2 m.
En la Fig. 3 se representa una matriz CCD m de un
módulo de sensor c con una definición suficiente, sobre el cual se
representan tanto la pared lateral fija s con la pantalla d como
los receptores r en forma de un grupo de pixeles a_{i} con
valores grises condicionados por las personas y el entorno y el
movimiento, que se mueven por los rastros b_{i}. Así, se colocan
captaciones unas sobre otras, las cuales se habían tomado con una
frecuencia de por ejemplo 25 Hz y de las cuales por ejemplo cada
cuatro o cada dos se utilizan para la evaluación. Resulta evidente
que el receptor r correspondiente al grupo de pixeles a_{i} se ha
movido a una velocidad mayor que los receptores r_{i}
correspondientes a los grupos de píxeles a_{2}, a_{3}, a_{4},
de los cuales sólo el receptor r; correspondiente al grupo de
píxeles a_{3} se ha dirigido hacia la pantalla. Sin embargo,
también se puede reconocer que los receptores correspondientes a
los grupos de píxeles a_{2}, a_{3}, a_{4} se han movido en
diferentes momentos a velocidades muy diferentes, con lo cual el
receptor correspondiente al grupo de píxeles a_{3} demuestra su
interés en el mensaje de la pantalla también por una reducción
apreciable de la velocidad hasta llegar a detenerse. El receptor
correspondiente al grupo de píxeles a_{5} que se mueve sobre el
rastro b_{5} toca solo tangencialmente el espacio definido
ilustrado.
En la Fig. 4 se representan, al igual que en la
Fig. 1, tres módulos sensores c_{1}, c_{2}, c_{3} que tienen
subordinados tres módulos de tratamiento de imágenes p; y un módulo
de bases de datos común n. Los módulos de tratamiento de imágenes
p_{i} producen constantemente un gran número de datos y, al
efectuar un análisis de las mismas en el módulo de bases de datos n
en relación al tiempo aparece el número y el comportamiento de los
clientes en relación al tiempo. En vez de estar espacialmente
separados, los módulos sensores c_{i} y los módulos de
tratamiento de imágenes p_{i} también pueden estar reunidos en
una misma unidad.
El análisis de los movimientos de personas en
relación al tiempo y de las características específicas de las
personas se relaciona entonces con los mensajes visuales,
audiovisuales o auditivos o las acciones ofrecidas en relación al
tiempo. De esta manera se permite analizar el comportamiento de los
receptores individuales en referencia a anuncios publicitarios o
acciones, al igual que la afluencia de clientes. Las imágenes
generadas en los módulos sensores c_{i} se procesan en los
módulos de tratamiento de imágenes. Así, se determina para cada
persona detectada las características específicas ópticas (valores
grises, valores cromáticos, etc.) al igual que las coordenadas de
los puntos de gravedad del cuerpo o las partes del cuerpo
(extremidades, cabeza, nariz) y las coordenadas de los polígonos de
circunscripción. A cada persona detectada de esta manera se le
asigna un número de identificación. Además, en los módulos de
tratamiento de imágenes p_{i} se determinan las velocidades y los
vectores de dirección del movimiento de las personas, al igual que
la distancia desde el lugar de presentación y la distancia unas de
otras.
Los datos determinados de esta manera pasan al
módulo de bases de datos n, que determina a partir de los mismos el
comportamiento del movimiento de las personas individuales e
incluso el tiempo de permanencia de cada una, con una velocidad
media definida en los espacios de acción o recepción, que se
compara con la velocidad de la persona individual. El módulo de
bases de datos n puede determinar por consiguiente criterios de
atención directos (originarios, por ejemplo las coordenadas) e
indirectos (derivados, por ejemplo la velocidad), evaluarlos y
sacar valores medios.
La Fig. 5 muestra cuatro grupos de módulos
g_{1}, g_{2}, g_{3}, g_{4}, que están equipados de
diferente manera con módulos de cámaras fotoeléctricas y módulos de
tratamiento de imágenes. A cada grupo de módulos g_{1}, g_{2},
g_{3}, g_{4} pertenece de forma correspondiente un módulo de
bases de datos n_{1}, n_{2}, n_{3}, n_{4}, y todos los
módulos de bases de datos están conectados a un módulo central de
evaluación y/o de control z, al que transmiten sus datos y el cual
los controla en caso necesario dependiendo de los anuncios
publicitarios. En virtud de los datos del análisis del módulo de
control z se puede optimizar en cada situación el modo de
proyección de los anuncios publicitarios en cuanto a la sucesión,
la ubicación y la frecuencia.
\dotable{\tabskip\tabcolsep#\hfil\+#\hfil\tabskip0ptplus1fil\dddarstrut\cr}{ a _{i} \+ grupo de píxeles\cr b _{i} \+ rastros\cr c, c _{i} \+ módulos de cámaras fotoeléctricas o sensores\cr c _{b} \+ biosensor\cr d \+ pantalla\cr g _{i} \+ grupo de módulos\cr 1 \+ trazado de líneas\cr m \+ matriz CCD\cr n, n _{i} \+ módulos de bases de datos\cr p _{i} \+ módulos de tratamiento de imágenes\cr r \+ receptores\cr s \+ pared lateral s\cr ü, ü _{i} \+ zonas de solapamiento\cr w, w _{i} \+ espacios de recepción\cr Z \+ módulo central de evaluación y control\cr P \+ galería\cr}
Claims (10)
1. Procedimiento para la detección y el análisis
del comportamiento de recepción de personas en al menos un espacio
de recepción (w_{1}, w_{2}, w_{3}) dependiendo de mensajes
visuales, audiovisuales y/o auditivos (d), acciones o la
orientación de la afluencia de clientes, en el que las coordenadas
de lugar de cada persona, que son en forma de coordenadas de los
centros de gravedad superficiales, desde su entrada al espacio de
recepción hasta su salida del espacio de recepción, son registradas
en relación al tiempo con una frecuencia determinada, que
preferiblemente es mayor a uno, caracterizado por el hecho de
que, aparte de las coordenadas de los centros de gravedad
superficiales, se captan otras coordenadas seleccionadas del cuerpo
de cada persona, incluyendo tanto las coordenadas del centro de
gravedad de valores grises de las personas como los centros de
gravedad diferenciales de partes individuales del cuerpo de las
personas, mediante los cuales se determinan las inclinaciones y los
giros del cuerpo de las personas y/o de las partes del cuerpo de
las personas, así como la postura del cuerpo y/o de las partes del
cuerpo.
2. Procedimiento según la reivindicación 1,
caracterizado por el hecho de que las coordenadas del cuerpo
comprenden también las coordenadas del perfil de las personas o de
las partes del cuerpo de las personas.
3. Procedimiento según reivindicación 1,
caracterizado por el hecho de que a la persona se le asigna
al menos un número de identificación y las coordenadas
correspondientes, de manera que al cambiar la persona de un espacio
de recepción a un espacio de recepción adyacente sirven para la
transferencia de esta persona.
4. Dispositivo para la ejecución del
procedimiento según al menos una de las reivindicaciones 1 a 3,
caracterizado por el hecho de que en la zona superior de
cada espacio de recepción está previsto al menos un módulo sensor
(c_{1}, c_{2}, c_{3}) que registra la radiación
electromagnética de las personas presentes en el espacio de
recepción, y porque en el módulo sensor están subordinados un
módulo de tratamiento de imágenes (p_{1}, p_{2}, p_{3}),
adecuado para la ejecución del procedimiento según al menos una de
las reivindicaciones 1 a 3, y uno o varios módulos de bases de
datos.
5. Dispositivo según la reivindicación 4,
caracterizado por el hecho de que sobre uno o varios módulos
sensores están dispuestos varios módulos de bases de datos
(c_{1}, c_{2}, c_{3}) y varios módulos de tratamiento de
imágenes (p_{1}, p_{2}, p_{3}).
6. Dispositivo según la reivindicación 5,
caracterizado por el hecho de que al menos dos módulos de
bases de datos están conectados a un módulo central de evaluación y
de control (z).
7. Dispositivo según la reivindicación 4,
caracterizado por el hecho de que en el módulo sensor (c)
está dispuesto otro módulo de sensor (c_{b}), que transmite la
radiación electromagnética o térmica para una evaluación
espectroscópica o térmica.
8. Dispositivo según la reivindicación 7,
caracterizado por el hecho de que el módulo sensor está
formado por una cámara fotoeléctrica CCD.
9. Dispositivo según la reivindicación 4,
caracterizado por el hecho de que el módulo sensor está
dispuesto en el centro del techo del espacio de recepción.
10. Dispositivo según reivindicación 4,
caracterizado por el hecho de que los espacios de recepción
adyacentes están solapados.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19943703 | 1999-09-06 | ||
DE19943703 | 1999-09-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2219390T3 true ES2219390T3 (es) | 2004-12-01 |
Family
ID=7921774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00960614T Expired - Lifetime ES2219390T3 (es) | 1999-09-06 | 2000-09-06 | Procedimiento y dispositivo para detectar y analizar el comportamiento en recepcion de personas. |
Country Status (9)
Country | Link |
---|---|
US (1) | US6967674B1 (es) |
EP (1) | EP1210680B1 (es) |
AT (1) | ATE264524T1 (es) |
AU (1) | AU7284700A (es) |
CA (1) | CA2390456C (es) |
DE (3) | DE19962201A1 (es) |
ES (1) | ES2219390T3 (es) |
IL (2) | IL148382A0 (es) |
WO (1) | WO2001018697A1 (es) |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7511630B2 (en) * | 1999-05-04 | 2009-03-31 | Intellimat, Inc. | Dynamic electronic display system with brightness control |
DE10034976B4 (de) * | 2000-07-13 | 2011-07-07 | iris-GmbH infrared & intelligent sensors, 12459 | Erfassungsvorrichtung zum Erfassen von Personen |
US7606728B2 (en) * | 2002-09-20 | 2009-10-20 | Sorensen Associates Inc. | Shopping environment analysis system and method with normalization |
US7688349B2 (en) * | 2001-12-07 | 2010-03-30 | International Business Machines Corporation | Method of detecting and tracking groups of people |
KR100486709B1 (ko) * | 2002-04-17 | 2005-05-03 | 삼성전자주식회사 | 객체기반 대화형 동영상 서비스 시스템 및 그 방법 |
US7624023B2 (en) * | 2002-06-04 | 2009-11-24 | International Business Machines Corporation | Client opportunity modeling tool |
MXPA05003906A (es) * | 2002-10-12 | 2005-10-05 | Intellimats Llc | Sistema de despliegue en piso con orientacion de imagen variable. |
CH700703B1 (de) * | 2003-11-05 | 2010-10-15 | Fastcom Technology Sa | Einrichtung für Durchgangskontrolle und Personenvereinzelung. |
JP4085959B2 (ja) * | 2003-11-14 | 2008-05-14 | コニカミノルタホールディングス株式会社 | 物体検出装置、物体検出方法、および記録媒体 |
US8406341B2 (en) | 2004-01-23 | 2013-03-26 | The Nielsen Company (Us), Llc | Variable encoding and detection apparatus and methods |
JP4676160B2 (ja) * | 2004-04-13 | 2011-04-27 | 株式会社日立製作所 | 情報通知方法、および、情報通知システム |
DE102004018813A1 (de) | 2004-04-19 | 2006-02-23 | Ibeo Automobile Sensor Gmbh | Verfahren zur Erkennung und/oder Verfolgung von Objekten |
US20060047515A1 (en) * | 2004-08-25 | 2006-03-02 | Brenda Connors | Analyzing human movement patterns |
WO2006025805A1 (en) * | 2004-09-01 | 2006-03-09 | Guclu Tanitim Iletisim Hizmetleri Danismanlik Reklamcilik Ve Matbaacilik San.Tic.Ltd. | Aural and/or visual advertisement or announcement unit |
DE102004047258A1 (de) * | 2004-09-24 | 2006-04-13 | Siemens Ag | Vorrichtung zur Ermittlung der Auslastung von Fahrzeugen |
CA2581982C (en) | 2004-09-27 | 2013-06-18 | Nielsen Media Research, Inc. | Methods and apparatus for using location information to manage spillover in an audience monitoring system |
DE102004062650B4 (de) * | 2004-12-20 | 2010-03-25 | Advanced Display Technology Ag | Verfahren, Vorrichtung und System zur Erstellung von durch auffallendes Licht erkennbaren Bildern, Texten und Informationen |
JP2006259930A (ja) * | 2005-03-15 | 2006-09-28 | Omron Corp | 表示装置およびその制御方法、表示装置を備えた電子機器、表示装置制御プログラム、ならびに該プログラムを記録した記録媒体 |
WO2006099612A2 (en) | 2005-03-17 | 2006-09-21 | Nielsen Media Research, Inc. | Methods and apparatus for using audience member behavior information to determine compliance with audience measurement system usage requirements |
FR2887363A1 (fr) * | 2005-06-20 | 2006-12-22 | Christophe Weber | Dispositif et procede interactifs pour la presentation et la promotion d'un produit |
FR2894700B1 (fr) * | 2005-12-09 | 2009-10-02 | Eurecam Sarl | Dispositif et installation de comptage d'objets mobiles |
JP4764273B2 (ja) * | 2006-06-30 | 2011-08-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
DE102006044298B3 (de) * | 2006-09-20 | 2008-01-31 | Siemens Ag | Verfahren zur Überwachung von Personenansammlungen |
US10885543B1 (en) | 2006-12-29 | 2021-01-05 | The Nielsen Company (Us), Llc | Systems and methods to pre-scale media content to facilitate audience measurement |
EP1962243A1 (en) * | 2007-02-21 | 2008-08-27 | Vaelsys Formacion y Desarrollo S.L. | Advertising impact measuring system and method |
US7957565B1 (en) * | 2007-04-05 | 2011-06-07 | Videomining Corporation | Method and system for recognizing employees in a physical space based on automatic behavior analysis |
US8229781B2 (en) * | 2007-04-27 | 2012-07-24 | The Nielson Company (Us), Llc | Systems and apparatus to determine shopper traffic in retail environments |
EP2212902A4 (en) | 2007-11-01 | 2016-12-07 | Rapiscan Systems Inc | MULTI-SCREEN DETECTION SYSTEMS |
US7796022B2 (en) * | 2007-12-18 | 2010-09-14 | Birtcher Brandon R | Notification in a virtual receptionist method and system |
US8446281B2 (en) * | 2007-12-18 | 2013-05-21 | Brandon Reid Birtcher Family Trust | Virtual receptionist method and system |
FR2927442B1 (fr) * | 2008-02-12 | 2013-06-14 | Cliris | Procede pour determiner un taux de transformation local d'un objet d'interet. |
FR2927444B1 (fr) * | 2008-02-12 | 2013-06-14 | Cliris | Procede pour generer une image de densite d'une zone d'observation |
AU2008200926B2 (en) * | 2008-02-28 | 2011-09-29 | Canon Kabushiki Kaisha | On-camera summarisation of object relationships |
US20090265215A1 (en) * | 2008-04-22 | 2009-10-22 | Paul Bernhard Lindstrom | Methods and apparatus to monitor audience exposure to media using duration-based data |
EP2131306A1 (en) * | 2008-06-02 | 2009-12-09 | THOMSON Licensing | Device and method for tracking objects in a video, system and method for audience measurement |
US8009863B1 (en) * | 2008-06-30 | 2011-08-30 | Videomining Corporation | Method and system for analyzing shopping behavior using multiple sensor tracking |
DE102008047358A1 (de) * | 2008-09-15 | 2010-03-25 | Deutsche Telekom Ag | Interaktives Werbedisplay |
DE202008012336U1 (de) | 2008-09-16 | 2008-11-20 | Keller, Gregor | Anordnung zur Bestimmung der Aufmerksamkeit von Personen aus einem Personenstrom |
US8295545B2 (en) * | 2008-11-17 | 2012-10-23 | International Business Machines Corporation | System and method for model based people counting |
WO2010102835A1 (en) * | 2009-03-12 | 2010-09-16 | Nec Europe Ltd. | Pervasive display system and method for operating a pervasive display system |
DE102009034266B4 (de) * | 2009-07-21 | 2013-12-19 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Vorrichtung und Verfahren zum Anzeigen eines digitalen Bildes |
JP5310456B2 (ja) * | 2009-10-05 | 2013-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
US8855101B2 (en) | 2010-03-09 | 2014-10-07 | The Nielsen Company (Us), Llc | Methods, systems, and apparatus to synchronize actions of audio source monitors |
US9134399B2 (en) | 2010-07-28 | 2015-09-15 | International Business Machines Corporation | Attribute-based person tracking across multiple cameras |
US8532390B2 (en) | 2010-07-28 | 2013-09-10 | International Business Machines Corporation | Semantic parsing of objects in video |
US10424342B2 (en) | 2010-07-28 | 2019-09-24 | International Business Machines Corporation | Facilitating people search in video surveillance |
US8515127B2 (en) | 2010-07-28 | 2013-08-20 | International Business Machines Corporation | Multispectral detection of personal attributes for video surveillance |
US8885842B2 (en) | 2010-12-14 | 2014-11-11 | The Nielsen Company (Us), Llc | Methods and apparatus to determine locations of audience members |
US20120175192A1 (en) * | 2011-01-11 | 2012-07-12 | Utechzone Co., Ltd. | Elevator Control System |
US20130030875A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | System and method for site abnormality recording and notification |
US20130035979A1 (en) * | 2011-08-01 | 2013-02-07 | Arbitron, Inc. | Cross-platform audience measurement with privacy protection |
CN103165062B (zh) * | 2011-12-15 | 2016-07-13 | 联发科技(新加坡)私人有限公司 | 多媒体播放器电源的控制方法及装置 |
US10839227B2 (en) | 2012-08-29 | 2020-11-17 | Conduent Business Services, Llc | Queue group leader identification |
US9600711B2 (en) | 2012-08-29 | 2017-03-21 | Conduent Business Services, Llc | Method and system for automatically recognizing facial expressions via algorithmic periocular localization |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9021516B2 (en) | 2013-03-01 | 2015-04-28 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by measuring a crest factor |
US9118960B2 (en) | 2013-03-08 | 2015-08-25 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by detecting signal distortion |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9219969B2 (en) | 2013-03-13 | 2015-12-22 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by analyzing sound pressure levels |
US9191704B2 (en) | 2013-03-14 | 2015-11-17 | The Nielsen Company (Us), Llc | Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures |
US9247273B2 (en) | 2013-06-25 | 2016-01-26 | The Nielsen Company (Us), Llc | Methods and apparatus to characterize households with media meter data |
CN105764827B (zh) * | 2013-10-04 | 2018-02-02 | 通力股份公司 | 基于行走者速度的确定用于电梯分配的系统和方法 |
US9426525B2 (en) | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
BR102014019625B1 (pt) * | 2014-03-19 | 2021-01-26 | Digicon S/a Controle Eletrônico Para Mecânica | sistema e método de controle e monitoramento para acesso em área restrita |
CN107000981B (zh) * | 2014-11-26 | 2020-05-05 | 奥的斯电梯公司 | 基于乘客移动的电梯安全和控制系统 |
US9924224B2 (en) | 2015-04-03 | 2018-03-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine a state of a media presentation device |
US9848222B2 (en) | 2015-07-15 | 2017-12-19 | The Nielsen Company (Us), Llc | Methods and apparatus to detect spillover |
CN106454716B (zh) * | 2015-08-13 | 2019-11-19 | 株式会社理光 | 对象分析方法、对象分析设备及对象分析系统 |
US10775151B2 (en) * | 2016-04-22 | 2020-09-15 | Hewlett-Packard Development Company, L.P. | Distance determination |
US10215858B1 (en) | 2016-06-30 | 2019-02-26 | Google Llc | Detection of rigid shaped objects |
CN106650695A (zh) * | 2016-12-30 | 2017-05-10 | 苏州万店掌网络科技有限公司 | 一种基于视频分析技术的跟踪统计人流量的系统 |
US10264406B1 (en) | 2018-07-26 | 2019-04-16 | Motorola Solutions, Inc. | Device, system and method for causing a notification device to provide an indication of a searched area |
CN113112650B (zh) * | 2021-04-14 | 2022-10-25 | 广东欧比特科技有限公司 | 一种蓝牙智能锁系统及其使用方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61260391A (ja) * | 1985-05-14 | 1986-11-18 | 三菱電機株式会社 | 監視制御装置 |
US4858000A (en) * | 1988-09-14 | 1989-08-15 | A. C. Nielsen Company | Image recognition audience measurement system and method |
JP2633694B2 (ja) | 1989-08-25 | 1997-07-23 | フジテック 株式会社 | 人数検出装置 |
US5063603A (en) * | 1989-11-06 | 1991-11-05 | David Sarnoff Research Center, Inc. | Dynamic method for recognizing objects and image processing system therefor |
US5097328A (en) * | 1990-10-16 | 1992-03-17 | Boyette Robert B | Apparatus and a method for sensing events from a remote location |
US5305390A (en) * | 1991-01-11 | 1994-04-19 | Datatec Industries Inc. | Person and object recognition system |
US5550928A (en) * | 1992-12-15 | 1996-08-27 | A.C. Nielsen Company | Audience measurement system and method |
WO1994027408A1 (en) * | 1993-05-14 | 1994-11-24 | Rct Systems, Inc. | Video traffic monitor for retail establishments and the like |
US5519669A (en) * | 1993-08-19 | 1996-05-21 | At&T Corp. | Acoustically monitored site surveillance and security system for ATM machines and other facilities |
AUPN220795A0 (en) * | 1995-04-06 | 1995-05-04 | Marvel Corporation Pty Ltd | Audio/visual marketing device |
DE69633524T2 (de) * | 1995-04-12 | 2005-03-03 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Gerät zur Objekterfassung |
US5764283A (en) * | 1995-12-29 | 1998-06-09 | Lucent Technologies Inc. | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths |
US5953055A (en) | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
GB9617592D0 (en) | 1996-08-22 | 1996-10-02 | Footfall Limited | Video imaging systems |
DE19641000B8 (de) * | 1996-10-04 | 2005-08-25 | Viisage Technology Ag | Verfahren und Anordnung zur automatischen Erkennung der Anzahl von Personen in einer Personenschleuse |
DE19647341C1 (de) * | 1996-11-15 | 1998-04-30 | Holger Dr Lausch | Verfahren und Anordnung zur Projektion und Rezeption von visuellen und audiovisuellen Botschaften und deren Analyse für die Ermittlung der Reichweite und des Käuferverhaltens |
-
1999
- 1999-12-16 DE DE19962201A patent/DE19962201A1/de not_active Ceased
-
2000
- 2000-09-06 WO PCT/EP2000/008698 patent/WO2001018697A1/de active IP Right Grant
- 2000-09-06 DE DE50006092T patent/DE50006092D1/de not_active Expired - Lifetime
- 2000-09-06 AU AU72847/00A patent/AU7284700A/en not_active Abandoned
- 2000-09-06 US US10/069,907 patent/US6967674B1/en not_active Expired - Fee Related
- 2000-09-06 AT AT00960614T patent/ATE264524T1/de not_active IP Right Cessation
- 2000-09-06 EP EP00960614A patent/EP1210680B1/de not_active Expired - Lifetime
- 2000-09-06 ES ES00960614T patent/ES2219390T3/es not_active Expired - Lifetime
- 2000-09-06 CA CA002390456A patent/CA2390456C/en not_active Expired - Fee Related
- 2000-09-06 IL IL14838200A patent/IL148382A0/xx active IP Right Grant
- 2000-09-06 DE DE20015559U patent/DE20015559U1/de not_active Expired - Lifetime
-
2002
- 2002-02-26 IL IL148382A patent/IL148382A/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
DE50006092D1 (de) | 2004-05-19 |
DE20015559U1 (de) | 2001-01-11 |
EP1210680B1 (de) | 2004-04-14 |
CA2390456A1 (en) | 2001-03-15 |
EP1210680A1 (de) | 2002-06-05 |
AU7284700A (en) | 2001-04-10 |
DE19962201A1 (de) | 2001-03-15 |
US6967674B1 (en) | 2005-11-22 |
WO2001018697A1 (de) | 2001-03-15 |
CA2390456C (en) | 2009-05-19 |
IL148382A0 (en) | 2002-09-12 |
IL148382A (en) | 2009-02-11 |
ATE264524T1 (de) | 2004-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2219390T3 (es) | Procedimiento y dispositivo para detectar y analizar el comportamiento en recepcion de personas. | |
JP7078275B2 (ja) | 映像モニタリングに基づく商品検知システムおよび商品検知方法 | |
JP7251569B2 (ja) | 店舗装置、店舗管理方法、プログラム | |
TWI448990B (zh) | 以分層掃描法實現即時人數計數 | |
CN105940429B (zh) | 用于确定设备运动的估计的方法和系统 | |
US8571298B2 (en) | Method and apparatus for identifying and tallying objects | |
ES2305930T3 (es) | Dispositivo y procedimiento para la deteccion y el seguimiento de personas en una zona de inspeccion. | |
ES2529066T3 (es) | Sistema de seguimiento de objetos y de análisis de la situación | |
WO2020046171A1 (ru) | Способ построения системы видеонаблюдения для поиска и отслеживания объектов | |
CN107295230A (zh) | 一种基于红外热像仪的微型目标物移动侦测装置及方法 | |
US11164441B2 (en) | Rapid thermal dynamic image capture devices with increased recognition and monitoring capacity | |
CN108324247B (zh) | 一种指定位置皮肤皱纹评估方法及系统 | |
US11238597B2 (en) | Suspicious or abnormal subject detecting device | |
US20190236793A1 (en) | Visual and geolocation analytic system and method | |
CN106937532A (zh) | 用于检测真正用户的系统和方法 | |
WO2019239159A1 (en) | Method of and system for recognising a human face | |
KR20220056279A (ko) | 인공 지능 기반 비전 감시 장치 | |
WO2018016928A1 (ko) | 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법 | |
CN107704851A (zh) | 人物识别方法、公共传媒展示装置、服务器和系统 | |
US11273374B2 (en) | Information processing system, player-side apparatus control method, and program | |
JP2017054229A (ja) | 人物判別システム | |
JP6563283B2 (ja) | 監視システム | |
CN109767262A (zh) | 一种用于广告屏的三维人脸表情识别打分评估方法 | |
KR20210091548A (ko) | 3차원 카메라 시스템을 이용하여 이동체를 제어하는 이동체 제어 시스템 | |
US20210264132A1 (en) | Recognition Of 3D Objects |