WO2010038218A9 - Method and system of interaction between actors and surfaces through motion detection - Google Patents

Method and system of interaction between actors and surfaces through motion detection Download PDF

Info

Publication number
WO2010038218A9
WO2010038218A9 PCT/IB2009/054326 IB2009054326W WO2010038218A9 WO 2010038218 A9 WO2010038218 A9 WO 2010038218A9 IB 2009054326 W IB2009054326 W IB 2009054326W WO 2010038218 A9 WO2010038218 A9 WO 2010038218A9
Authority
WO
WIPO (PCT)
Prior art keywords
actors
displacement
motion
module
pixel
Prior art date
Application number
PCT/IB2009/054326
Other languages
French (fr)
Portuguese (pt)
Other versions
WO2010038218A1 (en
Inventor
Duarte Felipe Oliveira Duque
Original Assignee
Exva - Experts In Video Analisys, Lda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exva - Experts In Video Analisys, Lda filed Critical Exva - Experts In Video Analisys, Lda
Publication of WO2010038218A1 publication Critical patent/WO2010038218A1/en
Publication of WO2010038218A9 publication Critical patent/WO2010038218A9/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an image processing and analysis system.
  • the invention consists of a system of interaction between actors (people) and a device, set of devices, or surface where it is possible to display multimedia content.
  • piezoelectric actuated by direct physical contact between them and the actors.
  • a new stream of research has focused its resources on developing solutions that enable free human-machine interaction, ie without any device connected to the user.
  • WO 02/100094 is a system where only one user interacts with the surface.
  • the system uses lighting and shadows (infrared cameras and infrared lighting), and the technique used for The segmentation of the individual in relation to the background is the use of a light source with wavelength in the infrared or ultraviolet range, ie outside the visible spectrum.
  • the camcorder filters the spectrum of visible light by passing only the infrared and ultraviolet ranges.
  • WO 99/07153 describes a system and method for controlling
  • the system user monitored by a camcorder can interact with a computer generated object.
  • the interaction between the virtual object and the user occurs whenever there is a collision between the region of the computer generated object and a region where the user's movement has been detected, information obtained by calculating the difference between images. It is therefore a simple interaction without any direction of movement information.
  • an object having a distinctive feature such as a predefined color
  • a distinctive feature such as a predefined color
  • the third configuration concerns an interactive kiosk where it is possible for the
  • US 4,843,568 discloses a system in which the human body is segmented using two techniques using a neutral background: the first technique generates the neutral background using a illuminated wall placed behind a person so that the camera can distinguish the contours of the person by subtracting the known background.
  • the second technique is to apply a surface with a colored
  • WO 02/43352 relates to a system and method for
  • This system identifies, segmentates and classifies behaviors of a single object. It uses an object location and feature extraction technique in which the object region is identified by selecting the largest area region resulting from the background subtraction process. This system requires manual training of the system as well as providing a set of information about the object to be monitored.
  • Camcorders do not require any filter for spectrum selection to monitor.
  • the present invention is a system that allows users to create reactive and interactive surfaces with users, transforming the environment, resizing it and giving digital depth to spaces, thus making them interesting, reactive and interactive, that can be used in recreational, advertising or informational activities.
  • camcorders (1) up to sixteen cameras in a preferred color or black / white embodiment. Images monitored by cameras are received by a video digitization unit (2) so that they can be used by a software component, called a motion detection and recognition module (3), which runs on a computer. (5).
  • This module makes use of a moving object segmentation and tracking algorithm that analyzes sequences of video images.
  • the motion analysis technique evaluates each actor's range of motion as well as its direction and then averages it. of all the interveners.
  • Motion detection and recognition module generates for each new image acquired a displacement vector containing direction and intensity of movement of the observed set of actors.
  • the displacement vector is transmitted to another software component, the
  • multimedia module (4) which may run on the same computer or on another networked computer with the former.
  • the multimedia module generates and acts on virtual objects, reacting the environment.
  • the multimedia module causes an action on the multimedia content that will be displayed to the set of actors interacting with the system.
  • the scroll vector may cause a virtual object to move, such as a basket, platform, car, animated character, or avatar. If it is a directory, the scroll vector will move a cursor to select items from the set of displayed options.
  • the connection between the computer running the multimedia module (4) and the projection / display equipment (6) can be for example via VGA, S-VIDEO, USB, HDMI or DVI.
  • This computer (5) may also control a set of actuators, for example lighting, temperature or sound control, allowing their action on the environment in which the installation is located.
  • the connection between the computer and the control actuators may be via for example TCP / IP computer network, RS-232 network, RS-485, or Parallel Port (LPT).
  • the sound equipment (7) is connected to the processing unit by a monaural TS or stereo or monaural TRS connector.
  • FIGURE 1 Block diagram in which (1) corresponds to a camcorder whose monitored images are sent to a computer (5).
  • This computer comprises a video digitization unit (2) which digitizes the images and is then sent to a motion detection and recognition module (3) which analyzes the intensity and direction of movement and transmits this result to the multimedia module. (4). Sound output (7) and video projection (6) devices are also connected to the computer (5).
  • FIGURE 2. Diagram of the system placed in a movie theater where the camcorders (1) monitoring the actor group (9) are connected to a computer (5) running the detection and recognition module. of movement.
  • the computer (5) is connected via a computer network, wired or wireless, to another computer (5) running the multimedia module, transmitting the multimedia content via a projector (6) and the speakers (7) . Projected images are displayed on the screen (8).
  • FIGURE 3 System diagram in which a group of actors (9) is monitored by a single camcorder (1) connected to the computer (5).
  • This computer runs the motion detection and recognition module and the multimedia module.
  • the multimedia contents generated by the computer are displayed by a screen (10) with the aid of loudspeakers (7).
  • FIGURE 4 Example of using the invention for multi-user gaming with
  • a camcorder (1) monitors an actor group (9), which displays the multimedia content displayed by a projector (6) through the projection screen (8), receiving the sound through a speaker (7) .
  • another camcorder (1) monitors a second group (9), which displays the multimedia content displayed by a projector (6) through the screen (8), while still receiving the sound through a speaker (7) .
  • FIGURE 5 Representation of the motion detection and recognition module wherein the motion detector (14) uses the current image (12) and the image acquired at the previous time instant (11) to calculate the motion mask. (16).
  • the contour detector (13) receives the previous image (11), generating a contour mask (15).
  • the contour mask (15) and the motion mask (16) are processed by the displacement detector (17) which calculates the observed motion displacement vector between two consecutive images.
  • FIGURE 6 Exemplification of the displacement vector calculation with motion pixel representation (18), source pixels (19), and partial displacement vectors (20).
  • FIGURE 1 presents the block diagram identifying the hardware (1) (2) (5) (6) (7) and software (3) (4) components of the present invention.
  • the system object of the invention is characterized in that it contains one or more color or black / white camcorders (1), which are connected to a video digitization unit (2) coupled to a computer (5). ).
  • the acquired images are supplied to the motion detection and recognition module (3) which analyzes with each new image the movement carried out by the actors, generating a displacement vector, containing the amplitude and direction of this displacement. This vector is transmitted to the multimedia module (4) acting on computer generated virtual objects.
  • Multimedia content is displayed to the actors via video projection equipment (6) and sound equipment (7) connected to the computer (5).
  • an analog camcorder (1) can be connected to one of the inputs of a video acquisition card (2) via an RG-59 cable with BNC connectors on both. the ends.
  • the video acquisition card which converts analog video to digital (scan) format, is attached via a PCI connector to a motherboard equipped with RAM, a processor, and a hard drive where the system resides. as well as the two software modules (3) (4) proposed in this invention.
  • the computer (5) further comprises a graphics processing unit, included on the motherboard itself or implemented on a graphics card, that has at least one of the following video outputs: VGA, HDMI, DVI or S-VIDEO.
  • the graphics card is associated with the motherboard via a PCI-E or AGP connector.
  • Video display equipment may consist of a projector (6) connected to the computer (5) via a VGA extension cable.
  • the projector (6) should be oriented to project images onto a light-toned wall with a smooth and even surface.
  • the camcorder (1) should be positioned close to the projection surface, facing away from the projection, ie towards the wall to the video projector, so that the set of people can be viewed from the front. that are displaying the projected images.
  • the sound equipment (7) may consist of speakers, which are connected to the computer (5) through an audio cable with stereo TRS connector.
  • I t is defined as the digital image obtained at time t.
  • a digital image is a two-dimensional representation of an image in a finite set of elements that take discrete values, organized in an array of M by N elements. Each of these elements, which stores the value of the light intensity and color characteristics of the image at that coordinate, is called a pixel.
  • a greyscale image obtained for example by a black / white camcorder
  • the intensity of one pixel in the x and y coordinates of the image is defined by I, (x, y), where 0 ⁇ x ⁇ M, 0 ⁇ y ⁇ N and 0 ⁇ I t (x, y) ⁇ 255.
  • the limit of 255 refers to a preferred 8-bit embodiment.
  • I t ⁇ IR t , IG t , ffi
  • FIGURE 5 shows the motion detection and recognition module (3).
  • This module receives a sequence of digital images spaced by fixed and predefined time intervals, for example 40ms for PAL format.
  • the current image I, (12) is recorded in memory and the image captured at the previous time I t (11) is still kept in memory.
  • the image I t-1 is transferred to the contour detector (13) which applies, for each pixel of the image, the algorithm defined by the following equation:
  • T can be "any value between 0 and 255.
  • contour mask (15) which has a value of 1 (one) in each image pixel if a contour is detected at that coordinate and a value of 0 (zero). ) otherwise.
  • the motion detector (14) is executed.
  • the motion detector uses the current image I t (12) and the previous image I t-] (11) to produce a motion mask (16) that identifies pixels where a significant difference in intensity or color occurs between two consecutive images. .
  • Motion is defined to exist in a given pixel if:
  • T taking a value between 0 and 255 in a preferred embodiment.
  • FIGURE 6 An example of such an operation is shown in FIGURE 6. After overlapping both masks, the displacement detector performs identification of regions designated by source pixels (19), generated whenever simultaneous motion is identified on the same pixel. and contour.
  • the partial horizontal and vertical shift vector (20) is calculated.
  • the partial horizontal shift vector measures the distance, to the same value as y, defined by the number of motion pixels (18) contiguous and delimited between source pixels or between a source pixel and a non-moving pixel.
  • the partial vertical displacement vector is calculated, while keeping the value of x fixed.
  • the multimedia module (4) which receives the scroll vector, is a software component that can be implemented by any game-oriented programming language or three-dimensional animation, such as XNA, DirectX, Direct3D. , Flash, or OpenGL.
  • the purpose of this module is to provide system users with two-dimensional or three-dimensional computer-generated animation, as well as to provide sound and light effects that react according to the type of movement performed by the actors.
  • FIGURE 2 demonstrates a possible embodiment of the invention which could be implemented in a movie theater where actors (9) are monitored by two camcorders (1) connected to a computer (5) in charge of them. the execution of the motion detection and recognition module. The result of the motion analysis is transmitted to another computer (5) via computer network (wired or wireless).
  • This computer (5) runs the multimedia module which may contain a game which acts on the movement of a virtual object, eg an avatar, a basket or a car, which is displayed on the screen surface (8) through the projector.
  • video (6) that is connected to the computer (5).
  • the loudspeaker speakers (7) connected to the computer (5) are intended to provide the actor group (9) with a set of sound effects which also react in accordance with their movements.
  • FIGURE 3 presents another embodiment of the present invention wherein the actors
  • a set of speaker speakers (7) is also connected to the computer (5) for the purpose of transmitting the sound effects generated by the system.
  • FIGURE 4 shows a use of the invention where it is possible to simultaneously monitor two groups of actors (9), observed by the camcorders (1), so that interaction between the two groups on the same multimedia content is possible; for example a multi-group game.
  • a system configuration could be used, for example, in a football stadium where one group (9) would be represented by supporters of one team and another group (9) by supporters of the opposing team.
  • each group of actors (9) is monitored by a camcorder (1).
  • Both cameras are connected to the computer (5) running the motion detection and recognition module and the multimedia module.
  • Connected to this computer (5) are speaker speakers (7), where one speaker column (7) emits sound effects to one of the groups (9) and the other speaker column (7) emits sound effects. to the other group (9).
  • the video projectors (6) are connected to the computer (5), projecting the images generated by the multimedia module to the screens (8).
  • the content of the images projected by (6) may differ so that each group of actors has its own perspective on the virtual object it controls.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention comprehends a system (5) of interaction between people (9) and any device where it is possible to exhibit (8) multimedia content (sound (7) and video (6) ) which react accordingly to the intensity and direction angle of the motion monitored by video cameras. The interaction between actors and the multimedia content is made possible by the use of techniques for detecting and tracking moving objects observed through one or more video cameras ( 1 ).

Description

Description  Description
Title of Invention: MÉTODO E SISTEMA DE INTERACÇÃO ENTRE ACTORES E SUPERFÍCIES PELA DETECÇÃO DE Title of Invention: METHOD AND SYSTEM OF INTERACTION BETWEEN ACTORS AND SURFACES BY THE DETECTION OF
MOVIMENTO MOVEMENT
Domínio da Invenção:  Field of the Invention:
[1] A presente invenção refere-se a um sistema de processamento e análise de imagem.  [1] The present invention relates to an image processing and analysis system.
A invenção consiste num sistema de interacção entre actores (pessoas) e um dispositivo, conjunto de dispositivos, ou superfície onde seja possível a exibição de conteúdos multimédia.  The invention consists of a system of interaction between actors (people) and a device, set of devices, or surface where it is possible to display multimedia content.
Antecedentes da Invenção:  Background of the Invention:
[2] A interacção entre um indivíduo e um qualquer dispositivo electrónico, também  [2] The interaction between an individual and any electronic device, also
conhecida por interacção homem-máquina, é uma área de investigação com intenso desenvolvimento e que tem produzido inúmeras tecnologias ao longo dos anos. São exemplos mais recentes os ecrãs sensíveis ao toque, luvas de controlo, sensores de movimento, entre outros.  Known for human-machine interaction, it is a research area with intense development and has produced numerous technologies over the years. More recent examples are touch screens, control gloves, motion sensors, among others.
[3] Apesar de relevantes progressos nesta área, existe ainda hoje a necessidade de  [3] Despite significant progress in this area, there is still a need today for
utilização de dispositivos conectados aos indivíduos, ou manuseados por estes, como único meio para medir as suas acções e gerar os respectivos comandos de controlo sobre o equipamento com que se pretende interagir.  The use of devices connected to or handled by individuals as the sole means of measuring their actions and generating their control commands over the equipment to be interacted with.
[4] Já são apresentados um vasto número de equipamentos que permitem esta interacção de forma natural (por exemplo movimento corporal), porém, tais sistemas ainda não permitem uma interacção total e livre, sem a ajuda de qualquer elemento electrónico ou mecânico conectado aos actores. Algumas soluções baseiam-se na utilização de sensores, como por exemplo, a utilização de acelerómetros ou de sensores  [4] A large number of devices that allow this interaction naturally (eg body movement) are already presented, but such systems do not yet allow full and free interaction without the help of any electronic or mechanical element connected to the actors. . Some solutions are based on the use of sensors, such as the use of accelerometers or sensors.
piezoeléctricos, actuados pelo contacto físico directo entre estes e os actores.  piezoelectric, actuated by direct physical contact between them and the actors.
[5] Uma nova corrente de investigação tem orientado os seus recursos para o desenvolvimento de soluções que possibilitem uma interacção homem-máquina livre, isto é, sem recurso a qualquer dispositivo conectado ao utilizador.  [5] A new stream of research has focused its resources on developing solutions that enable free human-machine interaction, ie without any device connected to the user.
[6] Tal abordagem tira partido da informação obtida por intermédio de câmaras de vídeo e onde, com recurso a técnicas de processamento e análise de imagem, é possível realizar a extracção de informação descritiva do movimento observado a partir de uma sequência de imagens.  [6] Such an approach takes advantage of information obtained through camcorders and where, using image processing and analysis techniques, it is possible to extract descriptive information of the observed motion from a sequence of images.
[7] Existem já vários documentos de patentes que apresentam novas soluções: salienta-se o documento WO 02/100094 que consiste num sistema em que apenas um utilizador é que interage com a superfície. O sistema recorre a iluminação e sombras (câmaras de infravermelhos e iluminação por infravermelhos), sendo que a técnica utilizada para a segmentação do indivíduo em relação ao plano de fundo consiste na utilização de uma fonte de luz com o comprimento de onda na gama dos infravermelhos ou ultravioleta, ou seja, fora do espectro visível. [7] There are already several patent documents offering new solutions: WO 02/100094 is a system where only one user interacts with the surface. The system uses lighting and shadows (infrared cameras and infrared lighting), and the technique used for The segmentation of the individual in relation to the background is the use of a light source with wavelength in the infrared or ultraviolet range, ie outside the visible spectrum.
[8] A câmara de vídeo filtra o espectro de luz visível deixando passar apenas as gamas infravermelho e ultravioleta.  [8] The camcorder filters the spectrum of visible light by passing only the infrared and ultraviolet ranges.
[9] O documento US 7,274,803 refere um sistema que pressupõe a detecção de padrões [9] US 7,274,803 refers to a system that assumes pattern detection
(não só movimentos) que funcionam como modelo de interacção entre um objecto/ actor e uma superfície. Para controlar o sistema é necessário que o actor use uma parte do corpo onde seja detectada pele para ser reconhecido pela câmara e assim interagir com o ecrã (cursor existente). Obrigatoriamente o sistema só funcionará através da tecnologia de detecção de pele ao contrário desta invenção que não utiliza a detecção de pele como tecnologia para provocar interacção entre os actores e as superfícies. (not just movements) that act as a model of interaction between an object / actor and a surface. To control the system it is necessary for the actor to use a body part where skin is detected to be recognized by the camera and thus interact with the screen (existing cursor). The system will only function through skin detection technology unlike this invention which does not use skin detection as technology to cause interaction between the actors and the surfaces.
[10] Para além desta limitação, o sistema apesar de permitir que outras pessoas estejam em frente ao ecrã, só uma única pessoa é que poderá controlar o cursor.  [10] In addition to this limitation, although the system allows other people to be in front of the screen, only a single person can control the cursor.
[11] Já o documento WO 99/07153 descreve um sistema e método para controlo de  [11] WO 99/07153 describes a system and method for controlling
software através da análise e interpretação de vídeo, sendo descritas três configurações distintas.  software through video analysis and interpretation, and three different configurations are described.
[12] Na primeira configuração da invenção, o utilizador do sistema, monitorizado por uma câmara de vídeo, pode interagir com um objecto gerado por computador. A interacção entre o objecto virtual e o utilizador ocorre sempre que existe uma colisão entre a região do objecto gerado pelo computador e uma região onde fora detectado movimento por parte do utilizador, informação obtida por intermédio do cálculo de diferença entre imagens. Trata-se portanto de uma interacção simples, sem qualquer tipo de informação de direcção do movimento.  [12] In the first embodiment of the invention, the system user monitored by a camcorder can interact with a computer generated object. The interaction between the virtual object and the user occurs whenever there is a collision between the region of the computer generated object and a region where the user's movement has been detected, information obtained by calculating the difference between images. It is therefore a simple interaction without any direction of movement information.
[13] Na segunda configuração, recorre-se à utilização de um objecto que possua uma característica distintiva, como uma cor predefinida. Neste modo, através da identificação da cor do objecto e do cálculo dos seus contornos, é possível identificar a região ocupada pelo objecto, bem como a sua orientação, podendo despoletar uma acção (e.g. disparar uma arma virtual).  [13] In the second configuration, an object having a distinctive feature, such as a predefined color, is used. In this mode, by identifying the color of the object and calculating its contours, it is possible to identify the region occupied by the object as well as its orientation and may trigger an action (e.g. firing a virtual weapon).
[14] A terceira configuração refere-se a um quiosque interactivo, onde é possível ao  [14] The third configuration concerns an interactive kiosk where it is possible for the
utilizador seleccionar uma opção no menu apresentado pelo ecrã. A selecção é realizada através da oclusão da área ocupada pela opção do menu, com a área da mão do utilizador. Uma vez mais, não existe qualquer informação acerca da direcção e amplitude do movimento executado pelo utilizador, divergindo assim da invenção proposta.  user selects an option from the on-screen menu. Selection is made by occluding the area occupied by the menu option with the user's hand area. Again, there is no information about the direction and range of motion performed by the user, thus departing from the proposed invention.
[15] O documento US 4,843,568 refere um sistema onde é efectuada a segmentação do corpo humano através de duas técnicas que recorrem a utilização de um plano de fundo neutro: a primeira técnica gera o plano de fundo neutro através da utilização de uma parede iluminada colocada atrás de uma pessoa de modo a que a câmara consiga distinguir os contornos da pessoa pela subtracção ao plano de fundo conhecido. [15] US 4,843,568 discloses a system in which the human body is segmented using two techniques using a neutral background: the first technique generates the neutral background using a illuminated wall placed behind a person so that the camera can distinguish the contours of the person by subtracting the known background.
[16] A segunda técnica consiste na aplicação de uma superfície com uma coloração  [16] The second technique is to apply a surface with a colored
conhecida e uniforme colocada sobre uma mesa permitindo desta forma distinguir as mãos do utilizador do plano de fundo conhecido.  It is known and uniformly placed on a table thereby distinguishing the user's hands from the known background.
[17] Por último o documento WO 02/43352 refere-se a um sistema e método para  [17] Finally, WO 02/43352 relates to a system and method for
identificação de um objecto e caracterização do seu comportamento, utilizando para esse efeito imagens provenientes de uma câmara de vídeo ou de uma unidade de armazenamento. Este sistema efectua a identificação, segmentação e classificação de comportamentos de um único objecto. Utiliza uma técnica de localização do objecto e extracção de características, em que se identifica a região do objecto através da selecção da região de maior área, resultante do processo de subtracção do plano de fundo. Este sistema necessita de um treino manual do sistema, bem como fornecer um conjunto de informações sobre o objecto que se pretende monitorizar.  identification of an object and characterization of its behavior by using images from a camcorder or storage unit. This system identifies, segmentates and classifies behaviors of a single object. It uses an object location and feature extraction technique in which the object region is identified by selecting the largest area region resulting from the background subtraction process. This system requires manual training of the system as well as providing a set of information about the object to be monitored.
[18] A presente invenção difere dos documentos encontrados em vários aspectos, de onde se salienta:  [18] The present invention differs from the documents found in several aspects, as follows:
possibilidade de interacção com mais do que um utilizador;  possibility of interaction with more than one user;
não recorre a dispositivos de ligação entre os utilizadores e o sistema; nem a nenhum plano de fundo conhecido ou qualquer fonte de radiação de frequências do espectro não visível, como por exemplo infravermelhos ou ultravioleta;  does not use devices to connect users to the system; nor to any known background or any source of non-visible spectrum frequency radiation, such as infrared or ultraviolet;
as câmaras de vídeo não requerem qualquer filtro para selecção de espectro a monitorizar.  Camcorders do not require any filter for spectrum selection to monitor.
Descrição Geral:  General description:
[19] A presente invenção consiste num sistema que permite criar superfícies reactivas e interactivas com os utilizadores, transformando o ambiente, redimensionando-o e dando profundidade digital aos espaços, tornando-os desta forma interessantes, reactivos e interactivos, passíveis de serem utilizados em actividades lúdicas, publicitárias ou informativas.  [19] The present invention is a system that allows users to create reactive and interactive surfaces with users, transforming the environment, resizing it and giving digital depth to spaces, thus making them interesting, reactive and interactive, that can be used in recreational, advertising or informational activities.
[20] O movimento executado pelos actores é observado por uma ou mais câmaras de vídeo (1), num máximo de dezasseis câmaras numa realização preferencial, a cores ou preto/branco. As imagens monitorizadas pelas câmaras são recebidas por uma unidade de digitalização de vídeo (2) de modo a que sejam passíveis de serem utilizadas por um componente de software, designado por módulo de detecção e reconhecimento de movimento (3), que é executado num computador (5).  [20] The movement performed by the actors is observed by one or more camcorders (1), up to sixteen cameras in a preferred color or black / white embodiment. Images monitored by cameras are received by a video digitization unit (2) so that they can be used by a software component, called a motion detection and recognition module (3), which runs on a computer. (5).
[21] Este módulo faz uso de um algoritmo de segmentação e seguimento de objectos em movimento que analisa sequências de imagens de vídeo A técnica de análise de movimento avalia a amplitude de movimento de cada actor, bem como a sua direcção, realizando posteriormente a média da totalidade dos intervenientes. Como resultado do módulo de detecção e reconhecimento de movimento é gerado, para cada nova imagem adquirida, um vector de deslocamento contendo direcção e intensidade do movimento do conjunto de actores observados. [21] This module makes use of a moving object segmentation and tracking algorithm that analyzes sequences of video images. The motion analysis technique evaluates each actor's range of motion as well as its direction and then averages it. of all the interveners. As a result of Motion detection and recognition module generates for each new image acquired a displacement vector containing direction and intensity of movement of the observed set of actors.
[22] O vector de deslocamento é transmitido a um outro componente de software, o  [22] The displacement vector is transmitted to another software component, the
módulo de multimédia (4), que poderá ser executado no mesmo computador ou num outro computador em rede com o primeiro. O módulo de multimédia gera e actua sobre objectos virtuais, fazendo reagir o ambiente.  multimedia module (4), which may run on the same computer or on another networked computer with the former. The multimedia module generates and acts on virtual objects, reacting the environment.
[23] De acordo com a natureza da aplicação, por exemplo jogo ou directório, o módulo de multimédia provoca uma acção no conteúdo multimédia que será exibido ao conjunto de actores que interagem com o sistema. Como exemplo, se a aplicação consistir num jogo de audiências o vector de deslocamento pode originar a movimentação de um objecto virtual, como por exemplo um cesto, plataforma, automóvel, personagem animada ou avatar. No caso de se tratar de um directório, o vector de deslocamento provocará o movimento de um cursor que permita seleccionar itens do conjunto das opções exibidas.  [23] Depending on the nature of the application, for example game or directory, the multimedia module causes an action on the multimedia content that will be displayed to the set of actors interacting with the system. As an example, if the app consists of an audience game, the scroll vector may cause a virtual object to move, such as a basket, platform, car, animated character, or avatar. If it is a directory, the scroll vector will move a cursor to select items from the set of displayed options.
[24] As experiências interactivas produzidas (conteúdo multimédia) são projectadas numa superfície à escolha (tela de cinema, montra, mesa, chão, parede, vidro ou acrílico) ou exibidas num ecrã, como por exemplo CRT, TFT, LCD, LED ou OLED. A conexão entre o computador que executa o módulo de multimédia (4) e o equipamento de projecção/ecrã (6) pode ser realizada por exemplo via VGA, S- VÍDEO, USB, HDMI ou DVI. Este computador (5) poderá ainda controlar um conjunto de actuadores, por exemplo controlo de iluminação, temperatura ou som, permitindo a sua acção sobre o meio ambiente em que se encontra a instalação. A ligação entre o computador e os actuadores de controlo pode ser realizada através por exemplo de rede informática do tipo TCP/IP, rede RS-232, RS-485, ou Porta Paralela (LPT). Os equipamentos de som (7) encontram-se ligados à unidade de processamento por conector TS monaural ou TRS estéreo ou monaural.  [24] Interactive experiences produced (multimedia content) are projected onto a surface of your choice (movie screen, storefront, table, floor, wall, glass or acrylic) or displayed on a screen such as CRT, TFT, LCD, LED or OLED The connection between the computer running the multimedia module (4) and the projection / display equipment (6) can be for example via VGA, S-VIDEO, USB, HDMI or DVI. This computer (5) may also control a set of actuators, for example lighting, temperature or sound control, allowing their action on the environment in which the installation is located. The connection between the computer and the control actuators may be via for example TCP / IP computer network, RS-232 network, RS-485, or Parallel Port (LPT). The sound equipment (7) is connected to the processing unit by a monaural TS or stereo or monaural TRS connector.
Breve Descrição das Figuras :  Brief Description of the Figures:
[25] Para uma mais fácil compreensão da invenção juntam-se em anexo as figuras, as quais, representam realizações preferenciais do invento que, contudo, não pretendem, limitar o objecto da presente invenção.  [25] For an easier understanding of the invention, attached are figures which represent preferred embodiments of the invention which, however, are not intended to limit the scope of the present invention.
[26] FIGURA 1. Diagrama de blocos em que (1) corresponde a uma câmara de vídeo, cujas imagens monitorizadas são enviadas para um computador (5). Este computador compreende uma unidade de digitalização de vídeo (2), que digitaliza as imagens, sendo posteriormente enviadas para um módulo de detecção e reconhecimento de movimento (3), que analisa a intensidade e direcção do movimento, transmitindo esse resultado ao módulo de multimédia (4). Os equipamentos de emissão de som (7) e projecção de vídeo (6) encontram-se também conectados ao computador (5). [27] FIGURA 2. Diagrama do sistema colocado numa sala de cinema em que as câmaras de vídeo (1), que monitorizam o grupo de actores (9), estão ligadas a um computador (5) que executa o módulo de detecção e reconhecimento de movimento. O computador (5) encontra-se conectado através de rede informática, com ou sem fios, a outro computador (5) que executa o módulo de multimédia, transmitindo o conteúdo multimédia através de um videoprojector (6) e as colunas altifalantes (7). As imagens projectadas são exibidas na tela (8). [26] FIGURE 1. Block diagram in which (1) corresponds to a camcorder whose monitored images are sent to a computer (5). This computer comprises a video digitization unit (2) which digitizes the images and is then sent to a motion detection and recognition module (3) which analyzes the intensity and direction of movement and transmits this result to the multimedia module. (4). Sound output (7) and video projection (6) devices are also connected to the computer (5). [27] FIGURE 2. Diagram of the system placed in a movie theater where the camcorders (1) monitoring the actor group (9) are connected to a computer (5) running the detection and recognition module. of movement. The computer (5) is connected via a computer network, wired or wireless, to another computer (5) running the multimedia module, transmitting the multimedia content via a projector (6) and the speakers (7) . Projected images are displayed on the screen (8).
[28] FIGURA 3. Diagrama do sistema em que um grupo de actores (9) é monitorizado por uma única câmara de vídeo (1), conectada ao computador (5). Este computador executa o módulo de detecção e reconhecimento de movimento e o módulo de multimédia. Os conteúdos multimédia gerados pelo computador são exibidos por um ecrã (10) com o auxílio de colunas altifalantes (7).  [28] FIGURE 3. System diagram in which a group of actors (9) is monitored by a single camcorder (1) connected to the computer (5). This computer runs the motion detection and recognition module and the multimedia module. The multimedia contents generated by the computer are displayed by a screen (10) with the aid of loudspeakers (7).
[29] FIGURA 4. Exemplo de utilização da invenção para jogo multi-utilizador, com  [29] FIGURE 4. Example of using the invention for multi-user gaming with
monitorização simultânea de dois grupos de actores (9), de modo a que seja possível a interacção entre os dois grupos num mesmo conteúdo multimédia. Nesta configuração, uma câmara de vídeo (1) monitoriza um grupo de actores (9), que visualiza o conteúdo multimédia exibido por um projector (6) através da tela de projecção (8), recebendo o som por uma coluna altifalante (7). Por sua vez, uma outra câmara de vídeo (1) monitoriza um segundo grupo (9), que visualiza o conteúdo multimédia exibido por um projector (6) através da tela (8), recebendo ainda o som por uma coluna altifalante (7).  simultaneous monitoring of two groups of actors (9), so that interaction between the two groups on the same multimedia content is possible. In this configuration, a camcorder (1) monitors an actor group (9), which displays the multimedia content displayed by a projector (6) through the projection screen (8), receiving the sound through a speaker (7) . In turn, another camcorder (1) monitors a second group (9), which displays the multimedia content displayed by a projector (6) through the screen (8), while still receiving the sound through a speaker (7) .
[30] FIGURA 5. Representação do módulo de detecção e reconhecimento de movimentos em que, o detector de movimento (14) utiliza a imagem actual (12) e a imagem adquirida no instante de tempo anterior (11) para calcular a máscara de movimento (16). O detector de contornos (13) recebe a imagem anterior (11), gerando uma máscara de contornos (15). A máscara de contornos (15) e a máscara de movimento (16) são processadas pelo detector de deslocamento (17) que calcula o vector de deslocamento do movimento observado entre duas imagens consecutivas.  [30] FIGURE 5. Representation of the motion detection and recognition module wherein the motion detector (14) uses the current image (12) and the image acquired at the previous time instant (11) to calculate the motion mask. (16). The contour detector (13) receives the previous image (11), generating a contour mask (15). The contour mask (15) and the motion mask (16) are processed by the displacement detector (17) which calculates the observed motion displacement vector between two consecutive images.
[31] FIGURA 6. Exemplificação do cálculo do vector de deslocamento com representação de pixéis de movimento (18), pixéis de origem (19), e vectores parciais de deslocação (20).  [31] FIGURE 6. Exemplification of the displacement vector calculation with motion pixel representation (18), source pixels (19), and partial displacement vectors (20).
Descrição Detalhada da Invenção:  Detailed Description of the Invention:
[32] A presente invenção será agora descrita em detalhe, utilizando-se para o efeito as figuras apresentadas neste documento. Os componentes que constituem a invenção são identificados por números nas respectivas figuras.  [32] The present invention will now be described in detail using the figures set forth herein. The components constituting the invention are identified by numbers in the respective figures.
[33] A FIGURA 1 apresenta o diagrama de blocos onde se identificam as componentes de hardware (1) (2) (5) (6) (7) e software (3) (4) que constituem a presente invenção.[33] FIGURE 1 presents the block diagram identifying the hardware (1) (2) (5) (6) (7) and software (3) (4) components of the present invention.
Note-se, que todos os componentes de hardware utilizados são equipamentos comuns, isto é, não modificados ou fabricados com o propósito de serem utilizados especificamente na presente invenção. Note that all hardware components used are standard equipment, that is, unmodified or manufactured for the purpose of being specifically used in the present invention.
[34] O sistema objecto da invenção é caracterizado por conter uma ou mais câmaras de vídeo (1), a cores ou preto/branco, encontrando- se estas conectadas a uma unidade de digitalização de vídeo (2) acoplada a um computador (5). As imagens adquiridas são fornecidas ao módulo de detecção e reconhecimento de movimento (3) que analisa a cada nova imagem o movimento protagonizado pelos actores, gerando um vector de deslocamento, contendo a amplitude e direcção desse deslocamento. Este vector é transmitido ao módulo de multimédia (4) que actua sobre objectos virtuais gerados por computador. O conteúdo multimédia é exibido aos actores através de equipamento de projecção de vídeo (6) e equipamento de som (7) conectado ao computador (5).  [34] The system object of the invention is characterized in that it contains one or more color or black / white camcorders (1), which are connected to a video digitization unit (2) coupled to a computer (5). ). The acquired images are supplied to the motion detection and recognition module (3) which analyzes with each new image the movement carried out by the actors, generating a displacement vector, containing the amplitude and direction of this displacement. This vector is transmitted to the multimedia module (4) acting on computer generated virtual objects. Multimedia content is displayed to the actors via video projection equipment (6) and sound equipment (7) connected to the computer (5).
[35] Como exemplo de uma possível configuração de hardware, uma câmara de vídeo (1) analógico pode ser conectada a uma das entradas de uma placa de aquisição de vídeo (2), através de um cabo RG-59 com conectores BNC em ambas as extremidades. A placa de aquisição de vídeo, que realiza a conversão do vídeo analógico para o formato digital (digitalização), encontra-se acoplada, via conector PCI, a uma placa-mãe equipada com memória RAM, processador e um disco rígido onde reside o sistema operativo bem como os dois módulos de software (3) (4) propostos nesta invenção. O computador (5) é ainda constituído por uma unidade de processamento gráfico, incluída na própria placa-mãe ou implementada numa placa gráfica, que possua pelo menos umas das seguintes saídas vídeo: VGA, HDMI, DVI ou S-VIDEO. A placa gráfica é associada à placa-mãe através de conector PCI-E ou AGP. O equipamento de exibição de vídeo poderá ser constituído por um videoprojector (6) ligado ao computador (5) por intermédio de um cabo de extensão VGA. O videoprojector (6) deve ser orientado de modo a projectar imagens para uma parede de tonalidade clara com uma superfície lisa e regular. A câmara de vídeo (1) deve ser posicionada próximo da superfície de projecção, orientada na direcção oposta à projecção, isto é, no sentido da parede para o vídeo projector, de tal modo que seja possível observar, de frente, o conjunto de pessoas que se encontrem a visualizar as imagens projectadas. O equipamento de som (7) poderá ser composto por colunas de som, encontrando-se conectadas ao computador (5) através de cabo áudio com conector TRS estéreo.  [35] As an example of a possible hardware configuration, an analog camcorder (1) can be connected to one of the inputs of a video acquisition card (2) via an RG-59 cable with BNC connectors on both. the ends. The video acquisition card, which converts analog video to digital (scan) format, is attached via a PCI connector to a motherboard equipped with RAM, a processor, and a hard drive where the system resides. as well as the two software modules (3) (4) proposed in this invention. The computer (5) further comprises a graphics processing unit, included on the motherboard itself or implemented on a graphics card, that has at least one of the following video outputs: VGA, HDMI, DVI or S-VIDEO. The graphics card is associated with the motherboard via a PCI-E or AGP connector. Video display equipment may consist of a projector (6) connected to the computer (5) via a VGA extension cable. The projector (6) should be oriented to project images onto a light-toned wall with a smooth and even surface. The camcorder (1) should be positioned close to the projection surface, facing away from the projection, ie towards the wall to the video projector, so that the set of people can be viewed from the front. that are displaying the projected images. The sound equipment (7) may consist of speakers, which are connected to the computer (5) through an audio cable with stereo TRS connector.
[36] Após a identificação dos componentes de hardware e definição das conexões entre os vários equipamentos, prossegue-se com a exposição detalhada dos módulos de software.  [36] After identifying the hardware components and defining the connections between the various devices, the detailed exposure of the software modules is continued.
[37] Neste documento, define-se It como a imagem digital obtida no instante de tempo t. [37] In this document, I t is defined as the digital image obtained at time t.
Entende-se ainda que uma imagem digital é uma representação em duas dimensões de uma imagem num conjunto finito de elementos que tomam valores discretos, organizados numa matriz de M por N elementos. Cada um destes elementos, que armazena o valor da intensidade luminosa e características cromáticas da imagem naquela coordenada, é denominado por pixel. Assim, no caso de se tratar de uma imagem em escala de cinzentos (obtida, por exemplo, por uma câmara de vídeo preto/ branco) a intensidade de um pixel nas coordenadas x e y da imagem é definida por I, (x,y), em que 0<x<M, 0<y≤N e 0<It(x,y)<255. O limite de 255 refere-se a uma - realização preferencial de 8-bits. Tratando-se de uma imagem a cores, esta é definida pelo conjunto das várias componentes de cor, de tal modo que uma imagem no espaço de cor RGB é definida por It={IRt, IGt, ffi , em que IRt(x,y), IGt(x,y) e IBt(x,y) representam respectivamente o valor da intensidade das componentes vermelha, verde e azul, para o pixel definido pelas coordenadas (x,y), da imagem digital adquirida no instante de tempo t. A presente invenção é igualmente aplicável nesta situação, com as necessárias adaptações, óbvias para um especialista na área. It is further understood that a digital image is a two-dimensional representation of an image in a finite set of elements that take discrete values, organized in an array of M by N elements. Each of these elements, which stores the value of the light intensity and color characteristics of the image at that coordinate, is called a pixel. Thus, in the case of a greyscale image (obtained for example by a black / white camcorder) the intensity of one pixel in the x and y coordinates of the image is defined by I, (x, y), where 0 <x <M, 0 <y≤N and 0 <I t (x, y) <255. The limit of 255 refers to a preferred 8-bit embodiment. In the case of a color image, it is defined by the set of the various color components, such that an image in the RGB color space is defined by I t = {IR t , IG t , ffi, where IR t (x, y), IG t (x, y) and IB t (x, y) represent respectively the value of the intensity of the red, green and blue components for the pixel defined by the coordinates (x, y) of the digital image. acquired at time t. The present invention is equally applicable in this situation, with the necessary adaptations, obvious to one skilled in the art.
[38] A FIGURA 5 apresenta o módulo de detecção e reconhecimento de movimentos (3). [38] FIGURE 5 shows the motion detection and recognition module (3).
Este módulo recebe uma sequência de imagens digitais espaçadas por intervalos de tempo fixos e predefinidos, por exemplo 40ms para o formato PAL. A cada nova captura, é gravada em memória a imagem actual I, (12), sendo ainda mantida em memória a imagem capturada no instante de tempo anterior It-] (11). A imagem It-1 é transferida para o detector de contornos (13) que aplica, para cada pixel da imagem, o algoritmo de definido pela seguinte equação: This module receives a sequence of digital images spaced by fixed and predefined time intervals, for example 40ms for PAL format. At each new capture, the current image I, (12) is recorded in memory and the image captured at the previous time I t (11) is still kept in memory. The image I t-1 is transferred to the contour detector (13) which applies, for each pixel of the image, the algorithm defined by the following equation:
CONTORNO(It-1(x,y)) = 1, se, CONTOUR (I t-1 (x, y)) = 1 if,
11,.! (x,y)- It-1 (x-l. y-l)l >T, e, 11 ,. ! (x, y) - I t-1 (xl. yl) 1> T, and
¾_! (x,y)- It-1 (x-1, y+l)l >T, e, !_! (x, y) - I t-1 (x-1, y + 1) l> T, and,
IIt-i (x,y)- It-i (x+1, y-l)l >T, e, II t -i (x, y) - It-i (x + 1, yl) 1> T, and,
H.-i (x,y)- It-i (x+l, y+l)l >T, e,  H. -i (x, y) - It-i (x + 1, y + 1) l> T, and,
CONTORNO(It_!(x,y)) = 0, caso contrário. CONTOUR (I t _ ! (X, y)) = 0, otherwise.
[39] Sendo que T pode tomai" qualquer valor entre 0 e 255. [39] Where T can be "any value between 0 and 255.
[40] Como produto da aplicação do detector de contornos (13) resulta uma máscara de contornos (15) que apresenta, em cada pixel da imagem, valor igual a 1 (um) caso seja detectado contorno naquela coordenada e, valor 0 (zero) caso contrário.  [40] As a result of applying the contour detector (13) results a contour mask (15) which has a value of 1 (one) in each image pixel if a contour is detected at that coordinate and a value of 0 (zero). ) otherwise.
[41] Paralelamente à tarefa de cálculo de contornos, é executado o detector de movimento (14). O detector de movimento utiliza a imagem actual It (12) e a imagem anterior It-] (11) para produzir uma máscara de movimento (16) que identifica os pixéis onde ocorre uma diferença significativa de intensidade ou coloração entre duas imagens consecutivas. Define-se que existe movimento num determinado pixel se:[41] In parallel to the contour calculation task, the motion detector (14) is executed. The motion detector uses the current image I t (12) and the previous image I t-] (11) to produce a motion mask (16) that identifies pixels where a significant difference in intensity or color occurs between two consecutive images. . Motion is defined to exist in a given pixel if:
Figure imgf000009_0001
Figure imgf000009_0001
[42] com T tomando um valor entre 0 e 255, numa realização preferencial.  [42] with T taking a value between 0 and 255 in a preferred embodiment.
[43] As máscaras de movimento (16) e de contornos (15) são posteriormente utilizadas pelo detector de deslocamento (17) de modo a determinar o vector que especifica a [43] Motion (16) and contour (15) masks are subsequently used by the displacement detector (17) to determine the vector specifying the
Tradução (Regra 12.2.b)i) amplitude e o ângulo de direcção do movimento observado. Translation (Rule 12.2.b) (i) amplitude and the steering angle of the observed movement.
[43] O detector de deslocamento (17) realiza numa primeira fase a sobreposição da  [43] The displacement detector (17) initially overlaps the
máscara de movimento à máscara de contornos. Um exemplo dessa operação é apresentado na FIGURA 6. Após a sobreposição de ambas as máscaras, o detector de deslocamento executa a identificação de regiões designadas por pixéis de origem (19), geradas sempre que num mesmo pixel seja identificada a existência em simultâneo de movimento e de contorno.  motion mask to contour mask. An example of such an operation is shown in FIGURE 6. After overlapping both masks, the displacement detector performs identification of regions designated by source pixels (19), generated whenever simultaneous motion is identified on the same pixel. and contour.
[44] No passo seguinte, para cada pixel de origem (19), é calculado o vector parcial de deslocação (20) horizontal e vertical. O vector parcial de deslocação horizontal mede a distância, para o mesmo valor de y, definida pelo número de pixéis de movimento (18) contíguos e delimitados entre pixéis de origem ou, entre um pixel de origem e um pixel sem movimento. De modo análogo, é calculado o vector parcial de deslocação vertical, mantendo no entanto fixo o valor de x.  [44] In the next step, for each source pixel (19), the partial horizontal and vertical shift vector (20) is calculated. The partial horizontal shift vector measures the distance, to the same value as y, defined by the number of motion pixels (18) contiguous and delimited between source pixels or between a source pixel and a non-moving pixel. Similarly, the partial vertical displacement vector is calculated, while keeping the value of x fixed.
[45] Por fim, é realizada a soma de todos os vectores parciais de deslocação, resultando dessa operação o vector de deslocação, constituído pela amplitude (em pixéis) e direcção do deslocamento total observado.  [45] Finally, all the partial displacement vectors are summed, resulting from this operation the displacement vector, consisting of the amplitude (in pixels) and direction of the total displacement observed.
[46] O módulo de multimédia (4), que recebe o vector de deslocação, é um componente de software que pode ser implementado por uma qualquer linguagem de programação orientada ao desenvolvimento de jogos ou animação tridimensional, como por exemplo XNA, DirectX, Direct3D, Flash ou OpenGL. Este módulo tem como propósito exibir aos utilizadores do sistema uma animação bidimensional ou tridimensional, gerada por computador, bem como proporcionar efeitos sonoros e luminosos, que reagem de acordo com o tipo de movimento realizado pelos actores.  [46] The multimedia module (4), which receives the scroll vector, is a software component that can be implemented by any game-oriented programming language or three-dimensional animation, such as XNA, DirectX, Direct3D. , Flash, or OpenGL. The purpose of this module is to provide system users with two-dimensional or three-dimensional computer-generated animation, as well as to provide sound and light effects that react according to the type of movement performed by the actors.
[47] Com o propósito de facilitar a compreensão da presente invenção, apresentam-se neste documento três figuras que ilustram modos distintos de aplicação.  [47] In order to facilitate the understanding of the present invention, three figures illustrating different modes of application are presented herein.
[48] A FIGURA 2 demonstra uma possível configuração da invenção, que poderia ser implementada numa sala de cinema, onde os actores (9) são monitorizados por duas câmaras de vídeo (1) conectadas a um computador (5) que tem a seu cargo a execução do módulo de detecção e reconhecimento de movimento. O resultado da análise do movimento é transmitido para um outro computador (5), via rede informática (com ou sem fios). Este computador (5) executa o módulo de multimédia que poderá conter um jogo onde se actua sobre o movimento de um objecto virtual, e.g. um avatar, um cesto ou um automóvel, que é exibido na superfície da tela (8) através do projector de vídeo (6) que se encontra conectado ao computador (5). Com o movimento dos braços para a esquerda, direita, cima e baixo, os actores controlam o movimento do objecto virtual. As colunas altifalantes (7) que se encontram ligadas ao computador (5) têm a finalidade de proporcionar ao grupo de actores (9) um conjunto de efeitos sonoros que reagem também em concordância com os seus movimentos. [49] A FIGURA 3 apresenta uma outra configuração da presente invenção onde os actores[48] FIGURE 2 demonstrates a possible embodiment of the invention which could be implemented in a movie theater where actors (9) are monitored by two camcorders (1) connected to a computer (5) in charge of them. the execution of the motion detection and recognition module. The result of the motion analysis is transmitted to another computer (5) via computer network (wired or wireless). This computer (5) runs the multimedia module which may contain a game which acts on the movement of a virtual object, eg an avatar, a basket or a car, which is displayed on the screen surface (8) through the projector. video (6) that is connected to the computer (5). By moving the arms left, right, up and down, the actors control the movement of the virtual object. The loudspeaker speakers (7) connected to the computer (5) are intended to provide the actor group (9) with a set of sound effects which also react in accordance with their movements. [49] FIGURE 3 presents another embodiment of the present invention wherein the actors
(9) são monitorizados por apenas uma câmara de vídeo (1), conectada ao um computador (5) que tem a seu cargo a execução do módulo de detecção e reconhecimento de movimento e do módulo de multimédia. Através de movimentos do corpo (para cima, baixo, esquerda e direita) o sistema actua sobre o conteúdo multimédia, transmitido as imagens geradas pelo módulo de multimédia para um ecrã(9) are monitored by only one camcorder (1), connected to a computer (5) which is responsible for the execution of the motion detection and recognition module and the multimedia module. Through body movements (up, down, left and right) the system acts on the multimedia content, transmitted the images generated by the multimedia module to a screen.
(10) que as exibe aos actores (9). Um conjunto de colunas altifalantes (7) encontra-se também conectado ao computador (5) com o objectivo de transmitir os efeitos sonoros gerados pelo sistema. (10) showing them to the actors (9). A set of speaker speakers (7) is also connected to the computer (5) for the purpose of transmitting the sound effects generated by the system.
[50] A FIGURA 4 mostra uma utilização da invenção onde é possível monitorizar simultaneamente dois grupos de actores (9), observados pelas câmaras de vídeo (1), de modo a que seja possível a interacção entre os dois grupos num mesmo conteúdo multimédia, por exemplo um jogo multi-grupo. Tal configuração do sistema poderia ser utilizada, por exemplo, num estádio de futebol onde um grupo (9) seria representado por adeptos de uma equipa e um outro grupo (9) por adeptos da equipa adversária. Nesta configuração, cada grupo de actores (9) é monitorizado por uma câmara de vídeo (1). Ambas as câmaras encontram-se conectadas ao computador (5) que executa o módulo de detecção e reconhecimento de movimento e o módulo de multimédia. Conectado a este computador (5) encontram-se as colunas de altifalantes (7), onde uma coluna de altifalantes (7) emite os efeitos sonoros para um dos grupos (9) e a outra coluna de altifalantes (7) emite os efeitos sonoros para o outro grupo (9). Os projectores de vídeo (6) encontram-se conectados ao computador (5), projectando as imagens geradas pelo módulo multimédia para as telas (8). O conteúdo das imagens projectadas por (6) poderá divergir de modo a que cada grupo de actores tenha uma perspectiva própria o objecto virtual que controla.  [50] FIGURE 4 shows a use of the invention where it is possible to simultaneously monitor two groups of actors (9), observed by the camcorders (1), so that interaction between the two groups on the same multimedia content is possible; for example a multi-group game. Such a system configuration could be used, for example, in a football stadium where one group (9) would be represented by supporters of one team and another group (9) by supporters of the opposing team. In this configuration, each group of actors (9) is monitored by a camcorder (1). Both cameras are connected to the computer (5) running the motion detection and recognition module and the multimedia module. Connected to this computer (5) are speaker speakers (7), where one speaker column (7) emits sound effects to one of the groups (9) and the other speaker column (7) emits sound effects. to the other group (9). The video projectors (6) are connected to the computer (5), projecting the images generated by the multimedia module to the screens (8). The content of the images projected by (6) may differ so that each group of actors has its own perspective on the virtual object it controls.

Claims

Claims Claims
Método de interacção entre actores e superfícies pela detecção de movimento caracterizado por compreender os seguintes passos:  Method of interaction between actors and surfaces by motion detection comprising the following steps:
a. captar imagens em sequência dos referidos actores (9) através de uma ou mais câmaras de video (1); The. sequentially capturing said actors (9) through one or more video cameras (1);
b. digitalizar as referidas imagens (2), excepto se as câmaras de video (1) já o realizaram; B. scanning said images (2), except if the camcorders (1) have already done so;
c. detectar e identificar (3) a direcção do movimento através da geração de vectores de deslocamento de cada um dos actores observados; ç. detecting and identifying (3) the direction of movement by generating displacement vectors from each of the observed actors;
d. actuar (4) sobre objectos virtuais, ou iniciar acções predefinidas, através dos referidos vectores de deslocamento. d. act (4) on virtual objects, or initiate predefined actions via said offset vectors.
Método de acordo com a reivindicação anterior caracterizado por, na referida detecção e identificação (3) do movimento, compreender adicionalmente os passos de:  Method according to the preceding claim, characterized in that said movement detection and identification (3) further comprises the steps of:
a. calcular (14) uma máscara de movimento (16) através da imagem actual (12) comparada com a imagem anterior (11); The. calculating (14) a motion mask (16) through the current image (12) compared to the previous image (11);
b. calcular (13) uma máscara de contornos (15) através da imagem anterior (11); B. calculating (13) a contour mask (15) through the previous image (11);
c. calcular (17) um ou mais vectores de deslocamento a partir das referidas ç. calculate (17) one or more displacement vectors from said
Método de acordo com a reivindicação anterior caracterizado por, no referido cálculo (17) de vectores de deslocamento, compreender adicionalmente os passos de:  Method according to the preceding claim, characterized in that in said displacement vector calculation (17) further comprises the steps of:
a. sobrepor as máscaras de movimento(16) e contornos (15); The. overlapping movement masks (16) and contours (15);
b. identificar pixéis de origem (19), sempre que num mesmo pixel seja identificada a existência em simultâneo de movimento e de contorno; c. para cada pixel de origem (19), são calculados o vector parcial de deslocação (20) horizontal e o vector parcial de deslocação vertical, através da distância horizontal ou vertical, respectiva-mente, definida pelo número de pixéis de movimento (18) contíguos e delimitados entre pixéis de origem ou, entre um pixel de origem e um pixel sem movimento; B. identifying source pixels (19), whenever the same existence of motion and contour is identified in the same pixel; ç. For each source pixel (19), the horizontal displacement partial vector (20) and the vertical displacement partial vector are calculated by the horizontal or vertical distance, respectively, defined by the number of contiguous motion pixels (18). and delimited between source pixels or between a source pixel and a non-moving pixel;
d. somar todos os vectores parciais de deslocação, resultando o vector de deslocação, constituído pela amplitude, em pixéis, e direcção do deslocamento total observado. d. sum all the partial displacement vectors, resulting in the displacement vector, consisting of the amplitude, in pixels, and direction of the total displacement observed.
Método de acordo com qualquer uma das reivindicações 2 ou 3 caracterizado por calcular a máscara de contorno (15) através da equação (I): CONTORNO(It l(x,y)) = 1, se, Method according to claim 2 or 3, characterized in that the contour mask (15) is calculated by means of equation (I): CONTOUR (I tl (x, y)) = 1 if,
IIt-i(x,y)- It-i(x-l,y-l)l>T, e, II t -i (x, y) - I t -i (xl, yl) l> T, and,
Ht-i(x,y)- It-i(x-l,y+l)l>T, e, (I) Ht-i (x, y) - I t -i (xl, y + l) l> T, and, (I)
IIt-i(x,y)- It-i(x+l,y-l)l>T, e, II t -i (x, y) - I t- (x + 1, yl) l> T, and,
llt-i(x,y)- lt-i(x+l,y+l)l>T ll t -i (x, y) - l t- i (x + 1, y + 1) l> T
CONTORNO(It l(x,y)) = O, caso contrário; CONTOUR (I tl (x, y)) = O, otherwise;
sendo que T pode tomar qualquer valor entre 0 e a intensidade máxima de um pixel, e que imagem actual é representada por It (12) e a imagem capturada no instante de tempo anterior é representada por It-1 (11). Método de acordo com qualquer uma das reivindicações 2 ou 3 caracterizado por calcular a máscara de movimento (16) através da equação (II):wherein T can take any value between 0 and the maximum intensity of a pixel, and which current image is represented by I t (12) and the image captured at the previous time instant is represented by I t-1 (11). Method according to either claim 2 or claim 3, characterized in that the motion mask (16) is calculated by equation (II):
Figure imgf000013_0001
Figure imgf000013_0001
sendo que T pode tomar qualquer valor entre 0 e a intensidade máxima de um pixel, e que imagem actual é representada por It (12) e a imagem capturada no instante de tempo anterior é representada por It_i (11). Sistema de interacção entre actores e superfícies pela detecção de movimento caracterizado por executar o método referido na wherein T may take any value between 0 and the maximum intensity of a pixel, which is represented by the current image I t (12) the captured image and the previous time point t is represented by I _i (11). System of interaction between actors and surfaces by motion detection characterized by performing the method referred to in
reivindicação 1 e por compreender: claim 1 and comprising:
a. uma ou mais câmaras de video (1); The. one or more video cameras (1);
b. opcionalmente, um módulo digitalizador (2) das imagens; B. optionally a digitizer module (2) of the images;
c. um módulo detector e indentificador (3) de vectores de deslocamento de cada um dos actores observados; ç. a detector and identifier module (3) of displacement vectors of each of the observed actors;
d. um módulo actuador (4) sobre objectos virtuais ou que desencadeia acções predefinidas. d. an actuator module (4) on virtual objects or triggering predefined actions.
Sistema de acordo com a reivindicação anterior caracterizador por compreender: um ou mais computadores (5), um ecrã (9) e uma ou mais câmaras de vídeo (1).  A system according to the preceding claim comprising: one or more computers (5), a screen (9) and one or more camcorders (1).
Sistema de acordo com qualquer uma das duas reivindicações anteriores caracterizado por o referido módulo de detecção e reconhecimento de movimento (3) efectuar o cálculo do vector de deslocamento do movimento protagonizado pelos actores, gerando um valor de amplitude e ângulo de direcção do deslocamento.  System according to either of the preceding claims, characterized in that said motion detection and recognition module (3) calculates the displacement vector of the movement carried out by the actors, generating a value of displacement amplitude and direction angle.
Sistema de acordo com qualquer uma das três reivindicações anteriores caracterizado por o referido módulo actuador (4) que recebe um vector de deslocamento, contendo a amplitude e ângulo de direcção do movimento, executa, de acordo com essa informação, uma determinada acção sobre conteúdo multimédia. Sistema de acordo com a reivindicação anterior caracterizado por alterar a trajectória de objectos gerados por computador ou seleccionar conteúdos multimédia. System according to any one of the preceding three claims, characterized in that said actuator module (4) which receives a displacement vector, containing the amplitude and angle of direction of movement, performs according to said one. information, a particular action on multimedia content. System according to the preceding claim, characterized in that it changes the path of computer generated objects or selects multimedia content.
Sistema de acordo com a reivindicação anterior caracterizado por actuar sobre objectos virtuais através de movimentos de rotação, ou através da translação dos mesmos, ou através de ambas acções.  System according to the preceding claim, characterized in that it acts on virtual objects by rotational movements, or by translating them or by both actions.
Sistema de acordo com qualquer uma das reivindicações 6 a 11 caracterizado pelo facto de possuir um equipamento de projecção de vídeo ou ecrã, conectado ao computador que executa o módulo de multimédia, onde são exibidos aos actores os conteúdos multimédia gerados.  System according to any one of claims 6 to 11, characterized in that it has a video or screen projection equipment connected to the computer running the multimedia module, where the generated multimedia contents are displayed to the actors.
Sistema de acordo com qualquer uma das reivindicações 6 a 11 caracterizado por compreender um módulo de controlo do tipo liga-desliga, conectado ao computador que executa o módulo de multimédia, que actua sobre a iluminação.  System according to any one of claims 6 to 11, characterized in that it comprises an on-off control module connected to the computer running the multimedia module which acts on the lighting.
PCT/IB2009/054326 2008-10-03 2009-10-02 Method and system of interaction between actors and surfaces through motion detection WO2010038218A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PT104205A PT104205A (en) 2008-10-03 2008-10-03 METHOD AND SYSTEM OF INTERACTION BETWEEN ACTORS AND SURFACES BY THE DETECTION OF MOVEMENT
PT104205 2008-10-03

Publications (2)

Publication Number Publication Date
WO2010038218A1 WO2010038218A1 (en) 2010-04-08
WO2010038218A9 true WO2010038218A9 (en) 2011-03-17

Family

ID=41611421

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2009/054326 WO2010038218A1 (en) 2008-10-03 2009-10-02 Method and system of interaction between actors and surfaces through motion detection

Country Status (2)

Country Link
PT (1) PT104205A (en)
WO (1) WO2010038218A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
EP2584530A2 (en) * 2006-08-03 2013-04-24 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
JP2010515170A (en) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド Manipulating virtual objects using an enhanced interactive system

Also Published As

Publication number Publication date
PT104205A (en) 2010-04-05
WO2010038218A1 (en) 2010-04-08

Similar Documents

Publication Publication Date Title
US11317076B2 (en) Peripheral device having sensors for capturing changes in spatial position
CN105073210B (en) Extracted using the user&#39;s body angle of depth image, curvature and average terminal position
US9710972B2 (en) Immersion photography with dynamic matte screen
CN102414641B (en) Altering view perspective within display environment
EP2427869B1 (en) Entertainment device, system, and method
CN108525298B (en) Image processing method, image processing device, storage medium and electronic equipment
CN102413267B (en) Improved array of scanning sensors
US9628755B2 (en) Automatically tracking user movement in a video chat application
US8970624B2 (en) Entertainment device, system, and method
US10692288B1 (en) Compositing images for augmented reality
TWI469813B (en) Tracking groups of users in motion capture system
CN103748893B (en) It illuminates and captures the visual field of equipment to capture the method and system of the image through illuminating
EP1886250A2 (en) System and method for detecting changes in an environment
KR20120040751A (en) A system and method for 3d space-dimension based image processing
US10602117B1 (en) Tool for onsite augmentation of past events
CN112105983B (en) Enhanced visual ability
WO2022262618A1 (en) Screen saver interaction method and apparatus, electronic device, and storage medium
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
CN110096144B (en) Interactive holographic projection method and system based on three-dimensional reconstruction
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
Marner et al. Exploring interactivity and augmented reality in theater: A case study of Half Real
US11651544B2 (en) Systems and methods employing multiple graphics processing units for producing images
WO2010038218A9 (en) Method and system of interaction between actors and surfaces through motion detection
CN206002838U (en) 360 degree of phantom imaging systems based on body feeling interaction
WO2011093555A1 (en) Method for generating video frames for producing 3d images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09760301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09760301

Country of ref document: EP

Kind code of ref document: A1