ES2930023T3 - Método de lectura de un flujo de vídeo - Google Patents
Método de lectura de un flujo de vídeo Download PDFInfo
- Publication number
- ES2930023T3 ES2930023T3 ES18718620T ES18718620T ES2930023T3 ES 2930023 T3 ES2930023 T3 ES 2930023T3 ES 18718620 T ES18718620 T ES 18718620T ES 18718620 T ES18718620 T ES 18718620T ES 2930023 T3 ES2930023 T3 ES 2930023T3
- Authority
- ES
- Spain
- Prior art keywords
- video stream
- terminal
- image
- characteristic data
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000002547 anomalous effect Effects 0.000 claims abstract description 32
- 206010000117 Abnormal behaviour Diseases 0.000 claims abstract description 28
- 230000004044 response Effects 0.000 claims abstract description 19
- 230000001960 triggered effect Effects 0.000 claims abstract description 7
- 230000011664 signaling Effects 0.000 claims abstract 10
- 230000006399 behavior Effects 0.000 claims description 88
- 238000005259 measurement Methods 0.000 claims description 29
- 230000001133 acceleration Effects 0.000 claims description 23
- 238000006073 displacement reaction Methods 0.000 claims description 19
- 230000002776 aggregation Effects 0.000 claims description 13
- 238000004220 aggregation Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 230000006837 decompression Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 28
- 230000005540 biological transmission Effects 0.000 description 17
- 239000003795 chemical substances by application Substances 0.000 description 13
- 238000007596 consolidation process Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013450 outlier detection Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2541—Rights Management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/432—Content retrieval operation from a local storage medium, e.g. hard-disk
- H04N21/4325—Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440245—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4405—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4627—Rights management associated to the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/647—Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
- H04N21/64715—Protecting content from unauthorized alteration within the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/167—Systems rendering the television signal unintelligible and subsequently intelligible
- H04N7/1675—Providing digital key or authorisation information for generation or regeneration of the scrambling sequence
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/75—Enforcing rules, e.g. detecting foul play or generating lists of cheating players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5586—Details of game data or player data management for enforcing rights or rules, e.g. to prevent foul play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/26606—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for generating or managing entitlement messages, e.g. Entitlement Control Message [ECM] or Entitlement Management Message [EMM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4781—Games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Este método para leer un flujo de video comprende: - una etapa (134) de comparar un dato característico de un comportamiento de un usuario con un conjunto de umbrales predeterminados, cada uno de los cuales, cuando se cruza, caracteriza un comportamiento anormal del usuario, y luego - una etapa (134) de señalización de un comportamiento anómalo si se traspasa al menos una parte predeterminada de estos umbrales y, en caso contrario, la ausencia de esta señalización de un comportamiento anómalo, y luego - una etapa (120) de ejecución de una contramedida que dificulta o imposibilita el acceso al conjunto de información contenida en un primer flujo de video en banda base a partir de varias copias de un segundo flujo de video en banda base compuesto por un primer terminal, esta etapa de ejecución se activa automáticamente en respuesta a la señalización de un comportamiento anormal y no desencadenarse en ausencia de esta señalización de un comportamiento anormal. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Método de lectura de un flujo de vídeo
La invención se refiere a un método de lectura de un flujo de vídeo. La invención también se refiere a un terminal, un servidor de agregación y un medio de registro de informaciones para la puesta en práctica de este método.
El término “compresión” designa en esta descripción la operación consistente en reducir el número de bits utilizados para codificar una misma información. El resultado de esta operación se designa como información comprimida. Por "descompresión" se entiende la operación inversa, que permite obtener, a partir de la información comprimida, la información en la forma que tenía antes de ser comprimida, y como información descomprimida su resultado.
El término "cifrado" significa la operación de hacer ininteligible una información utilizando información secreta denominada "clave de cifrado" para que esta información pueda volver a hacerse inteligible solamente para el usuario utilizando esta clave, u otra clave correspondiente a esta clave. El resultado de esta operación se designa como información cifrada. El término "descifrado" significa la operación inversa, que permite obtener, utilizando información secreta denominada "clave de descifrado", a partir de la información cifrada, la información en la forma que tenía antes de ser cifrada, y como información descifrada su resultado.
Métodos de lectura de un flujo de vídeo son conocidos, por ejemplo, a partir de la solicitud WO2008/134014. En estos métodos conocidos, un primer terminal:
- recoge al menos una medida representativa de un comportamiento de un usuario del primer terminal y establece, a partir de dicha al menos una medida recogida, al menos un dato característico de este comportamiento de este usuario,
- decodifica el flujo de vídeo con el fin de obtener un primer flujo de vídeo de banda base que sea independiente de dicha al menos una medida recogida, y luego
- compone, a partir de dicho al menos un dato característico establecido y del primer flujo de vídeo de banda base, un segundo flujo de vídeo de banda base que varía en función de dicho al menos un dato característico obtenido. A continuación, el segundo flujo de vídeo se muestra mediante un dispositivo de visualización tal como un casco de realidad virtual. El segundo flujo de vídeo depende específicamente del comportamiento del usuario durante la lectura del flujo de vídeo. Concretamente, el comportamiento del usuario es una posición y/o un desplazamiento del usuario del terminal en el proceso de lectura del flujo de vídeo, del cual depende la composición del segundo flujo de vídeo. Por ejemplo, si el usuario dirige su mirada hacia la derecha, el segundo flujo de vídeo codifica solamente fracciones de imagen situadas a la derecha de la imagen completa, es decir, las fracciones de imagen que el usuario desea ver. En dicho contexto, la copia del segundo flujo de vídeo cuando un primer usuario utiliza el terminal para reproducirlo más tarde, tiene poco interés. De hecho, cuando se reproduce el segundo flujo de vídeo, existen muy pocas posibilidades de que un segundo usuario, que pueda ser, o no, el primero, reproduzca exactamente el mismo comportamiento que el primer usuario. En consecuencia, el flujo de vídeo reproducido ya no es una función del comportamiento del segundo usuario, lo que reduce, en gran medida, el beneficio de reproducir este segundo flujo de vídeo. De hecho, en este caso, en el mejor de los casos, el segundo usuario ve exactamente las mismas cosas que vio el primer usuario. Por otra parte, no puede explorar las imágenes del flujo de vídeo como podría hacerlo el primer usuario, es decir, modificando su comportamiento.
Solamente el primer flujo de vídeo permite componer el segundo flujo de vídeo para todos los comportamientos posibles del usuario. Sin embargo, este primer flujo de vídeo no es directa y simplemente accesible en un puerto de salida del terminal. Por el contrario, el acceso a este primer flujo de vídeo por lo general está protegido por medidas de seguridad de hardware y/o software.
Para copiar y distribuir, a menudo de forma ilícita, una copia completa del primer flujo de vídeo, se ha propuesto reestablecer este primer flujo de vídeo a partir de varias copias del segundo flujo de vídeo obtenidas para diferentes comportamientos de los usuarios. Este ataque se ilustra con el siguiente ejemplo simplificado. Supongamos que: - cuando el usuario mira hacia la derecha, el terminal compone una primera copia del segundo flujo de vídeo que contiene solamente la mitad derecha de cada imagen del primer flujo de vídeo, y
- cuando el usuario mira hacia la izquierda, el terminal compone una segunda copia del segundo flujo de vídeo que contiene solamente la mitad izquierda de cada imagen del primer flujo de vídeo.
Con el fin de obtener una copia completa del primer flujo de vídeo, el atacante puede realizar la lectura del flujo de vídeo por primera vez mientras mantiene, de manera sistemática, su cabeza girada hacia la derecha durante todo el
tiempo de reproducción del flujo de vídeo. Obtiene así una primera copia del segundo flujo de vídeo que registra. A continuación, vuelve realizar la lectura del mismo flujo de vídeo, pero, esta vez, mantiene sistemáticamente la cabeza girada hacia la izquierda. A continuación, obtiene una segunda copia del segundo flujo de vídeo que registra. A continuación, ensamblando correctamente las imágenes de la primera y de segunda copia del segundo flujo de vídeo, puede reestablecer una copia completa del primer flujo de vídeo. El término "copia completa" del primer flujo de vídeo significa una copia a partir de la cual es posible componer el segundo flujo de vídeo en función del comportamiento del usuario de la misma manera que el terminal cuando realiza la lectura de la versión original del primer flujo de vídeo. Cuando el flujo de vídeo se transmite en diferido y bajo demanda, para generar las diferentes copias deseadas del segundo flujo de vídeo, el atacante puede generar las diferentes copias una tras otra reproduciendo el mismo flujo de vídeo varias veces. En cualquier caso, el atacante, o un grupo de atacantes actuando en connivencia, también puede reproducir el mismo flujo de vídeo de manera simultánea en varios terminales para generar las diferentes copias deseadas del segundo flujo de vídeo en paralelo.
En la práctica, con el fin de obtener una copia completa del primer flujo de vídeo, por lo general es preciso tener numerosas copias del segundo flujo de vídeo generadas con diferentes comportamientos del usuario. En estas condiciones, para facilitar la generación de estas diferentes copias del segundo flujo de vídeo, se ha propuesto utilizar autómatas para realizar los diferentes comportamientos deseados. Por ejemplo, cuando el comportamiento del usuario que varía el segundo flujo de vídeo es un desplazamiento de este usuario, un autómata permite realizar este desplazamiento con mucha más precisión que un ser humano. Además, una vez programado correctamente, no existe la necesidad de intervención humana para generar la copia deseada del segundo flujo de vídeo.
El estado de la técnica se conoce asimismo a partir de los documentos:
- EP3026923A1,
- US2014/304721A1,
- US2011/256932A1.
La invención tiene por objeto modificar un método conocido de lectura de un flujo de vídeo para hacer más difícil obtener una copia completa del primer flujo de vídeo a partir del segundo flujo de vídeo.
Por lo tanto, se refiere a un método de lectura de un flujo de vídeo de conformidad con la reivindicación 1.
El método reivindicado explota el hecho de que, para establecer una copia completa del primer flujo de vídeo a partir de varias copias del segundo flujo de vídeo, es preciso poner en práctica comportamientos de usuario que no corresponden a los comportamientos normales de un usuario, que no busca obtener una copia completa del primer flujo de vídeo. A partir de entonces, estos comportamientos que no se corresponden con los comportamientos normales, se califican como “anómalos”. Por ejemplo, en el ejemplo descrito con anterioridad, mirar constante y solamente a la derecha o mirar constante y solamente a la izquierda es un comportamiento anómalo.
El método reivindicado detecta de manera automática estos comportamientos anómalos mediante la comparación de los datos característicos del comportamiento establecido por el terminal, con unos umbrales predeterminados. A continuación, en respuesta al cruce de uno o más de estos umbrales, se ejecuta automáticamente una contramedida. Su ejecución hace que sea más difícil crear una copia completa del primer flujo de vídeo. Por lo tanto, el método reivindicado es más resistente a los ataques destinados a establecer una copia completa del primer flujo de vídeo a partir de copias del segundo flujo de vídeo.
Además, el método reivindicado es difícil de frustrar. De hecho, es muy difícil simular un comportamiento normal de un usuario utilizando, por ejemplo, un autómata.
Por último, el método reivindicado utiliza el mismo dato característico que el utilizado para componer el segundo flujo de vídeo. Por lo tanto, no es preciso recoger y generar datos específicamente dedicados a la activación de contramedidas.
Las formas de realización de este método de lectura pueden incluir una o más de las características de las reivindicaciones dependientes.
Estas formas de realización del método de lectura pueden tener una o más de las siguientes ventajas:
- El establecimiento de datos estadísticos que representan el comportamiento normal de un usuario durante la lectura del flujo de vídeo y luego la comparación con un primer umbral predeterminado de una desviación entre estos datos estadísticos y los datos característicos del comportamiento del usuario del terminal que hacen posible para detectar comportamientos anómalos. Por ejemplo, lo que antecede permite detectar un comportamiento que no tenga en cuenta el contenido cognitivo del flujo de vídeo reproducido. De hecho, el comportamiento normal del usuario por lo general depende del contenido cognitivo del flujo de vídeo reproducido. Entonces, por ejemplo, la mayoría de los usuarios suelen mirar la misma parte de la imagen al mismo tiempo. O bien, para reestablecer una copia completa del primer flujo de vídeo, es preciso recurrir a comportamientos que permitan obtener la
visualización de todas las partes de cada imagen y, por lo tanto, incluir las partes de la imagen que normalmente no son visualizadas por los usuarios. De esta manera, mirar partes de la imagen que normalmente no se miran constituye un ejemplo de comportamiento anómalo, cuya detección, sola o en combinación con otros comportamientos anómalos, conduce a iniciar la ejecución de una contramedida. Además, es muy difícil, si no imposible, que un autómata comprenda el contenido cognitivo del flujo de vídeo reproducido y, por lo tanto, simule de manera correcta el comportamiento normal de un ser humano. Por lo tanto, parece difícil frustrar la detección de este tipo de comportamiento anómalo utilizando un autómata.
- Utilizar, como dato estadístico, una cartografía que indique, para cada píxel de una imagen, la probabilidad de que un usuario dirija su mirada en la dirección de ese píxel permitiendo así discriminar, de forma muy fiable, un comportamiento anómalo de un comportamiento normal.
- Utilizar un dato característico de la velocidad o de la aceleración del desplazamiento del usuario permite detectar, de forma fiable, comportamientos anómalos en el sentido de ser fiables, o seguros, o con una alta probabilidad de éxito. De hecho, los posibles desplazamientos de un ser humano están limitados por los límites fisiológicos del cuerpo humano. Los posibles desplazamientos de un autómata no presentan los mismos límites. De esta manera, si se detecta que una característica de la velocidad o de la aceleración del desplazamiento supera las capacidades fisiológicas normales de un ser humano, es casi seguro que se trata de un desplazamiento realizado por un autómata y, por tanto, de un comportamiento anómalo.
- El uso de un clasificador de aprendizaje supervisado simplifica la discriminación entre comportamiento anómalo y comportamiento normal.
- El cálculo de una nota global que es función tanto de los resultados del clasificador, como de los datos característicos de la velocidad o de la aceleración del desplazamiento como de los datos estadísticos, permite mejorar la fiabilidad de la detección de un comportamiento anómalo y, por lo tanto, activar más apropiadamente las contramedidas.
La invención también se refiere a un conjunto de un primer terminal y a varios segundos terminales de lectura de un flujo de vídeo para poner en práctica el método reivindicado.
La invención también se refiere a un servidor de agregación de datos para la puesta en práctica del método reivindicado.
Por último, la invención también se refiere a un medio de registro de informaciones que comprende instrucciones para poner en práctica el método reivindicado, cuando estas instrucciones son ejecutadas por un microprocesador.
La invención se comprenderá mejor con la lectura de la siguiente descripción, dada únicamente a título de ejemplo no limitativo y realizada con referencia a los dibujos en los que:
- la Figura 1 es una ilustración esquemática de la arquitectura de un sistema para generar y reproducir un flujo de vídeo comprimido y cifrado;
- la Figura 2 es una ilustración esquemática de la arquitectura de un lector de flujo de vídeo puesto en práctica en el sistema de la Figura 1;
- la Figura 3 es una ilustración esquemática de una imagen completa del flujo de vídeo;
- la Figura 4 es un diagrama de flujo de un método para generar el flujo de vídeo puesto en práctica en el sistema de la Figura 1;
- las Figuras 5 y 6 son organigramas de un método de lectura del flujo de vídeo puesto en práctica en el sistema de la Figura 1;
- la Figura 7 es una ilustración esquemática de los datos estadísticos puestos en práctica en el sistema de la Figura 1.
En estas figuras se utilizan las mismas referencias para designar los mismos elementos. En el resto de esta descripción, las características y funciones bien conocidas por los expertos en esta técnica no se describen en detalle. El método descrito en la Figura 6 es parte integrante de la invención.
La Figura 1 muestra un sistema 2 para generar y realizar la lectura de un flujo de vídeo 4 cifrado y comprimido. El sistema 2 incluye:
- un generador 6 del flujo de vídeo 4,
- un terminal 8 provisto de un lector 10 del flujo de vídeo 4, y
- un dispositivo 12 para mostrar el flujo de vídeo 4 que ha sido objeto de lectura por el lector 10.
El flujo de vídeo 4 codifica una sucesión temporal y ordenada de imágenes completas. A partir del flujo de vídeo 4, el lector 10:
- obtiene un primer flujo de vídeo de banda base descifrado y descomprimido, y luego
- compone, a partir de este primer flujo de vídeo, un segundo flujo de vídeo de banda base que comprende las denominadas imágenes "compuestas" destinadas a visualizarse una tras otra en una pantalla a una frecuencia dada de manera convencional denominada "frecuencia de actualización".
En esta forma de realización, el flujo de vídeo 4 es un vídeo inmersivo. Por lo tanto, normalmente, el flujo de vídeo 4 está destinado a ser visualizado por un dispositivo de visualización de realidad virtual.
El flujo de vídeo 4 es, por tanto, un vídeo en donde cada imagen completa codificada contiene, de manera simultánea, vistas codificadas de lo que rodea a la cámara en varias direcciones diferentes. Por ejemplo, cada imagen completa contiene vistas tomadas en todas las direcciones contenidas dentro de un cono de visión cuyo vértice coincide con el centro óptico del objetivo de la cámara. Por lo general, el ángulo a en la parte superior de este cono de visión es mayor que el ángulo de visión de un ser humano que estaría ubicado en el mismo lugar que la cámara. Debido a lo que antecede, cada imagen del flujo de vídeo tiene más vistas de las que puede ver, al mismo tiempo, una persona estacionaria en la ubicación de la cámara. Concretamente, el ángulo a es por lo tanto estrictamente mayor que 70° u 80° y, por lo general, mayor que 100° o 180° o 260°. En el caso de que el cono de visión no tenga una base circular, es decir, no sea un cono de revolución, el ángulo a se define como siendo igual al ángulo en el vértice del más pequeño cono de revolución que contiene completamente este cono de visión. Por cono de revolución más pequeño se entiende el cono de revolución que tiene el ángulo más pequeño en el vértice y cuyo vértice coincide con el vértice del cono de visión.
Cuando el ángulo a es igual a 180°, la imagen se suele denominar “imagen hemisférica”. El ángulo a también puede ser igual a 360°. En este caso, cada imagen contiene vistas tomadas en todas las direcciones del espacio. Entonces se suelen referir como imágenes de 360° o imágenes omnidireccionales.
La cámara utilizada para filmar y grabar un vídeo inmersivo comprende, por ejemplo, varios objetivos apuntando, de manera simultánea, en diferentes direcciones y/o objetivos con ángulos de apertura muy amplios, es decir objetivos cuyo ángulo de apertura es mayor a 100° o 160° o 180°.
El generador 6 está conectado al terminal 8, por ejemplo, a través de una red 16 para transmitir informaciones tal como la red Internet. El generador 6 puede ser un cabezal de red de difusión o un servidor de vídeo.
El generador 6 comprende un microprocesador electrónico programable 20 conectado a una memoria 22. El microprocesador 20 es capaz de ejecutar las instrucciones registradas en la memoria 22. En este caso, la memoria 22 comprende las instrucciones necesarias para poner en práctica el método de la Figura 4.
El terminal 8 controla el dispositivo 12 para mostrar el flujo de vídeo que es objeto de lectura. En esta forma de realización, el dispositivo 12 se considera un elemento externo al terminal 8.
El lector 10 descifra y descomprime el flujo de vídeo 4 y a continuación compone, a partir del flujo de vídeo descifrado y descomprimido, un flujo de vídeo 18 en banda base.
Concretamente, un flujo de vídeo en banda base está constituido principalmente por bloques de bits sucesivos, cada uno de los cuales codifica el color de un píxel respectivo. Es la posición del bloque de bits dentro del flujo de vídeo 18 que codifica la posición del píxel correspondiente. Por ejemplo, el flujo de vídeo 18 se ajusta al formato HDMI (“Interfaz Multimedia de Alta Definición”) o formato similar. Si es preciso, el flujo de vídeo 18 se puede cifrar de conformidad con la norma HDCP ("Protección de Contenido Digital de Alto Ancho de Banda"). El enlace entre el lector 10 y el dispositivo 12 es un enlace de corta distancia, es decir, una distancia por lo general inferior a 30 m o 20 m o 10 m. Posteriormente, se dice que el flujo de vídeo 18 está no cifrado porque ya no necesita ser descifrado por el lector 10 para poder ser visualizado, por el dispositivo 12, en una forma directamente inteligible.
El lector 10 comprende un microprocesador electrónico programable 24 conectado a una memoria 26. El microprocesador 24 es capaz de ejecutar las instrucciones registradas en la memoria 26. En este caso, la memoria 26 comprende las instrucciones necesarias para la puesta en práctica de los métodos de las Figuras 5 y 6.
El dispositivo 12, en este caso, cualquier pantalla montada en la cabeza o casco de realidad virtual o HDM (por "Head Mounted Display" en inglés) que permite obtener una visualización estereoscópica. A tal efecto, el dispositivo 12 comprende, en particular, dos pantallas 28 y 30 situadas, respectivamente, delante de los ojos derecho e izquierdo
del usuario. El dispositivo 12 también incluye un conjunto 32 de sensores capaces de medir una o más magnitudes físicas representativas de un comportamiento del usuario. Este ejemplo de forma de realización se describe a continuación en el caso particular en donde el comportamiento del usuario es una posición y/o un desplazamiento del usuario que lleva este dispositivo 12. En este caso, a modo de ejemplo, el comportamiento del usuario que permite hacer variar el flujo de vídeo es la dirección en donde apunta la mirada del usuario. Los sensores del conjunto 32 permiten, en particular, obtener al menos un dato característico de la dirección en donde apunta la mirada del usuario. Por ejemplo, el conjunto 32 incluye sensores para este fin que miden el desplazamiento de la cabeza del usuario y/o de las pupilas del usuario. En este caso, este conjunto 32 comprende, para este propósito, un acelerómetro de tres ejes capaz de medir la aceleración del dispositivo 12 en tres direcciones ortogonales entre sí denominadas, respectivamente, X, Y y Z. El conjunto 32 está conectado al lector 10.
En esta forma de realización, el sistema 2 comprende varios otros terminales 34, cada uno capaz de realizar la lectura del flujo de vídeo 4 de la misma manera que el terminal 8. Para este propósito, cada uno de los terminales 34 está conectado a la red 16 y asociado con su propio dispositivo de visualización 36. Para simplificar la descripción, se considera en este caso que estos terminales 34 y dispositivos 36 son idénticos, respectivamente, al terminal 8 y al dispositivo 12. Para simplificar la Figura 1, solamente se han representado dos terminales 34 y dos dispositivos 36. Sin embargo, en la práctica, el número de terminales 34 y de dispositivos 36 es mucho mayor. Por ejemplo, el número de terminales 34 es mayor que diez, cien, mil o 10.000.
Por último, el sistema comprende un servidor de agregación 38 capaz de intercambiar informaciones tanto con el terminal 8 como con los demás terminales 34. Para ello, está conectado a la red 16. El servidor 38 comprende un microprocesador electrónico 40 programable conectado a una memoria 42. El microprocesador 40 es capaz de ejecutar las instrucciones almacenadas en la memoria 42. En este caso, la memoria 42 incluye las instrucciones necesarias para poner en práctica el método de las Figuras 5 y 6.
A continuación, se describe la forma de realización del sistema 2 en el caso particular en donde:
- el flujo de vídeo 4 está codificado de conformidad con la norma H.265, también conocida como HEVC ("Codificación de Vídeo de Alta Eficiencia"),
- la capa de transporte cumple con la norma ISOBMFF (ISO Base Media File Format, en inglés), y
- el cifrado/descifrado del flujo de vídeo cumple con la norma CENC ("Common Encryption Scheme, en inglés"). Con el fin de obtener más información sobre la norma H.265, el lector puede consultar los documentos ISO/IEC 23008 2 y ITU-H.265 publicados en abril de 2015 o sus versiones posteriores. Con el fin de obtener más información sobre la norma ISOBMFF, el lector puede consultar el documento ISO/IEC 14496-12 publicado en diciembre de 2015. Con el fin de obtener más información sobre la norma CENC, el lector puede consultar la segunda edición del documento ISO/IEC 23001-7 o versiones posteriores.
Puesto que estas normas son conocidas por los expertos en esta técnica, los principios de funcionamiento y las diversas posibilidades de puesta en práctica que ofrecen estas normas no se describen aquí en detalle. En este caso, solamente se describe la forma particular de utilizar y poner en práctica estas normas para generar y reproducir el flujo de vídeo 4. La terminología utilizada en esta descripción es la misma que se define en estas normas.
La Figura 2 muestra en forma de módulos funcionales la arquitectura del lector 10. Cada uno de los diferentes módulos que se muestran en esta figura puede ponerse en práctica en forma de software utilizando el microprocesador 24 y la memoria 26 o en forma de un componente de hardware específico adicional. El lector 10 incluye:
- un módulo 48 para descifrar y descomprimir el flujo de vídeo 4,
- un agente 50 de DRM ("Gestión de Derechos Digitales") capaz de adquirir, verificar, gestionar y almacenar informaciones secretas tales como las claves y los derechos de acceso necesarios para descifrar el flujo de vídeo 4 recibido,
- un posicionador 51 que establece las coordenadas de un punto de interés en función de las medidas de los sensores del conjunto 32,
- un componedor 52 responsable de establecer el flujo de vídeo 18 en función de las coordenadas establecidas por el posicionador 51 y las imágenes del flujo de vídeo descifrado y descomprimido, y
- un analizador de comportamiento 53 capaz de detectar el comportamiento anómalo del usuario y, en respuesta, iniciar la ejecución de una contramedida que hace que sea más difícil obtener una copia completa del flujo de vídeo descifrado y descomprimido a partir del flujo de vídeo 18.
El módulo 48 comprende:
- un submódulo de descifrado 54 que descifra el flujo de vídeo 4 utilizando las claves de descifrado que le transmite el agente DRM 50 con el fin de obtener un flujo de vídeo descifrado 55, y
- un códec 56 (codificador-descodificador) que descomprime el flujo de vídeo 55 con el fin de obtener un flujo de vídeo descifrado y descomprimido 57, también conocido como no cifrado y en banda base.
El componedor 52 normalmente se pone en práctica en una unidad electrónica de procesamiento gráfico dedicado, más conocido bajo el acrónimo GPU ("Unidad de Procesador Gráfico").
El analizador 53 está en este caso conectado tanto al conjunto 32 de sensores como a la red 16, para adquirir medidas representativas o datos característicos, tanto del comportamiento del usuario del terminal 10 como de los comportamientos de los usuarios de los otros terminales 34. El analizador 53 también está conectado al agente DRM 50 y al posicionador 51 para iniciar, si fuera preciso, la ejecución por parte de estos componentes de una contramedida. El funcionamiento habitual de los diversos componentes del lector 10 es conocido y descrito en las normas citadas con anterioridad. De este modo, por consiguiente, solamente se describe en detalle el funcionamiento de estos componentes propios de la lectura del flujo de vídeo 4. En este caso, esta operación se describe con referencia a las Figuras 5 y 6.
La Figura 3 representa una imagen Ii completa del flujo de vídeo 57. El punto 58 representado en esta imagen Ii corresponde al punto hacia el que dirige la mirada el usuario. Este punto 58 se denomina en lo sucesivo “punto de interés”.
El funcionamiento del generador 6 se describe ahora con referencia al método de la Figura 4.
Durante una etapa 62, el generador 6 recibe un flujo de vídeo inicial para ser comprimido y cifrado. Por ejemplo, para ello, el generador 6 está conectado a una cámara o a un soporte de registro de informaciones en donde se registra el flujo de vídeo inicial, o conectado a una red en donde se le transmite. En este instante, solamente el flujo de vídeo recibido contiene toda la información necesaria para mostrarse en una pantalla en una forma directamente inteligible por un ser humano. En particular, con el fin de obtener esta visualización, no es preciso combinar las imágenes sin cifrar con una información secreta, tal como una clave de descifrado.
Durante una etapa 64, el generador 6 corta el flujo de vídeo en grupos cerrados de imágenes. A continuación, para cada grupo cerrado de imágenes, realiza las siguientes operaciones:
- una operación 66 de compresión del grupo cerrado de imágenes, y luego
- una operación de cifrado 68 con una clave de cifrado Kc del grupo de imágenes comprimido con el fin de obtener un grupo de imágenes comprimido y cifrado.
Por último, durante una etapa 70, los grupos de imágenes comprimidos y cifrados se ensamblan entre sí para formar el flujo de vídeo 4.
Como resultado de esta etapa 70, el flujo de vídeo 4 se transmite tal como se genera al terminal 8 y a los demás terminales 34 a través de la red 16, o se registra en un archivo en la memoria 22. El primer modo de transmisión corresponde a una transmisión conocida con el término de difusión (“broadcasting”, en inglés) en donde la transmisión del flujo de vídeo 4 comienza antes de que todos los grupos de imágenes de este flujo de vídeo hayan sido comprimidos y cifrados. Por ejemplo, un tal primer modo de transmisión es más concretamente una transmisión continua o de tránsito ("streaming" en inglés), en el caso de un modo de transmisión punto a punto en Internet. Por el contrario, el segundo modo de transmisión corresponde a una transmisión conocida con el término de “descarga” (“downloading” en inglés) en donde la transmisión del archivo al terminal 8 y al resto de terminales 34 solamente puede comenzar después de que todas las imágenes del flujo de vídeo inicial se hayan adquirido, comprimido y cifrado. El funcionamiento del terminal 8 se describirá a continuación con referencia al método de la Figura 5.
De manera inicial, durante una etapa 90, el agente DRM 50 adquiere una clave de descifrado Kd necesaria para descifrar los grupos de imágenes comprimidos y cifrados del flujo de vídeo 4.
Durante una etapa 92, el lector 10 recibe el flujo de vídeo 4 transmitido de manera continua o descargado a través de la red 16.
Durante una etapa 94, los sensores del conjunto 32 miden una o más magnitudes físicas representativas del comportamiento del usuario del terminal 12 y el lector 10 recoge estas medidas. En este caso, estas medidas son recogidas en particular por el posicionador 51 y el analizador 53.
En respuesta, durante una etapa 96, el posicionador 51 establece las coordenadas, en el plano de las imágenes, del punto de interés 58. Para ello, estas coordenadas se establecen a partir de las medidas recogidas y, por ejemplo, a partir de las medidas del acelerómetro de tres ejes. Las coordenadas del punto 58 son datos característicos del comportamiento del usuario.
A lo largo del tiempo de reproducción del flujo de vídeo 4, las etapas 94 y 96 se repiten en bucle. Por ejemplo, estas etapas se repiten con una frecuencia superior a la frecuencia de actualización de las imágenes en las pantallas 28 y 30. De esta manera, el posicionador 51 proporciona permanentemente las coordenadas actualizadas del punto 58.
De manera paralela, durante una etapa 100, antes de proceder a la lectura de cada grupo de imágenes, el agente DRM 50 determina si está autorizado para descifrar este grupo de imágenes. El agente DRM 50 determina si está autorizado para descifrar, sin restricción, el grupo de imágenes, por ejemplo, a partir de los derechos de acceso que se le han proporcionado previamente.
Si el agente 50 de DRM está autorizado para descifrar el grupo de imágenes, y luego pasa a una etapa 102 durante la cual el agente 50 de DRM proporciona la clave de descifrado Kd al submódulo 54 de descifrado.
En respuesta, durante una etapa 104, el submódulo 54 descifra, utilizando la clave Kd suministrada, el grupo de imágenes comprimido y cifrado con el fin de obtener un grupo de imágenes comprimido y descifrado.
A continuación, durante una etapa 106, el códec 56 descomprime el grupo de imágenes comprimido obtenido al final de la etapa 104. El códec 56 obtiene entonces un grupo de imágenes descomprimido y descifrado.
Las etapas 100 a 106 se repiten para cada grupo de imágenes del flujo de vídeo 4. El conjunto de los grupos de imágenes descomprimidos y descifrados forman el flujo de vídeo 57 transmitido al componedor 52.
A continuación, durante una etapa 110, el componedor 52 compone el flujo de vídeo 18 a partir del flujo de vídeo 57 y de las coordenadas del punto de interés 58 transmitidas por el posicionador 51. Más concretamente, en esta forma de realización, a partir de cada imagen completa Ii del flujo de vídeo 57, compone dos fracciones de imagen, respectivamente, para los ojos derecho e izquierdo del usuario. Para ello, utiliza las coordenadas del punto 58 que le transmite el posicionador 51 y la posición conocida, así como las dimensiones conocidas de las pantallas 28 y 30. Normalmente, estas dos fracciones de imagen son cada una cuatro o diez veces menor que la imagen completa Ii contenida en el flujo de vídeo 57. Además, estas fracciones de imagen están centradas en el punto 58. Por lo tanto, el flujo de vídeo 18 contiene solamente una fracción de cada imagen completa del flujo de vídeo 57.
Por último, durante una etapa 112, el componedor 52 transmite, a través del flujo de vídeo 18, las fracciones de la imagen compuesta, y el dispositivo 12 las muestra en las pantallas 28 y 30.
Las etapas 110 y 112 se repiten para cada imagen completa del grupo de imágenes que se procesan del flujo de vídeo 57.
Para reestablecer la imagen completa Ii, tal como se describe en la introducción de esta solicitud, un ataque conocido consiste en ensamblar las fracciones de la imagen Ii contenidas en diferentes copias del flujo de vídeo 18. Estas diferentes copias del flujo de vídeo 18 se obtienen con diferentes coordenadas del punto 58.
En el caso de que, durante la etapa 100, el agente DRM 50 establezca que no está autorizado para descifrar el conjunto de imágenes, inhibe la etapa 102. En consecuencia, y según la puesta en práctica del sistema, las etapas 104 y 106, y luego, para cada imagen completa del grupo de imágenes que se está procesando, las etapas 110 y 112, también se inhiben o se ponen en práctica con una entrada incorrecta de un grupo de imágenes cifradas. Conducen así a la interrupción de la visualización de las imágenes del grupo de imágenes completas que se están procesando, o a su visualización de forma ininteligible, es decir, a la prohibición del acceso a estas imágenes.
El funcionamiento del analizador 53 para detectar el comportamiento anómalo del usuario se describirá a continuación con referencia al método de la Figura 6.
El analizador 53 ejecuta de manera permanente una fase 128 de diagnóstico de los comportamientos del usuario para detectar comportamientos anómalos.
Para ello, durante una etapa 130, en paralelo a la etapa 110 para cada imagen completa del grupo de imágenes en proceso del flujo 57, el analizador 53 recoge las medidas de los sensores del conjunto 32 así como las coordenadas del punto 58 establecidas por el posicionador 51. A partir de entonces, las medidas y las coordenadas recogidas del punto 58 se denominan de manera colectiva "datos recogidos".
Durante esta etapa 130, el lector 10 también transmite los datos recogidos al servidor 38 a través de la red 16. Más concretamente, cada uno de los datos recogidos está asociado con un identificador de una imagen correspondiente del flujo de vídeo. La imagen correspondiente es la imagen compuesta a partir de estos datos recogidos durante la
etapa 110. Por ejemplo, los datos recogidos tienen un sello de tiempo, es decir, asociados a una fecha que permite ubicar en el vídeo reproducido, la imagen procesada por el componedor en el momento de la obtención de estos datos recogidos.
De manera paralela, durante una etapa 132, el analizador 53 establece, a partir de los datos recogidos, uno o varios datos característicos del comportamiento del usuario, además, de los ya establecidos por el posicionador 51.
A continuación, durante una etapa 134, el analizador 53 utiliza diferentes técnicas para detectar un comportamiento anómalo a partir de los datos característicos establecidos. Durante esta etapa 134, cada vez que se detecta un comportamiento anómalo, se señala. Por ejemplo, en esta forma de realización, todas las técnicas de detección descritas a continuación son puestas en práctica de manera concomitante por el analizador 53 para tender a limitar el número de falsos positivos. Un falso positivo corresponde al caso en que se detecta un comportamiento anómalo, mientras que el comportamiento del usuario es normal. Se desencadena entonces la ejecución de una contramedida, y así se penaliza de manera inoportuna al usuario en su experiencia del servicio, que debe evitarse en la medida de lo posible. Las diferentes técnicas de detección aquí descritas se clasifican en tres familias diferentes:
- una primera familia que agrupa las denominadas técnicas de “detección inicial” que utilizan directa y únicamente los datos recogidos por el terminal 8 de los sensores del conjunto 32 del dispositivo 12,
- una segunda familia de las denominadas técnicas de "clasificación" que utilizan un clasificador para discriminar un comportamiento anómalo del comportamiento normal, y
- una tercera familia de las denominadas técnicas de “consolidación” que utilizan datos recogidos por los otros terminales 34.
A continuación, se describen ejemplos de las técnicas en estas tres familias.
Técnicas de detección inicial:
Una primera técnica de detección inicial consiste en establecer, a partir de los datos recogidos, un dato característico ID1 que caracteriza una propiedad física de la velocidad o de la aceleración medidas de un desplazamiento del usuario. Este dato ID1 se establece a partir de datos recogidos durante un intervalo de tiempo predeterminado T1. Concretamente, el intervalo T1 está comprendido entre 3 segundos y 30 segundos. Por ejemplo, el dato ID1 es la aceleración media del desplazamiento del dispositivo 12 durante el intervalo T1, establecido a partir de las medidas del acelerómetro de tres ejes. A continuación, el analizador 53 compara el dato ID1 con un umbral predeterminado S1. Este umbral S1 es bajo, es decir inferior a 0,1 m/s2 o 0,05 m/s2. A continuación, según esta primera técnica de detección inicial, el analizador 53 detecta un comportamiento anómalo si el dato característico ID1 permanece por debajo de este umbral S1 durante un tiempo predeterminado superior a 15 segundos o 1 minuto o 5 minutos. De hecho, es muy difícil para un ser humano permanecer perfectamente quieto o moverse a una velocidad perfectamente constante durante dicho período de tiempo. De esta manera, un desplazamiento a una velocidad perfectamente constante, o la inmovilidad perfecta, durante esta duración predeterminada, es un comportamiento anómalo.
Los distintos umbrales predeterminados aquí descritos están calibrados de antemano para poder discriminar entre un comportamiento normal y un comportamiento anómalo. Para ello, se suelen utilizar conjuntos de valores de los datos característicos establecidos cuando el terminal es utilizado por un ser humano y cuando es controlado por un autómata. La comparación de estos diferentes conjuntos de valores permite fácilmente a un experto en esta técnica calibrar de manera correcta los umbrales predeterminados.
Según una segunda técnica de detección inicial, el dato ID1 se establece tal como se ha descrito con anterioridad. A continuación, este dato ID1 se compara con un umbral predeterminado S2. Este umbral S2 es alto. Por ejemplo, el umbral S2 es superior a 20 m/s2 o 50 m/s2. A continuación, el analizador 53 detecta un comportamiento anómalo si el dato ID1 permanece por encima de este umbral S2 durante un tiempo predeterminado superior a 1 segundo o 2 segundos o 5 segundos. De hecho, debido a las limitaciones fisiológicas de un cuerpo humano, el desplazamiento de la cabeza de un ser humano no puede superar este umbral. Por el contrario, un autómata puede hacerlo sin dificultad. Por lo tanto, el cruce de este umbral S2 por el dato ID1 es un comportamiento anómalo.
Según una tercera técnica de detección inicial, el analizador 53 establece un dato característico ID2. Este dato característico ID2 es la desviación tipo o la varianza de las aceleraciones medidas por el acelerómetro de tres ejes durante una duración predeterminada. El analizador 53 a continuación compara el dato ID2 con un umbral predeterminado S3. El umbral S3 se elige pequeño para discriminar los desplazamientos normales de los desplazamientos anómalos. De hecho, los desplazamientos de un ser humano nunca son perfectamente regulares y constantes. Por lo tanto, casi nunca corresponden a una aceleración perfectamente constante. Por ejemplo, el valor del umbral S3 es inferior a 0,1 m/s-2 o inferior a 0,05 m/s-2. Si el valor del dato ID2 es inferior al umbral S3, el analizador 53 señala un comportamiento anómalo.
Según una cuarta técnica de detección inicial, el analizador 53 establece a partir de las medidas recogidas de la aceleración durante un período de tiempo bastante largo un dato característico ID3. El dato ID3 caracteriza la periodicidad de los desplazamientos del usuario durante este período de tiempo. Este período de tiempo es superior a 5 minutos o a 10 minutos o a 1 hora. A continuación, el valor del dato ID3 se compara con un umbral predeterminado S4. Si se supera el umbral S4, el analizador 53 señala un comportamiento anómalo. De hecho, un desplazamiento repetido periódicamente no es por lo general un desplazamiento normal. Por ejemplo, el analizador 53 establece la densidad espectral de las medidas del acelerómetro de tres ejes medidas durante este período de tiempo. A continuación, el analizador 53 compara la altura del pico más alto de esta densidad espectral con el umbral S4. Si se supera el umbral S4, el analizador 53 señala un comportamiento anómalo.
Técnicas de clasificación:
Según una primera técnica de clasificación, el analizador 53 pone en práctica y ejecuta un clasificador de aprendizaje supervisado capaz de comparar, de manera automática, un conjunto de datos característicos establecidos con umbrales predeterminados para clasificar el comportamiento actual del usuario, ya sea en la clase de comportamientos normales o en la clase de comportamientos anómalos. Los umbrales predeterminados utilizados por este clasificador se obtienen entrenándolo, durante una fase previa 138 de aprendizaje supervisado sobre conjuntos pre-registrados de datos característicos para los que se conoce la clasificación entre comportamiento anómalo y comportamiento normal. Estos conjuntos de datos característicos incluyen, por lo tanto, al menos:
- un conjunto de datos característicos establecido cuando los datos recogidos son generados por un ser humano que utiliza un terminal tal como el terminal 8, y
- un conjunto de datos característicos establecido cuando los datos recogidos son generados por un ser humano o por un autómata para contribuir a obtener una copia completa de un flujo de vídeo 57.
Los clasificadores de este tipo son bien conocidos por los expertos en esta técnica y, por lo tanto, no se describirán con más detalle en este documento. Por ejemplo, el clasificador puesto en práctica por el analizador 53 es un clasificador lineal tal como un clasificador bayesiano ingenuo o una máquina de vectores de soporte o SVM ("Support Vector Machine”, en inglés) o una red neuronal.
De manera preferente, para limitar el número de datos procesados por el clasificador, este último no procesa directamente los datos recogidos sino datos característicos establecidos por el analizador 53 a partir de las medidas recogidas. Por ejemplo, los datos característicos utilizados por el clasificador son los siguientes:
- las medias de las aceleraciones medidas en cada una de las direcciones X, Y y Z, para una duración predeterminada,
- las varianzas de las aceleraciones medidas en cada una de las direcciones X, Y y Z durante una duración predeterminada,
- la energía de la señal de la aceleración medida en cada eje X, Y y Z durante una duración predeterminada,
- la entropía de la aceleración medida en cada una de las direcciones X, Y y Z durante una duración predeterminada, y
- los coeficientes de correlación entre las medidas recogidas para cada una de las direcciones X, Y y Z.
Obviamente, en este caso, la fase de aprendizaje supervisada también se realiza utilizando los mismos datos característicos.
Técnicas de consolidación:
Las técnicas de consolidación requieren la puesta en práctica de una etapa 140, previa a la etapa 134, durante la cual los otros terminales 34 realizan la lectura del mismo flujo de vídeo 4. Por ejemplo, para este propósito, el método descrito con referencia a las Figuras 5 a 6 se ejecuta mediante cada uno de los terminales 34. En consecuencia, el servidor 38 dispone de una base de datos que asocia, a cada imagen del flujo de vídeo 57, los datos recogidos por estos otros terminales 34. A partir de esta base de datos, durante una etapa 142, el servidor 38 establece datos estadísticos con los que los datos característicos establecidos localmente por el terminal 8 pueden compararse para detectar un comportamiento anómalo.
Según una primera técnica de consolidación, a partir de los datos recogidos de los otros terminales 34, el servidor 38 establece, durante una etapa 142, unos primeros datos estadísticos. En este caso, estos primeros datos estadísticos son umbrales que los valores de los datos recogidos tienen muy pocas posibilidades de superar si el comportamiento del usuario es normal. Por “probabilidad muy baja”, se designa aquí una probabilidad inferior a una probabilidad entre cien o entre mil o entre 10.000. A continuación, el servidor 38 transmite estos umbrales al terminal 8 antes o en el
curso de la reproducción del flujo de vídeo 4 por el terminal 8. En respuesta, el analizador 53 compara los datos recogidos localmente con estos umbrales recibidos mientras se realiza la lectura de la misma fracción del flujo de vídeo. Si se supera uno de estos umbrales, el analizador 53 señala entonces un comportamiento anómalo. La transmisión de los valores así establecidos para estos umbrales al terminal 8 antes de que este último comience la lectura del flujo de vídeo 4 solamente es posible en el caso de que el flujo de vídeo 4 sea un flujo de vídeo pre registrado transmitido bajo demanda. Por el contrario, la transmisión de los valores establecidos de estos umbrales durante la reproducción del flujo de vídeo 4 por parte del terminal 8 es posible tanto para un flujo de vídeo pre-registrado y transmitido bajo demanda como para un flujo de vídeo emitido en directo (“live”, en inglés).
Por ejemplo, a partir de la aceleración recogida y tenida en cuenta, por cada uno de los terminales 34, para la composición de las fracciones de imagen del flujo de vídeo 18 a partir de la misma imagen completa del flujo de vídeo 57, el servidor 38 establece la distribución estadística de esta aceleración acumulada. A continuación, deduce de ellos los valores umbral Smin y Smax entre los que se sitúan el 99% de las aceleraciones recogidas. Estos umbrales Smin y Smax se transmiten a continuación al terminal 8. El terminal 8 a continuación compara con los umbrales Smin y Smax la aceleración recogida a nivel local durante la lectura de esta fracción del flujo de vídeo 4. Si se supera uno de los umbrales Smin y Smax mediante la aceleración recogida localmente, el analizador informa de un comportamiento anómalo. Esta primera técnica de consolidación permite ajustar de manera dinámica el valor de los umbrales predeterminados en función del comportamiento del usuario medido por los terminales 34.
Según una segunda técnica de consolidación, el servidor 38 establece, a partir de los datos recogidos de los terminales 34, unos segundos datos estadísticos necesarios para la puesta en práctica de un algoritmo de detección de anomalías. Esta familia de algoritmos se conoce bajo el término inglés de “anomaly detection” o “outlier detection”. A continuación, los segundos datos estadísticos así establecidos se transmiten al analizador 53 del terminal 8. El analizador 53 a continuación compara los datos característicos establecidos a nivel local con los segundos datos estadísticos recibidos para detectar un comportamiento anómalo. Más concretamente, durante esta etapa de comparación, una desviación entre los datos característicos locales y los segundos datos estadísticos se compara con un umbral predeterminado. A continuación, es la superación de este umbral predeterminado por esta desviación, lo que desencadena la detección de un comportamiento anómalo.
A modo de ilustración, el algoritmo de detección de anomalías es un algoritmo de la familia conocida bajo la expresión inglesa “Cluster-Based Local Outlier” como el algoritmo LOF (“Local Outlier Factor”) o FindCBLOF.
La Figura 7 representa un ejemplo de segundos datos estadísticos establecidos por el servidor 38 a partir de los datos recogidos de los terminales 34. En este ejemplo, los datos recogidos son las coordenadas del punto 58 asociadas a una imagen Ip particular del flujo de vídeo 4. La Figura 7 muestra esta imagen Ip. El segundo dato estadístico establecido se presenta en este caso en forma de una cartografía que asocia, a cada píxel de la imagen Ip, una probabilidad de que la dirección de la mirada del usuario apunte hacia dicho píxel. Por ejemplo, esta probabilidad es el número de veces que, al realizar la lectura de esta imagen Ip, el usuario apunta su mirada a este píxel. Dicho de otro modo, para cada píxel de la imagen Ip, el servidor 38 cuenta el número de veces que las coordenadas del punto 58 recogido corresponden a dicho píxel. El servidor 38 establece así una cartografía asociando a cada píxel una probabilidad de que este píxel sea visto por el usuario. Esta cartografía permite, por ejemplo, identificar las zonas de la imagen Ip más vistas por los usuarios. A modo de ilustración, en la Figura 7 se rodean dos zonas 150, 152 más vigiladas por los usuarios. Esta cartografía también permite identificar las zonas de la imagen de IP que se ven con menos frecuencia y las zonas de la imagen de Ip que los usuarios no ven o casi nunca ven. La Figura 7 representa dos zonas 154 y 156 menos vistas. En este caso, estas dos zonas 154 y 156 rodean, respectivamente, las zonas 150 y 152. La zona 158 de la imagen Ip, situada fuera de las zonas 150 a 156 constituye, en este caso, una zona no o apenas vista por los usuarios.
A continuación, esta cartografía asociada a la imagen Ip se transmite al analizador 53. Cuando la imagen Ip es procesada por el marcador 52, el analizador 53 recoge las coordenadas del punto 58 establecidas por el posicionador 51 en ese momento preciso. Estas coordenadas recogidas se comparan a continuación con la cartografía recibida. En este caso, esta comparación consiste en calcular la distancia más corta que separa las coordenadas del punto 58 de las zonas más vigiladas. Si esta distancia supera un umbral predeterminado, se detecta un comportamiento anómalo. De lo contrario, no se detecta ningún comportamiento anómalo. Por ejemplo, el algoritmo LOF se pone en práctica para realizar esta comparación.
De manera ventajosa, el analizador 53 también puede poner en práctica un filtro para limitar las detecciones inoportunas de comportamiento anómalo. Por ejemplo, el comportamiento anómalo se detecta solamente si la distancia calculada excede el umbral predeterminado para P imágenes consecutivas o diez veces en menos de M minutos. Por ejemplo, P está comprendida entre 4 y 20 y M está comprendida entre 3 y 30 minutos. En este caso, P es igual a 5 y M es igual a 5 minutos.
Después de la etapa 134, el analizador 53 pasa a la etapa 136 durante la cual ejecuta un algoritmo de decisión. La ejecución de este algoritmo permite decidir si, en respuesta a los resultados de las detecciones puestas en práctica, se debe iniciar la ejecución de una contramedida y, en caso afirmativo, cuál de ellas. De manera ventajosa, para tomar esta decisión, el analizador 53 tiene en cuenta los resultados de las detecciones realizadas dentro de una ventana
temporal deslizante AT. En particular, tiene en cuenta los comportamientos anómalos detectados y las técnicas de detección utilizadas para detectar cada comportamiento anómalo. La ventana deslizante AT precede de manera inmediata a la activación de la etapa 136 en curso. Por ejemplo, la ventana AT tiene una duración mayor a 1 minuto o 5 minutos o 15 minutos y menor a 1 hora.
A modo de ilustración, durante la etapa 136, el analizador 53 calcula una puntuación global a partir del número de comportamientos anómalos detectados durante la ventana AT. Al calcular esta puntuación, se puede aplicar un coeficiente de ponderación al número de comportamientos anómalos detectados por una técnica de detección en particular para dar más importancia a ciertas técnicas de detección en comparación con otras. Por ejemplo, estos coeficientes de ponderación se utilizan aquí para dar más importancia a las técnicas de consolidación descritas con anterioridad en comparación con las técnicas de detección inicial y las técnicas de clasificación.
A continuación, el analizador 53 compara la puntuación total calculada con al menos un umbral predeterminado. Si se supera este umbral, el analizador 53 desencadena la puesta en práctica de una etapa 120 de ejecución de contramedidas. Para ello, según la naturaleza de una contramedida a ejecutar, el analizador 53 envía una instrucción de disparo al módulo encargado de esta ejecución, o lo dispara sí mismo.
En la etapa 120, el lector 10 ejecuta una contramedida que tiene el efecto de dificultar la obtención de una copia completa del flujo de vídeo 57 a partir de diferentes copias del flujo de vídeo 18.
Se pueden ejecutar numerosas contramedidas para lograr este resultado.
Por ejemplo, una primera contramedida consiste en controlar el dispositivo de visualización 12 para que reproduzca un CAPTCHA™, es decir, por ejemplo, que muestre el CAPTCHA™ sobre las fracciones de imágenes del flujo de vídeo 18 y, de manera simultánea, interrumpiendo la generación del flujo de vídeo 57. En otro ejemplo, la contramedida consiste, en primer lugar, en controlar solamente el dispositivo 12 para que reproduzca un CAPTCHA™ sobre las fracciones de imágenes del flujo de vídeo 18, y luego, solamente si una respuesta correcta del usuario del CAPTCHA™ no se adquiere antes de la terminación de un período de tiempo predeterminado desde el inicio de la reproducción del CAPTCHA™, al interrumpir la generación del flujo de vídeo 57. Por ejemplo, para interrumpir la generación del flujo de vídeo 57, el agente 50 interrumpe la transmisión de la clave de descifrado Kd al submódulo 54 de descifrado. Si la respuesta adquirida del usuario al CAPTCHA™ reproducido es correcta, entonces se controla el dispositivo de visualización 12 para interrumpir la reproducción del CAPTCHA™, y el agente 50 autoriza la reanudación de la generación del flujo de vídeo 57 por el módulo 48 al reanudar la transmisión de la clave Kd al submódulo 54. En ausencia de respuesta a este CAPTCHA™ o en caso de respuesta incorrecta, el agente 50 mantiene la interrupción de la generación del flujo de vídeo 57. CAPTCHA™ es una marca comercial de la Universidad Carnegie-Mellon. Se trata de un retroacrónimo que se pronuncia como "capture" en inglés, y se supone que está compuesto por las iniciales de la prueba de Completely Automated Public Turing para indicar Computers and Humans Apart, traducido como Prueba Publica de Turing Completamente Automática que tiene por objeto diferenciar los operadores humanos con respecto a los Ordenadores. Designa una prueba de reto-respuesta utilizada en informática, para permitir que un ordenador asegure que una respuesta a un reto no sea generada por un ordenador. Un CAPTCHA™ es concretamente una pregunta o un enigma reproducido por el dispositivo 12 y al que un ser humano puede responder con facilidad mientras que, por el contrario, es muy difícil que un autómata lo responda correctamente. Por lo tanto, esta contramedida dificulta la puesta en práctica de un ataque porque dificulta, si no es que imposibilita, automatizar completamente dicho ataque.
Existe una variedad muy amplia de posibles CAPTCHA™. Por ejemplo, el CAPTCHA™ puede ser una imagen que contenga una combinación de caracteres parcialmente enmascarados y/o deformados de tal manera que sea muy difícil que un autómata reconozca estos caracteres de manera automática. La respuesta correcta a este CAPTCHA™ es entonces la palabra formada por la combinación de caracteres que se muestra. En otro ejemplo, el CAPTCHA™ es un mensaje de audio o de vídeo al que el usuario debe responder correctamente para autorizar la reanudación de la generación del flujo de vídeo 57. Por ejemplo, de manera ventajosa, el CAPTCHA™ es un mensaje de audio o de vídeo que solicita al usuario la adopción de un comportamiento particular, tal como girar la cabeza hacia la izquierda. A continuación, el terminal 8 adquiere la respuesta a dicho CAPTCHA™ a partir de las medidas recogidas del conjunto 32 de sensores.
Una segunda contramedida consiste en simplemente interrumpir, tal como se describió con anterioridad, temporal o permanentemente, la generación del flujo de vídeo 57.
La tercera contramedida consiste en degradar la calidad del flujo de vídeo 57 o 18. Por ejemplo, el analizador 53 controla el módulo 50, el módulo 48 y/o el componedor 52 para reducir la resolución espacial o degradar los colores de las imágenes codificadas o para reducir la frecuencia de muestreo de los sonidos codificados. Las degradaciones aplicadas al flujo de vídeo 57 o 18 son tales que, a partir del flujo de vídeo degradado 57 o 18, y sin información adicional, no es posible reestablecer el flujo de vídeo no degradado 57 o 18.
La cuarta contramedida es la transmisión, por parte del terminal 8, de un comando al generador 6. En respuesta a este comando, el generador 6 interrumpe, por ejemplo, la transmisión del flujo de vídeo 4 hacia el terminal 8 o transmite
al terminal 8 solamente un flujo de vídeo degradado 4, por ejemplo, tal como se describe en el párrafo anterior. En otro ejemplo, el generador 6 interrumpe la transmisión, al terminal 8, de los derechos de acceso al flujo de vídeo 4, o solamente le transmite los derechos de acceso a un flujo de vídeo degradado 4.
Una quinta contramedida consiste en degradar las coordenadas del punto 58 establecidas por el posicionador 51. Por ejemplo, el analizador 53 controla el posicionador 51 o marcador 52 para que mantenga estas coordenadas constantes durante un intervalo de tiempo predeterminado y esto independientemente de los desplazamientos realizados durante el mismo intervalo de tiempo por el usuario. Este intervalo de tiempo predeterminado puede, o no, estar limitado a la duración de la lectura en curso del flujo de vídeo 4. En este caso, el flujo de vídeo 18 ya no está correlacionado, durante este intervalo de tiempo, con el comportamiento del usuario, lo que hace muy difícil, si no imposible, desplazar el punto 58 a la ubicación deseada dentro de la imagen. La degradación de las coordenadas del punto 58 también puede consistir en modificar de manera aleatoria estas coordenadas. También es posible aplicar una degradación predeterminada de las coordenadas del punto 58. Por ejemplo, se modifican las coordenadas del punto 58 para que el punto 58 siga una trayectoria predeterminada independiente del comportamiento del usuario. En otro ejemplo, las coordenadas del punto 58 se modifican sistemáticamente para prohibir el posicionamiento del punto 58 dentro de ciertas zonas predeterminadas de las imágenes completas del flujo de vídeo 57. Lo que antecede evita que el componedor 52 componga un flujo de vídeo 18 que contenga información en estas zonas predeterminadas de imágenes.
Al final de la etapa 120, dependiendo de la contramedida cuya ejecución se desencadena, el método continúa con la ejecución de las etapas 102 a 112 pero modificadas para poner en práctica la contramedida iniciada, o el proceso se detiene. Por ejemplo, el método se detiene si la contramedida cuya ejecución se ha activado prohíbe totalmente la generación del flujo de vídeo 57 o 18. Por el contrario, el método continúa si, por ejemplo, la contramedida realizada es simplemente degradar el flujo de vídeo 57 o 18 o las coordenadas del punto 58.
Concretamente, el analizador 53 es capaz de iniciar la ejecución de varias de estas contramedidas, ya sea de manera simultánea o de manera alternativa.
En el caso de que se puedan ejecutar diferentes contramedidas durante la etapa 120, cada una de estas contramedidas está asociada, por ejemplo, con un umbral predeterminado respectivo. Estos diferentes umbrales se clasifican en orden ascendente. En este caso, la instrucción transmitida por el analizador 53 al módulo encargado de activar la contramedida puede incluir el identificador del umbral más alto superado. En respuesta, durante la etapa 120, solamente se ejecutan la o las contramedidas asociadas con este umbral predeterminado. Lo que antecede hace posible ejecutar solamente las contramedidas correspondientes a la puntuación global calculada y, por lo tanto, ejecutar una respuesta proporcionada al comportamiento anómalo detectado.
Variantes del sistema 2:
El dispositivo 12 puede sustituirse por una pantalla y por un proyector que proyecte las imágenes del flujo de vídeo objeto de lectura en esta pantalla. De manera preferible, la superficie de la pantalla será entonces una semiesfera o una esfera o un anillo que rodea al usuario.
Lo que se ha descrito con anterioridad se aplica a campos distintos de la visualización estereoscópica. En estos casos, el componedor establece, por ejemplo, una sola fracción de imagen y no dos, tal como se describió con anterioridad. Por ejemplo, lo que antecede se aplica al caso en que la pantalla rodea al usuario como en el caso de una pantalla esférica o hemisférica. Esto también se aplica al caso de una pantalla plana, cuyas dimensiones son tales que el usuario no pueda tener una visión global de toda su superficie.
El conjunto 32 o el dispositivo de visualización 12 pueden estar integrados en el interior del terminal 8. Este será el caso, por ejemplo, de si el terminal 8 es una tableta electrónica o un teléfono inteligente. El conjunto 32 también puede ser mecánicamente independiente del dispositivo 12 y del terminal 8.
El conjunto 32 puede comprender, además, o en lugar de otros sensores electrónicos distintos a los que se describió con anterioridad. Por ejemplo, el conjunto 32 puede incluir uno o más de los siguientes sensores electrónicos:
- Uno o más sensores que miden el desplazamiento de la cabeza del usuario, tal como un giroscopio o un magnetómetro fijado en el casco de realidad virtual. La posición de la cabeza también se puede medir a partir de imágenes filmadas por una cámara inmóvil que es mecánicamente independiente del casco de realidad virtual. En este último caso, el casco puede incluir patrones particulares o diodos LEDs que ayuden a determinar la posición de la cabeza a partir de las imágenes filmadas por esta cámara.
- Uno o más sensores que miden los desplazamientos de los ojos o de las pupilas del usuario. También en este caso, este sensor puede incluir una cámara que filma los ojos del usuario y a partir de las imágenes filmadas deduce el desplazamiento de los ojos o de las pupilas.
- Uno o más sensores que miden los desplazamientos de otra parte del cuerpo del usuario, tales como sus manos, labios, pecho, pies u otros. Dicho sensor puede comprender a este fin una cámara que filma el desplazamiento del usuario y una unidad de análisis de las imágenes filmadas que determine el desplazamiento realizado por la parte del cuerpo filmada por esta cámara. El sensor también puede ser un joystick, un guante instrumentado, una cinta de correr instrumentada, un botón o similar.
- Un sensor que mide la actividad neuronal del usuario, tal como un electroencefalógrafo. En este caso, el comportamiento del usuario que varía el flujo de vídeo 18 no es necesariamente una posición o un desplazamiento del usuario. De hecho, este tipo de sensor también es sensible al estado emocional o psicológico del usuario. También es posible deducir una posición o un desplazamiento del usuario a partir de las medidas de dicho sensor.
- Un sensor de sonidos o palabras pronunciadas por el usuario durante la lectura del flujo de vídeo. También en este caso, el comportamiento del usuario que hace variar el flujo 18 no es una posición o un desplazamiento. Concretamente, el sensor de voz o sonido incluye, o está asociado con, un dispositivo de reconocimiento de voz que transforma los sonidos o el habla recogidos en comandos que pueden ser ejecutados por el componedor 52 para generar el flujo 18.
El agente DRM 50 puede ponerse en práctica en forma de hardware tal como un coprocesador de seguridad o un procesador de tarjeta de circuito integrado.
El sistema 2 se puede realizar de manera que cumpla con normas distintas a las mencionadas con anterioridad. Para aplicaciones particulares, tampoco es obligatorio que el sistema 2 sea compatible con las normas existentes. Por ejemplo, en una variante, el flujo de vídeo se comprime imagen por imagen de modo que cada grupo de imágenes contenga solamente una imagen. En otra variante, el flujo de vídeo se comprime en un único bloque, lo que equivale a tener un único grupo de imágenes que comprende la totalidad de las imágenes del vídeo. Por último, en otra alternativa, el grupo de imágenes no es un grupo cerrado de imágenes más pequeño.
Variantes del proceso de lectura:
De manera alternativa, el flujo de vídeo 4 solamente se comprime y no se cifra. En este caso, siempre es posible ejecutar las contramedidas descritas con anterioridad para degradar el flujo de vídeo 57 o para interrumpir su descompresión. Dicha forma de realización es siempre de interés porque hace que sea más difícil, si no imposible, reestablecer una copia completa del flujo de vídeo 57 a partir de diferentes copias del flujo de vídeo 18 compuesto por el componedor 51.
En otra forma de realización, las contramedidas no están asociadas con los umbrales y, por ejemplo, la determinación de la(s) contramedida(s) activada(s) es aleatoria.
Existen otras contramedidas cuya ejecución puede activarse tal como se ha descrito con anterioridad. Por ejemplo, tal como se describe en la solicitud WO2008/134014A2, es posible modificar de manera periódica un parámetro de diversificación de flujo de vídeo 18 o 57 como contramedida.
Los métodos aquí descritos se pueden poner en práctica en todas las imágenes del vídeo o solamente en una parte de estas imágenes. Por ejemplo, los métodos descritos en este documento se ponen en práctica durante ciertos intervalos de tiempo y se desactivan durante otros intervalos de tiempo.
Variantes del proceso de detección de comportamientos anómalos:
El analizador 53 puede ponerse en práctica en otro lugar que no sea el terminal 8. Por ejemplo, también puede ponerse en práctica dentro del servidor 38 o en otro servidor remoto. Para ello, los datos recogidos por el terminal 8 son transmitidos al servidor 38. A continuación, el servidor 38 ejecuta las etapas 132 a 134 para detectar un comportamiento anómalo del usuario del terminal 8, la etapa de decisión 136 y, en su caso, la etapa 120 de ejecución de contramedidas. Si es preciso, la ejecución de la contramedida se desencadena mediante el envío de una instrucción al generador 6 y/o al terminal 8. Esta instrucción se envía al generador 6 cuando es este último el que ejecuta la contramedida. Por ejemplo, en respuesta a esta instrucción, el generador 6 transmite un mensaje EMM ("Entitlement Management Message", en inglés) al terminal 8 que elimina o restringe los derechos de acceso de este terminal al flujo de vídeo 4. Por ejemplo, el generador 6 cesa la transmisión al terminal 8 de los derechos de acceso al flujo de vídeo 4 o el propio flujo de vídeo 4, lo que imposibilita que este terminal 8 obtenga el flujo de vídeo 57 sin cifrar.
En otra variante, las diferentes funcionalidades del analizador 53 también pueden ponerse en práctica en parte en el servidor 38 y en parte en el terminal 8. Por ejemplo, en el terminal 8 solamente se ponen en práctica las técnicas de detección inicial. Las técnicas de clasificación y de consolidación solamente se ponen en práctica en el servidor 38.
El servidor 38 también se puede poner en práctica en el terminal 8.
En otra variante, el analizador 53 pone en práctica solamente una o solamente algunas de las técnicas de detección descritas con anterioridad. En particular, en una forma de realización simplificada, se omiten las técnicas de consolidación o de clasificación. En el caso de que no se ponga en práctica ninguna técnica de consolidación, se puede omitir el servidor 38 y, durante la etapa 130, los datos recogidos por los terminales 34 no se transmiten. Por el contrario, en una forma de realización diferente, solamente se ponen en práctica una o más técnicas de consolidación. El experto en esta técnica podrá, inspirándose en los muchos ejemplos de técnicas de detección descritos con anterioridad, desarrollar otras técnicas de detección. Por ejemplo, los mismos datos característicos que los descritos en el caso de la aceleración del desplazamiento también se pueden establecer para caracterizar las propiedades físicas de la velocidad de desplazamiento del usuario. Para ello, el analizador 53 utiliza medidas adquiridas de la velocidad del desplazamiento en lugar de las medidas adquiridas de la aceleración de este desplazamiento. A continuación, el analizador 53 pone en práctica técnicas de detección inicial similares a las descritas con anterioridad en el caso de aceleración para detectar comportamientos anómalos a partir de los datos característicos de la velocidad. Tal como ya se ha ilustrado en los ejemplos de formas de realización descritos con anterioridad, la comparación del dato característico consiste en probar una de las siguientes desigualdades f(x) < Sx o f(x) > Sx o f(x) < Sx o f(x) > Sx, en donde:
- f es una función que devuelve un valor que depende del dato característico x, y
- Sx es un umbral predeterminado.
En el caso más simple, la función f es la función identidad. Sin embargo, tal como se muestra en los ejemplos anteriores, la función f puede ser una función más compleja, tal como un clasificador o una función multivariante. En otra variante, son los datos característicos los que se transmiten al servidor 38 y no los datos recogidos. El funcionamiento del servidor 38 y el desarrollo de los métodos descritos con anterioridad deben adaptarse entonces para tener en cuenta el hecho de que se reciben datos característicos y no datos recogidos.
En una variante simplificada, el establecimiento de un dato característico a partir de las medidas recogidas consiste simplemente en asignar la medida recogida como valor de este dato característico. Lo que antecede es posible si el dato característico es idéntico a la medida recogida. Por ejemplo, si la medida recogida ya está procesada al menos en parte por el propio sensor, y luego el valor del dato característico es igual, sin ningún tratamiento adicional para su establecimiento a esta medida.
En otra forma de realización, el analizador 53 solamente procede a la etapa 136 después de un número predeterminado de puestas en práctica de la etapa 134, o después de que haya transcurrido un período de tiempo predeterminado desde la puesta en práctica anterior de la etapa 136 o desde el inicio de la lectura del flujo de vídeo 4.
Claims (10)
1. Método de lectura de un flujo de vídeo, en donde un primer terminal:
- recoge (94, 130) al menos una medida representativa de un comportamiento de un usuario del primer terminal durante la lectura de este flujo de vídeo y establece (96, 132), a partir de dicha al menos una medida recogida, al menos un dato característico de este comportamiento de este usuario,
- descomprime (106) el flujo de vídeo con el fin de obtener un primer flujo de vídeo de banda base que sea independiente de dicha al menos una medida recogida, y luego
- compone (110), a partir de dicho al menos un dato característico establecido y del primer flujo de vídeo en banda base, un segundo flujo de vídeo en banda base que varía en función de dicho al menos un dato característico establecido, conteniendo el segundo flujo de vídeo solamente una fracción de cada imagen completa del primer flujo de vídeo,
- una etapa (134) de comparación de dicho al menos un dato característico con un conjunto de umbrales predeterminados, cada uno de los cuales, al ser superados, caracteriza un comportamiento anómalo del usuario, y luego
- una etapa (134) de señalización de un comportamiento anómalo si se traspasa al menos una parte predeterminada de estos umbrales y, en caso contrario, la ausencia de esta señalización de un comportamiento anómalo, y luego
- una etapa (120) de ejecución de una contramedida que hace más difícil o imposible el acceso al conjunto de las informaciones contenidas en el primer flujo de vídeo en banda base a partir de diferentes copias del segundo flujo de vídeo en banda base compuesto por el primer terminal, siendo esta etapa de ejecución activada de manera automática en respuesta a la señalización de un comportamiento anómalo y no activarse en ausencia de esta señalización de un comportamiento anómalo,
caracterizado porque el método comprende, además:
- la lectura (140) del mismo flujo de vídeo es ejecutada previamente por varios segundos terminales distintos del primer terminal y, durante cada una de estas lecturas, cuando un dato característico establecido por el segundo terminal y una primera imagen del primer flujo de vídeo en banda base se utilizan para componer el segundo flujo de vídeo de banda base, asociándose este dato característico con un identificador de esta primera imagen, y a continuación este dato característico y el identificador de la primera imagen, que le está asociado, se transmiten a un servidor de 'agregación de datos', y luego
- el servidor de agregación establece (142), a partir de los datos característicos transmitidos asociados al identificador de la misma primera imagen, datos estadísticos representativos de los comportamientos de los usuarios de los segundos terminales en los momentos en que esta primera imagen es procesada por los componedores de estos segundos terminales, y luego
- la etapa de comparación (134) comprende la comparación con un primer umbral predeterminado de una desviación entre:
• los datos característicos establecidos por el primer terminal y utilizados por este primer terminal, en combinación con la primera imagen, para componer el segundo flujo de vídeo de banda base, y
• los datos estadísticos establecidos por el servidor de agregación para esta misma primera imagen.
2. Método según la reivindicación 1, en donde:
- los datos estadísticos establecidos (142) para la primera imagen incluyen una cartografía que asocia a cada píxel de esta primera imagen un número representativo de la probabilidad de que un usuario dirija su mirada en la dirección de este píxel,
- uno de dicho al menos un dato característico establecido por el primer terminal es la posición de un punto de interés en la primera imagen hacia el cual el usuario del primer terminal dirige su mirada cuando la primera imagen es procesada por el componedor, y
- la desviación con respecto al primer umbral predeterminado es una distancia calculada a partir de la posición del punto de interés en la primera imagen y desde donde las posiciones de los píxeles asociados por la cartografía a las probabilidades más elevadas de que un usuario dirija su mirada en la dirección de estos píxeles.
3. Método según cualquiera de las reivindicaciones anteriores, en donde dicha al menos una medida representativa de un comportamiento del usuario comprende una medida representativa de una posición o de un desplazamiento del usuario.
4. Método según la reivindicación 3, en donde:
- uno de dicho al menos un dato característico establecido por el primer terminal es un dato característico de la velocidad o de la aceleración de un desplazamiento del usuario del primer terminal, y
- la etapa (134) de comparación comprende la comparación de este dato característico de la velocidad o de la aceleración con un segundo umbral predeterminado de dicho conjunto de umbrales, estando calibrado este segundo umbral para discriminar un desplazamiento de un ser humano y un desplazamiento de un autómata.
5. Método según cualquiera de las reivindicaciones anteriores, en donde:
- el método comprende una fase de aprendizaje supervisado (138), durante la cual un clasificador establece, para al menos uno de los denominados datos característicos aprendidos, el valor de un tercer umbral a partir de un primer y de un segundo conjunto pre-registrado de datos característicos, habiendo sido establecidos los datos característicos del primer conjunto cuando las medidas recogidas son generadas por un ser humano y habiendo sido establecidos los datos característicos del segundo conjunto cuando las medidas recogidas son generadas utilizando un autómata, y luego
- uno de dicho al menos un dato característico establecido por el primer terminal es el dato característico aprendido, y
- la etapa (134) de comparación comprende la ejecución del clasificador, comprendiendo esta ejecución la comparación del valor del dato característico aprendido con el tercer umbral predeterminado.
6. Método según las reivindicaciones 4 y 5 tomadas en conjunto, en donde el método comprende el cálculo (136) de una puntuación global en función del número de veces que se han superado el primero, segundo y tercero umbrales dentro de una ventana temporal predeterminada y la ejecución de la contramedida solamente se activa si esta puntuación global supera un cuarto umbral predeterminado.
7. Método según cualquiera de las reivindicaciones anteriores, en donde, antes de la descompresión del flujo de vídeo, el primer terminal descifra el flujo de vídeo mediante una clave secreta.
8. Conjunto de un primer terminal y de varios segundos terminales de lectura de un flujo de vídeo para la puesta en práctica de un método según cualquiera de las reivindicaciones 1 a 7, en donde:
- el primer terminal (8) y cada segundo terminal (34) están configurados para realizar las etapas siguientes:
- recoger al menos una medida representativa de un comportamiento de un usuario de este terminal durante la lectura de este flujo de vídeo, y establecer, a partir de dicha al menos una medida recogida, al menos un dato característico de este comportamiento de este usuario,
- descomprimir el flujo de vídeo con el fin de obtener un primer flujo de vídeo de banda base que sea independiente de dicha al menos una medida recogida, y luego
- componer, a partir de dicho al menos un dato característico establecido y del primer flujo de vídeo de banda base, un segundo flujo de vídeo de banda base que varía en función de dicho al menos un dato característico establecido, conteniendo el segundo flujo de vídeo solamente una fracción de cada imagen completa del primer flujo de vídeo,
- el primer terminal también es capaz de:
- comparar dicho al menos un dato característico con un conjunto de umbrales predeterminados, cada uno de los cuales, cuando se supera, caracteriza un comportamiento anómalo del usuario, y luego
- señalizar un comportamiento anómalo si se supera al menos una parte predeterminada de estos umbrales y, en caso contrario, no informar de este comportamiento anómalo, y luego
- en respuesta a la señalización de un comportamiento anómalo, activar de manera automática la ejecución de una contramedida que haga más difícil o imposible el acceso al conjunto de las informaciones contenidas en el primer flujo de vídeo de banda base a partir de diferentes copias del segundo flujo de vídeo de banda base compuesto por el primer terminal, y no iniciar la ejecución de esta contramedida en ausencia de esta señalización de un comportamiento anómalo,
caracterizado porque:
- los segundos terminales (34) son cada uno capaces, antes de la lectura del flujo de vídeo por el primer terminal, de leer el mismo flujo de vídeo y, durante cada una de las lecturas de este mismo flujo de vídeo, cuando un dato característico establecido por el segundo terminal y una primera imagen del primer flujo de vídeo de banda base se utilizan para componer el segundo flujo de vídeo de banda base, para asociar este dato característico con un identificador de esta primera imagen, y luego para transmitir este dato característico y el identificador de la primera imagen, que le está asociada, a un servidor de agregación de datos,
- el primer terminal (8) es adecuado:
- con el fin de obtener del servidor de agregación de datos estadísticos representativos de los comportamientos de los usuarios de los segundos terminales en los momentos en que esta primera imagen es procesada por los componedores de estos segundos terminales, habiendo sido estos datos estadísticos establecidos, por el servidor de agregación, a partir de los datos característicos transmitidos, por los segundos terminales, asociados al identificador de la misma primera imagen, y luego
- para comparar, con un primer umbral predeterminado, una desviación entre:
° el o los datos característicos establecidos por el primer terminal y utilizados por este primer terminal, en combinación con la primera imagen, para componer el segundo flujo de vídeo de banda base, y ° los datos estadísticos obtenidos del servidor de agregación para esta misma primera imagen.
9. Servidor de agregación de datos para la puesta en práctica de un método según la reivindicación 1, caracterizado porque el servidor de agregación es capaz de:
- establecer, a partir de los datos característicos recibidos asociados al identificador de la misma primera imagen, los datos estadísticos representativos de los comportamientos de los usuarios de los segundos terminales en los momentos en que esta primera imagen es procesada por los componedores de estos segundos terminales, y luego
- comparar con un primer umbral predeterminado una desviación entre:
• el o los datos característicos establecidos por el primer terminal y utilizados por este primer terminal, en combinación con la primera imagen, para componer el segundo flujo de vídeo de banda base, y
• los datos estadísticos establecidos por el servidor de agregación para esta misma primera imagen, o - transmitir estos datos estadísticos al primer terminal para que pueda realizar la comparación con el primer umbral predeterminado.
10. Medio de registro de información, caracterizado porque comprende instrucciones para la puesta en práctica de un método de lectura según cualquiera de las reivindicaciones 1 a 7, cuando estas instrucciones son ejecutadas por un microprocesador electrónico.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1753411A FR3065607B1 (fr) | 2017-04-20 | 2017-04-20 | Procede de lecture d'un flux video |
PCT/FR2018/050858 WO2018193177A1 (fr) | 2017-04-20 | 2018-04-06 | Procédé de lecture d'un flux vidéo |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2930023T3 true ES2930023T3 (es) | 2022-12-05 |
Family
ID=59746002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18718620T Active ES2930023T3 (es) | 2017-04-20 | 2018-04-06 | Método de lectura de un flujo de vídeo |
Country Status (8)
Country | Link |
---|---|
US (1) | US11153624B2 (es) |
EP (1) | EP3612912B8 (es) |
CN (1) | CN110546593B (es) |
DK (1) | DK3612912T3 (es) |
ES (1) | ES2930023T3 (es) |
FR (1) | FR3065607B1 (es) |
PL (1) | PL3612912T3 (es) |
WO (1) | WO2018193177A1 (es) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109451257B (zh) * | 2018-11-30 | 2021-04-06 | 苏州东巍网络科技有限公司 | 一种点到点的间歇性训练视频传输系统及方法 |
US11363042B2 (en) * | 2019-01-21 | 2022-06-14 | Netapp, Inc. | Detection of anomalies in communities based on access patterns by users |
US20220354387A1 (en) * | 2019-11-28 | 2022-11-10 | Nippon Telegraph And Telephone Corporation | Monitoring System, Monitoring Method, and Monitoring Program |
US11090566B1 (en) * | 2020-09-16 | 2021-08-17 | Sony Interactive Entertainment LLC | Method for determining player behavior |
CN113283857A (zh) * | 2021-04-30 | 2021-08-20 | 深圳市地铁集团有限公司 | 一种地铁工程招标智能管理系统 |
US11579684B1 (en) | 2021-09-21 | 2023-02-14 | Toyota Research Institute, Inc. | System and method for an augmented reality goal assistant |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2153649A2 (en) * | 2007-04-25 | 2010-02-17 | David Chaum | Video copy prevention systems with interaction and compression |
FR2948472B1 (fr) * | 2009-07-21 | 2012-02-10 | Alstom Transport Sa | Dispositif de verification de l'integrite d'une donnee affichee et procede associe |
US8566856B2 (en) * | 2009-12-01 | 2013-10-22 | International Business Machines Corporation | Video stream measurement method and system |
US9143815B2 (en) * | 2009-12-18 | 2015-09-22 | Johnson Manuel-Devadoss | Method and system to provide a non-free digital event content from the content provider to the computing device users |
KR20110116562A (ko) * | 2010-04-19 | 2011-10-26 | 서울대학교산학협력단 | 대규모 다중 사용자 온라인 롤플레잉 게임에서 봇을 검출하는 방법 및 시스템 |
US8931108B2 (en) | 2013-02-18 | 2015-01-06 | Qualcomm Incorporated | Hardware enforced content protection for graphics processing units |
US20140304720A1 (en) * | 2013-04-03 | 2014-10-09 | Tencent Technology (Shenzhen) Company Limited | Method for starting process of application and computer system |
EP3026923A1 (en) * | 2014-11-28 | 2016-06-01 | Gemalto Sa | Method for accessing media data and corresponding device and system |
US10417832B2 (en) * | 2015-03-11 | 2019-09-17 | Facebook Technologies, Llc | Display device supporting configurable resolution regions |
US10063579B1 (en) * | 2016-06-29 | 2018-08-28 | EMC IP Holding Company LLC | Embedding the capability to track user interactions with an application and analyzing user behavior to detect and prevent fraud |
-
2017
- 2017-04-20 FR FR1753411A patent/FR3065607B1/fr active Active
-
2018
- 2018-04-06 WO PCT/FR2018/050858 patent/WO2018193177A1/fr unknown
- 2018-04-06 PL PL18718620.0T patent/PL3612912T3/pl unknown
- 2018-04-06 DK DK18718620.0T patent/DK3612912T3/da active
- 2018-04-06 US US16/603,862 patent/US11153624B2/en active Active
- 2018-04-06 ES ES18718620T patent/ES2930023T3/es active Active
- 2018-04-06 EP EP18718620.0A patent/EP3612912B8/fr active Active
- 2018-04-06 CN CN201880024986.2A patent/CN110546593B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
DK3612912T3 (da) | 2022-11-21 |
EP3612912B8 (fr) | 2022-10-05 |
US20200120375A1 (en) | 2020-04-16 |
CN110546593B (zh) | 2024-03-26 |
EP3612912B1 (fr) | 2022-08-31 |
US11153624B2 (en) | 2021-10-19 |
PL3612912T3 (pl) | 2023-01-16 |
EP3612912A1 (fr) | 2020-02-26 |
FR3065607B1 (fr) | 2019-06-14 |
FR3065607A1 (fr) | 2018-10-26 |
CN110546593A (zh) | 2019-12-06 |
WO2018193177A1 (fr) | 2018-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2930023T3 (es) | Método de lectura de un flujo de vídeo | |
US11828940B2 (en) | System and method for user alerts during an immersive computer-generated reality experience | |
US9703990B2 (en) | Protecting content displayed on a mobile device | |
US12111904B2 (en) | Systems and methods for authenticating users | |
CN103473511B (zh) | 媒体播放方法及设备 | |
US11355024B2 (en) | Methods for administering and taking a test employing secure testing biometric techniques | |
US20160035233A1 (en) | Secure Testing System and Method | |
CN109076088A (zh) | 安全的传感器接口 | |
ES2538804T3 (es) | Método para convertir en irreconocibles y restaurar contenidos de una imagen | |
CN104125210A (zh) | 增强保密性的头戴式显示装置及用其访问加密信息的方法 | |
KR102255598B1 (ko) | 비대면 온라인 평가 시스템 및 운용 방법 | |
CN105279459A (zh) | 一种终端防偷窥方法及移动终端 | |
JPWO2016013269A1 (ja) | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム | |
US20230177128A1 (en) | Authentication and calibration via gaze tracking | |
ES2813876T3 (es) | Estructura de privacidad en un dispositivo para gafas inteligentes y relojes inteligentes | |
GB2536215A (en) | Secure input mode for user device | |
WO2018168157A1 (ja) | 情報処理装置および情報処理方法 | |
ES2913634T3 (es) | Método de lectura y de generación de un flujo de vídeo que contiene imágenes comprimidas y cifradas | |
CN110263521A (zh) | 登入保护方法及装置、系统、电子设备和存储介质 | |
US20240045942A1 (en) | Systems and methods for using occluded 3d objects for mixed reality captcha | |
WO2024040360A1 (zh) | Brain reality | |
US20200066116A1 (en) | Information processing apparatus, information processing method, and program | |
KR20170054066A (ko) | 객체 및 사용자 인증을 통한 ar 컨텐츠 재생 승인 장치 및 방법 | |
Long | Modeling and Mitigating Side Channels in Optical and Embedded Sensing Systems | |
JP2023099952A (ja) | 監視システム及び監視方法 |