MXPA00006341A - Aparato de salida de datos de imagen - Google Patents

Aparato de salida de datos de imagen

Info

Publication number
MXPA00006341A
MXPA00006341A MXPA/A/2000/006341A MXPA00006341A MXPA00006341A MX PA00006341 A MXPA00006341 A MX PA00006341A MX PA00006341 A MXPA00006341 A MX PA00006341A MX PA00006341 A MXPA00006341 A MX PA00006341A
Authority
MX
Mexico
Prior art keywords
image data
coordinates
image
data
output
Prior art date
Application number
MXPA/A/2000/006341A
Other languages
English (en)
Inventor
Kiyoshi Kaneko
Original Assignee
Hudson Soft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hudson Soft Co Ltd filed Critical Hudson Soft Co Ltd
Publication of MXPA00006341A publication Critical patent/MXPA00006341A/es

Links

Abstract

La invención se refiere a un aparato de salida de datos de imagen y el objeto del mismo es permitir la salida de datos de datos de imagen para editarse según se desea a través de una disposición simple;el aparato incluye una memoria para almacenar datos de imagen;un generador de función que, en sincronia con el control para leer los datos de imagen hacia un piano de salida XY, genera una función predeterminada H (x, y) en una posición deseada en el espacio de dirección XY;y un procesador de datos de imagen, en donde, la base del valor de la función H (x, y), somete los datos de imagen g de salida de un espacio de dirección correspondiente a un procesamiento de imagen que corresponde al valor de la función;una variedad de procesamiento de imagen aplicada a los datos g de imagen de salida se ejecuta en tiempo real de conformidad con el valor de la función H (x, y) generada en el punto deseado en sincronía con el control para la salida de lectura XY de los datos de imagen hacia el plano XY de salida.

Description

APARATO DE SALIDA DE DATOS DE IMAGEN CAMPO TÉCNICO La presente invención se refiere a un aparato de salida de datos de imagen y, en particular, a un aparato de salida de datos de imagen para emitir datos de imagen, el cual está provisto vía línea de comunicación o medio de almacenamiento de imágenes, como memoria o disco de video, hacia un medio de emisión de datos tal como una pantalla de visualización o un papel de registro. Un aparato de salida de datos de imagen de este tipo es ideal para usarse en una computadora personal, una máquina de juegos que tenga un sistema CG 2D/3D, una impresora o una máquina facsímil, etc.
TÉCNICA ANTECEDENTE La figura 14 es un diagrama útil para describir la técnica anterior e ¡lustra la construcción de una máquina de juego convencional. En la figura 14 se muestra una CPU 1 para ejecución del control principal y procesamiento de la máquina de juego, una memoria principal (MM) 2 que comprende RAM, ROM, HDD, etc., usados por la CPU 1 , un panel de control 3 que tienen diversas teclas de control y medios de posición entrada de como una tecla cruz-filar, ratón y palanca de control, una memoria externa 4 que comprende ROM, CD-ROM, etc., provista en el cuerpo principal de la máquina de juego de manera que puede retirarse libremente y almacenar un programa de juego (un procedimiento de procesamiento, datos de imagen, etc.); una unidad de memoria de encuadre 5 que tiene memorias de encuadre para una pluralidad de encuadre, una memoria de encuadre 51 para almacenar principalmente datos de imagen como el fondo que no está controlado por el usuario; una memoria de encuadre 52 para almacenar principalmente datos de imagen de un personaje u objeto (automóvil de carreras, avión de combate u otro elemento) que es controlado por el usuario, una memoria de encuadre 53 que almacena principalmente datos de imagen con el propósito de editar y comprender en la pantalla palabras expresadas por el personaje para sobreponerse en la pantalla de vísualízación, y la oscuridad que rodea a una antorcha o similar, un sintetizador de datos de imagen 6 para combinar los datos de imagen PD1-PD3 de las memorias de encuadre 51-53, una unidad de visualización (DISP) 7 que comprende CRT, LCD o similar; una pantalla de visualización 71 de la unidad de visualización, un controlador de visualización 8 para generar una dirección de salida de lectura de datos de imagen (X, Y) y una señal de temporizacíón requerida (señal de sincronización de pixel GCK, etc,) en sincronía con el control de visualización (V, H) de la pantalla de visualización 71 y un canal común 9 de la CPU 1. Adicionalmente, los datos de una imagen monocromática o imagen a color se manejan como los datos de imagen. La figura 14 representa una escena donde el personaje explora la parte interna de una cueva mientras sostiene una antorcha. Eso se encuentra dentro de una categoría de elaboración de juego del tipo en donde el fondo (la cueva) se mantiene estacionario en la pantalla y el personaje se desplaza o el personaje se mantiene estacionario en la pantalla y el fondo se mueve (dando una vista panorámica); puede usarse cualquier esquema. Se describirá el caso en donde el fondo se mantiene estacionario en la pantalla y el personaje se desplaza. Cuando el juego avanza, la CPU 1 lee los datos de imagen de la cueva (CG 2D) de la memoria externa 4 y registra en la memoria de encuadre 51. A continuación, la CPU 1 lee los datos de imagen del personaje y desarrolla estos datos sobre las coordenadas Q (x, y) en la memoria de encuadre 52. Las coordenadas Q(x, y) son las coordenadas de la posición actual del personaje, cuyo movimiento está controlado por el panel de control 3, en la pantalla de visualización 71. Posteriormente, la CPU 1 lee los datos de imagen de un patrón de oscuridad y desarrolla estos datos sobre las coordenadas m (x, y) en la memoria de encuadre 53. Las coordenadas m (x, y) son las coordenadas de la posición real del centro de una antorcha (llama) que se desplaza junto con el personaje en la pantalla de visualización 71. Debe observarse que los datos de imagen de la cueva y los del personaje en esta escena se han formado por brillantez que es de alguna manera tenue. Además, los datos de imagen del patrón de oscuridad son transparentes dentro de un circulo R de radio r, el centro del cual está en las coordenadas m (x, y) y está oscuro (negro) fuera del circulo.
El sintetizador de datos de imagen 6 genera datos combinados CD ejecutando el procesamiento para sobreponer, pixel por pixel, los datos de imagen PD1-PD3 en las memorias de encuadre 51-53. Específicamente, el sintetizador 6 de datos de imagen lee los datos de pixel pd1-pd3 de una dirección XY común al unísono mientras avanza la dirección de visualización (X, Y). En el caso de que los datos de pixel pd2 ? 0 (una posición sobrepuesta al personaje), los datos de pixel del fondo pd . se reemplazan por los datos de pixel del personaje pd2. En el caso de que datos de pixel pd3 ? 0 (una posición sobrepuesta a la oscuridad), los datos de pixel del fondo o del personaje pd1/pd2 se reemplazan por datos de pixel de oscuridad pd3. En virtud de tal procesamiento de combinación, se obtienen datos de imagen combinada CD en donde el área circundante a la antorcha parece comparativamente brillante en la imagen completa y la cueva y el héroe pueden observarse en está área, mientras que hay oscuridad fuera de esta área y no puede verse nada ahí. Estos datos se despliegan en la pantalla de visualización 71. Con un programa de juego de este tipo, el usuario puede mover el personaje en cualquier dirección manipulando las teclas. De esta manera, se requiere que la máquina de juego mueva al personaje y el patrón de oscuridad de la pantalla de conformidad con la manipulación de teclas que realice el usuario. Si se asume que el personaje se ha movido hacia el lado derecho de la pantalla, por ejemplo, la CPU 1 mueve al personaje en la memoria de encuadre 52 hacia el lado derecho de la memoria (o vuelva a desarrollar el personaje) y mueve el patrón de oscuridad en la memoria de encuadre 53 hacia el lado derecho de la memoria (o desarrolla nuevamente el patrón). Como resultado, el personaje y la imagen del área iluminada por la antorcha se desplazan hacia la derecha de la pantalla hacia la siguiente pantalla. En esta escena, por lo tanto, será suficiente si la memoria externa 4 almacena una pantalla de los datos de imagen de la cueva, los datos de imagen de la porción en donde el personaje sostiene la antorcha y los datos de imagen del patrón de oscuridad (esto necesita más de un fragmento debido a que el patrón de oscuridad se desplaza), por lo que puede generarse una variedad de pantallas que cambian de manera irregular por la operación del usuario de manera eficiente y a alta velocidad con un pequeño número de imágenes originales. Además, la carga del fabricante del juego para producir imágenes originales se aligera. Sin embargo, de conformidad con el método convencional descrito anteriormente se requiere que la máquina de juego tenga memorias de encuadre para tres pantallas, como resultado de lo cual se eleva el costo del aparato. En particular, una imagen de color requiere una capacidad de memoria que es tres veces la necesaria para blanco y negro, y esto no es insignificante, incluso para una memoria de encuadre de una sola pantalla. Además, se requiere que el fabricante del juego prepare imágenes originales de diversos patrones editados de conformidad con la escena. Esto representa una carga adicional, además, esto presiona el espacio de almacenamiento de la memoria externa 4.
Adicionalmente, se requiere que la CPU 1 vuelva a procesar los datos de imagen de dos pantallas PD2, PD3 cuando el usuario realiza una operación. Esto incrementa la carga de procesamiento.
DESCRIPCIÓN DE LA INVENCIÓN La presente invención se ha concebido en vista de los problemas de la técnica anterior mencionados anteriormente y un objetivo de la misma es proveer un aparato de salida de datos de imagen que pueda editar datos de imagen de salida de manera deseada a través de una disposición simple. El objetivo se obtiene mediante la disposición que se muestra en la figura 1. Específicamente, un aparato de salida de datos de imagen de conformidad con la reivindicación 1 de la presente invención que comprende una memoria 20 para almacenar datos de imagen; un generador de funciones 40 que, en sincronía con el control para extraer los datos de imagen hacia un plano XY 60 de salida, genera una función predeterminada H (x, y) en una posición deseada en el espacio de dirección XY; y un procesador de datos de imagen 30 que, basado en el valor de la función H (x, y), somete la salida de los datos g de imagen de un espacio de dirección correspondiente al procesamiento de imagen que corresponde al valor de la función. De conformidad con la reivindicación 1 de la presente invención, los datos de imagen g de un área deseada en una imagen de salida pueden someterse al procesamiento de imagen de manera deseada simplemente con una disposición en donde el procesamiento de imagen de la emisión correspondiente de los datos g de imagen de salida se ejecutan en tiempo real de conformidad con el valor de la función H (x, y) generada en la posición deseada en sincronía con el control para la extracción XY de los datos de imagen. De esta manera, puede eliminarse una memoria de encuadre que tiene el propósito de editar imágenes, requerida en la técnica anterior, reduciendo de esta manera el costo del aparato. Adicionalmente, puede eliminarse una imagen original para el propósito de edición de imagen en una máquina de juego, produciendo de esta manera una libertad proporcional en la memoria externa 4, haciendo posible aligerar la carga de producción de imagen original. Además, no es necesario que la CPU 1 ejecute el procesamiento de imagen con el propósito de editar la imagen en una memoria de encuadre, reduciendo de esta manera la carga de procesamiento en la CPU 1. Preferiblemente, en la reivindicación 2 de la presente invención, los datos de imagen de la reivindicación 1 de la presente invención son datos de imagen de una imagen B (un avión de combate) obtenida sometiendo una imagen B' (un avión de combate) en un espacio tridimensional a una transformación de perspectiva en relación con el plano XY 60 de salida. De esta manera, incluso una imagen basada en CG 3D puede someterse a un procesamiento de edición de imagen adecuado, sin sacrificar el efecto tridimensional, por un control y procesamiento simple bidimensional de conformidad con la reivindicación 1 de la presente invención.
Preferiblemente, en la reivindicación 3 de la presente invención, la función H (x, y) de la reivindicación 1 ó 2 de la presente invención se genera usando externamente coordenadas de entrada Q (x, y) en el plano XY de salida como referencia. De conformidad con la reivindicación 3 de la presente invención, un área R de la función H (x, y) se genera en tiempo real en una posición deseada en el plano XY de salida y el procesamiento de imagen dentro/fuera del área R se ejecuta de manera deseada por la disposición en donde, a través de un solo control que involucra la designación meramente externa de las coordenadas Q (x, y) en el plano XY de salida, la función H(x, y) se genera usando esta posición como referencia. Preferiblemente, en la reivindicación 4 de la presente invención, las coordenadas Q (x, y) en la reivindicación 3 de la presente invención son coordenadas detectadas P (x, y) de un punto de fijación del ojo humano con respecto al plano XY 60 de salida. De conformidad con la reivindicación 4 de la presente invención, debe considerarse un caso en donde el usuario sigue al avión de combate B en ese momento. Durante la persecución, el usuario sigue principalmente el objetivo B visualmente. De esta manera, el área R se genera con base en las coordenadas detectadas P (x, y) del punto de fijación del usuario y se hace posible mostrar, en tiempo real, la imagen (avión de combate B) dentro del área R claramente mientras la imagen que se encuentra fuera de esta área es borrosa. Si el usuario cambia su vista hacia otros artículos (otros aviones de combate o instrumentos, etc.), el área R generada también cambia en tiempo real con el movimiento del punto de fijación y la imagen de esta área se muestra claramente. Preferiblemente, en la reivindicación 5 de la presente invención, las coordenadas Q(x, y) en la reivindicación 3 de la presente invención son coordenadas C(x, y) de un punto designado por los medios de entrada de posición externa. De conformidad con la reivindicación 5 de la presente invención, se considera un caso en donde el usuario sigue al avión de combate B en ese momento de manera similar a la descrita anteriormente. El usuario controla un cursor (dispositivo de apuntar) o una palanca de control (dirección y actitud de su propio avión), de tal manera que el avión enemigo B será adquirido por el dispositivo de apuntar (no se muestra) en la pantalla, operando teclas de cursor (tecla cruz-filar, etc.) en el panel de control o mediante la operación de la palanca de control. En este caso, también el área R se genera automáticamente con base en las coordenadas C(x, y) del punto designado (dispositivo de apuntar) controlado con base en la manipulación del cursor, y es posible mostrar en tiempo real, la imagen (avión de combate B) dentro del área R claramente, mientras la imagen fuera de esta área es borrosa. De manera alternativa, al generar el área R con base en las coordenadas C(x, y) de un punto designado controlado basándose la manipulación de una palanca de control [aunque en este caso, como resultado de un cambio en la dirección y actitud del avión del usuario, la pantalla se controla de manera tal que el avión enemigo B siempre se adquiere en un punto designado (por ejemplo, dispositivo de apuntar) en el centro de la pantalla], es posible mostrar, en tiempo real, una imagen (avión enemigo B) que cae dentro del área estacionaria R mientras una imagen que emerge hacia exterior de esta área es borrosa. Preferiblemente, en la reivindicación 6 de la presente invención, las coordenadas Q(x, y) en la reivindicación 3 de la presente invención son coordenadas M(x, y) de un punto de referencia que representa una imagen específica B toda o una parte de la cual está contenida en un área cercana a las coordenadas detectadas P(x, y) del punto de fijación descrito en la reivindicación 4 de la presente invención de las coordenadas C(x, y) del punto designado descrito en la reivindicación 5 de la presente invención. De conformidad con la reivindicación 6 de la presente invención, se considera un caso en donde el usuario sigue al avión de combate B en ese momento de manera similar a la descrita anteriormente. Desde luego, en una situación (escena) de este tipo, el objeto de interés del usuario en términos del juego es el avión enemigo B. Sin embargo, aunque el usuario en persecución del avión enemigo generalmente sigue principalmente el objetivo B con la vista, el usuario con frecuencia observa también otros artículos (otros aviones de combate, un dispositivo de apuntar, instrumentos, etc.) al mismo tiempo. Por está razón, existen situaciones en donde es más deseable en términos de una máquina de juego cerrar el área R al avión enemigo B inmediato y mostrar siempre únicamente el avión B central y la imagen que lo rodea claramente. Sin embargo, en los casos que se basan en la detección dentro de la línea de visión, en la base de que la línea de visión (punto de fijación) predominante en cierto tiempo el área R debe bloquearse, en realidad no se sabe. Además, incluso durante la persecución el usuario no necesariamente inicia en el centro del avión enemigo B y puede estar viendo lo que le rodea. De esta manera, en la reivindicación 6 de la presente invención, las coordenadas Q(x, y) para generar el área R son las coordenadas M(x, y) del punto de referencia representando una imagen específica (avión de combate B) toda o una parte de la cual está contenida en el área cercana a las coordenadas detectadas P(x, y) del punto de fijación o las coordenadas C(x, y) del punto designado. Como para las coordenadas de la línea de visión (fijación-punto) coordenadas P(x, y) o coordenadas del punto designado C(x, y) en un momento particular funcionan como la base para bloquear el área R existen diversas consideraciones que dependen de la operación del juego. Por ejemplo, la máquina de juego (programa de juego) realiza un monitoreo constante para determinar si toda o una parte de una imagen específica (el avión enemigo B en este ejemplo), que es importante en términos de realización del juego, está contenida en el área predeterminada cerca del punto de fijación P o el punto designado C. Si se detecta que toda o una parte de la imagen específica está contenida en el área predeterminada (es decir, si se obtiene una determinación de acierto, empleada usualmente en un programa de juego), entonces la máquina de juego bloquea las coordenadas Q(x, y) que son para la generación del área R, en las coordenadas M(x, y) del punto de referencia del avión enemigo B. Incluso si el punto de fijación P o el punto designado (dispositivo de apuntar) C subsecuentemente debe partir del avión enemigo B, el área R ya estará bloqueada en el avión enemigo B, y como resultado, el área R de visión clara se desplazará junto con el avión enemigo B en tiempo real. Debe observarse que el bloqueo se libera cuando sucede un evento específico (derribar al avión enemigo B), lo que está estipulado por el programa de juego por adelantado, o por una operación de desbloqueo realizada por el usuario. De manera alternativa, puede adoptarse una disposición en donde las coordenadas de referencia Q(x, y) del área R se bloquean automáticamente en las coordenadas de referencia R(x, y) de los personajes u objetos específicos, que decide el programa de juego por adelantado, uno tras otro de conformidad con el flujo de la historia del juego sin relación con las coordenadas del punto de fijación del usuario o del punto designado (dispositivo de apuntar) C. Si se adopta tal disposición, la atención del usuario llegará naturalmente hacía los objetos u personajes, por ejemplo, que se muestran claramente uno tras otro, de tal manera que el juego puede desarrollarse (estar guiado) más dinámica e impresionantemente. El control para lo recién mencionado está implementado fácilmente haciendo que el generador de función 40 en la reivindicación 1 de la presente invención genere la función predeterminada H(x, y) en las posiciones deseadas (por ejemplo, posiciones que provee el programa de juego uno tras otro) en el espacio de dirección XY. Preferiblemente, en la reivindicación 7 de la presente invención la salida de datos g de imagen en la en la reivindicación 2 de la presente invención está acompañada por datos de profundidad z que representan la profundidad junto con el eje z en el espacio tridimensional de los datos g de imagen, y el procesador de datos de imagen 30 aplica el procesamiento de imagen, lo que se adecúa al valor de la función, a la emisión correspondiente de los datos g de imagen siempre y cuando los datos de profundidad z se encuentren dentro de los límites predeterminados a lo largo del eje z. De conformidad con la reivindicación 7 de la presente invención, incluso si cierta salida de datos g de imagen (pixel) son datos de imagen bidimensional que ya han pasado por una transformación de perspectiva, la imagen se emite claramente, por ejemplo, en un caso donde la coordenada z a lo largo del eje Z en el espacio 3D de donde se derivan los datos g se encuentra dentro de los limites predeterminados (z.-z2) a lo largo del eje Z, y se emite de manera borrosa en un caso donde la coordenada z no se encuentra dentro de estos limites. Como resultado, incluso si la salida de datos g de imagen (datos de imagen bidimensional) de otro avión enemigo A (no se muestra) hacia el frente del diagrama se encuentra dentro del área R dimensional, la salida de datos g de imagen será tal que su coordenada z será z < z-i dentro del espacio 3D del cual se derivan los datos g y, por lo tanto, la imagen no se emitirá claramente. Adicionalmente, incluso sí la salida de datos g de imagen (datos de imagen bidimensional) de otro avión enemigo C hacia la parte posterior del diagrama se encuentra dentro del área R dimensional, la salida de datos g de imagen será tal que su coordenada z será z > z2 dentro del espacio 3D para el que los datos g derivan y, y por lo tanto, la imagen no se emitirá claramente. Esto concuerda cercanamente con el área de visión clara (estado enfocado/fuera de foco) de la visión humana en el espacio 3D real y mejora en gran medida el realismo de una imagen pseudotridemensíonal (CG 3D).
BREVE DESCRIPCIÓN DE LOS DIBUJOS La figura 1 es un diagrama para describir los principios de la presente invención; La figura 2 es un diagrama que ¡lustra la construcción de una máquina de juego de conformidad con una primera modalidad; La figura 3 es un diagrama (1) para describir una unidad de edición de datos de imagen en la primera modalidad; La figura 4 es un diagrama (2) para describir una unidad de edición de datos de imagen en la primera modalidad; La figura 5 es un diagrama que ilustra la construcción de una máquina de juego de conformidad con una segunda modalidad; La figura 6 es un diagrama para describir la operación de un detector de punto de fijación en la segunda modalidad; La figura 7 es un diagrama de flujo del procesamiento para la detección de punto de fijación en la segunda modalidad; La figura 8 es un diagrama (1 ) para describir una unidad de edición de datos de imagen en la segunda modalidad; La figura 9 es un diagrama (2) para describir una unidad de edición de datos de imagen en la segunda modalidad; La figura 10 es un diagrama que ¡lustra la construcción de una máquina de juego de conformidad con la tercera modalidad; La figura 11 es un diagrama para describir la operación de un procesador de conversión en la tercera modalidad; La figura 12 es un diagrama que ilustra la construcción de una unidad de edición de datos de imagen en la tercera modalidad; La figura 13 es un diagrama de imagen que muestra la operación de la unidad de edición de datos de imagen en la tercera modalidad; y La figura 14 es un diagrama para describir la técnica anterior.
MODALIDADES PREFERIDAS DE LA INVENCIÓN Se describirá con detalle una pluralidad de modalidades ideales para practicar la presente invención de conformidad con los dibujos anexos. De observase que los caracteres de referencia idénticos indican componentes idénticos o correspondientes a través de los dibujos. La figura 2 es un diagrama que muestra la construcción de una máquina de juego de conformidad con una primera modalidad. Este diagrama ¡lustra un caso en donde la generación del patrón obscuro y el procesamiento para sobreponer el mismo descrito en la figura 14 se realizan automáticamente dentro del aparato. Se muestra en la figura 2 una unidad de edición de datos de imagen (que corresponde al procesador de imagen 30 y al generador de función 40 en la figura 1 ) 10A en la primera modalidad. Otros componentes serán similares a aquellos descritos junto con la figura 14. Sin embargo, la memoria de encuadre 53 para almacenar los datos de imagen PD3 para propósitos de edición de imagen tales como el patrón de oscuridad se han eliminado de la unidad de memoria de encuadre 5. Cuando avanza el juego, la CPU 1 registra datos de imagen de una cueva (CG 2D), que pueden extraerse desde al memoria externa 4, hacia la memoria de encuadre 51. Además, la CPU 1 desarrolla datos de imagen del personaje que sostiene una antorcha, que se ha extraído desde la memoria externa 4, cerca de la periferia de las coordenadas de referencia Q(x, y) del personaje en la memoria de encuadre 52, el personaje estando controlado por comandos desde el panel de control 3. El personaje en este caso se mueve en una dirección deseada por el cursor operado por el usuario, y la CPU 1 responde moviendo los datos de imagen del personaje (incluso la antorcha) en la memoria de encuadre 52 en la dirección correspondiente. Bajo estas condiciones, el sintetizador de datos de imagen 6 sobrepone los datos de imagen PD2 del personaje en los datos de imagen de la cueva PD1 pixel por pixel y genera a los datos combinados CD. La unidad de edición de datos imagen 10A genera una función predeterminada H . (x, y) basada en las coordenadas m(x, y) de la antorcha provista desde la CPU 1 y muestra las coordenadas (X, Y) desde el controlador de visualización 8, aplica una corrección (edición) de luminiscencia correspondiente a los datos combinados CD dentro/fuera de la región R definida por la función H ., y genera datos de imagen corregida HD. Estos datos de imagen HD entran a la unidad de visualización 7, como resultado de lo cual una escena similar a la que se muestra en la figura 14 se muestra en la pantalla de visualización 71. Las figuras 3 y 4 son diagramas (1 ), (2) para describir la unidad de edición de datos de imagen de conformidad con la primera modalidad, y la figura 3(A) es un diagrama de bloque de la unidad de edición de datos de imagen. En las figuras, los caracteres de referencia 10A representan la unidad de edición de imagen de conformidad con la primera modalidad; 34 un selector de datos (SEL) que, de conformidad con una señal de selección SL = 0/1 de una entrada de control, elige datos BK de pixel negro representado oscuridad en una entrada de datos o datos g de pixel combinado desde el sintetízador de datos de imagen 6, que es la etapa anterior; 37A un generador de parámetro para generar, en tiempo real, coordenadas de valor de tolerancia X., X2 necesarias para la discriminación de área a lo largo del eje X en cada eje Y con base a las coordenadas m(x, y) de la antorcha provista desde la CPU1 , y direcciones de exploración X, Y desde el controlador de pantalla 8; 36 un discriminador X para realizar la discriminación de área a lo largo del eje X comparando la dirección de exploración desde el controlador de pantalla 8 y las coordenadas de valor de tolerancia X., X2; CMP un comparador; y A y una compuerta Y. Debe observarse que el circuito que comprende el generador de parámetro 37A y el discriminador X 36 corresponde al generador de función 40 de la figura 1. En virtud de esta disposición, el área R que corresponde a la función H-i (x, y) se genera en tiempo real cerca de las coordenadas deseadas m(x, y) en sincronía con la exploración X, Y de la pantalla de visualización 71 , y los datos g de pixel combinado se someten a una corrección (edición) de luminiscencia con base en la determinación dentro/fuera del área R. La figura 3B ilustra una imagen bídimensional de la función H-i (x, y)- Si la esquina superior izquierda de la pantalla de visualización 71 se toma como el origen (0,0) de las coordenadas de exploración (x, y), la línea de exploración avanzará a lo largo del eje X a alta velocidad pixel por pixel. Cuando termina el despliegue de la primera línea (Y=0), comienza el despliegue de la segunda línea (Y=1). A esto sigue la repetición de la misma operación cuando las coordenadas de la antorcha m(x, y) entran desde la CPU 1 , el generador del parámetro 37A, en la manera descrita a continuación, y mientras avanza la exploración de la línea Y, se obtienen las coordenadas de valor de tolerancia (X., X2), a lo largo del X, en donde cada línea de exploración Y (por ejemplo, línea de exploración Yn) cruza el círculo R de radío r el centro lo que se representa por las coordenadas m(x, y). En el caso de que ?x = X2 - x, ?y = Yn - y se mantiene, entonces, desde la relación ?x2 + ?y2 = r2, se tiene | ?x | = -^[r2 -(Yn -y)2] en donde la expresión dentro de los corchetes representa la inclusión en la raíz cuadrada. Como las coordenadas de la antorcha m(x, y), el radio r y las coordenadas Yn de la línea de exploración Y ya se conocen, las coordenadas X, X., X2 de los puntos de intersección se encuentran por evaluación de las siguientes ecuaciones; x. = x - |?x| = ? - 2 - „ -y)2] X2 = x + |?x| = x + ¡[r2 - (Yn - y)2] Debe observase que cuando la expresión dentro de la raíz cuadrada es negativa, el valor de la misma se toma como cero (es decir, X-i, X2 = x). Por lo tanto, mientras la línea de exploración Y avanza el generador de parámetro 37A genera satisfactoriamente las coordenadas de valor de tolerancia (X., X2) a lo largo del eje X para cada línea de exploración Y. El discriminador X 36 compara la dirección X de la línea de exploración y las coordenadas de valor de tolerancia generadas (X., X2). El CMP 5 produce una señal de salida X > X. = 1 (nivel ALTO) cuando X > X. se mantiene, y el CMP 4 produce una señal de salida X < X2 = 1 cuando X < X2 se mantiene. De esta manera, la señal de salida SL de la compuerta Y A2 se vuelve SL = 1 únicamente cuando la dirección X en la línea de exploración Yn satisface la relación X. < X < X2; de otra manera se mantiene SL = 0. El selector 34 elige los datos g en pixeles de la entrada cuando SL =1 se mantiene y los datos BK negros cuando SL = 0 se mantiene. Además, tomando en cuenta que cada línea de exploración Y¡, la relación X? < X < X2 se satisface únicamente dentro del círculo R, como se muestra en la figura 3(B). De esta manera, el resultado final es que el área dentro del círculo R se trata como transparente y los datos de pixeles de la entrada pasan a través como son. Sin embargo, la parte exterior del círculo R es oscuridad y los datos g de pixeles de la entrada se reemplazan por los datos negros BK. La figura 4(A) ilustra una imagen tridimensional de la función H . (x, y). En este ejemplo, el valor (junto con el eje vertical) de la función H-i (x, y) corresponde a un coeficiente de corrección de normalización de luminiscencia 0/1. Debe observarse que la forma plana de la función H . (x, y) no está limitada al círculo R mencionado anteriormente. Junto al círculo, un triángulo, rectángulo (cuadrado), trapezoide u otro polígono o una elipse puede generarse en tiempo real mediante el cálculo realizado poro un circuito aritmético del equipo físico o DSP, etc. Adicionalmente, puede adaptarse una disposición en una pluralidad de fusiones puedan generarse por adelantado y cualquier función se usa de manera selectiva de conformidad con un comando emitido desde la CPU 1. En este caso se ilustra un ejemplo simple en donde el valor de la función Hi (x, y) se vuelve 0/1. Sin embargo, al usar un ROM 38a en la figura 8(A) y figura 9(A), descritas posteriormente, una función H2 (x, y) que tiene cualquier forma complicada y valor de función fácilmente puede generarse en tiempo real. De esta manera se hace posible hacer correcciones a la luminiscencia de una variedad de formas que se aproximan muy cercanamente a lo natural. Adicionalmente, en lugar de emplear un método en donde los datos g de pixeles de la entrada se reemplaza por los datos negros BK, como se muestra en la figura 3(A), se puede concebir un método en donde los datos g de pixeles de la entrada se multiplican por los datos de corrección de luminiscencia h. De conformidad con este método, en la posición de oscuridad los datos g (x, y) de pixeles de la entrada se multiplican por datos de corrección de luminiscencia h . (x, y) = 0, por lo que los datos de imagen g (x, y) de salida se vuelve cero (negro). Adicionalmente, con respecto a la porción iluminada por la antorcha, los datos g (x, y) en pixeles de la entrada se multiplica por los datos de corrección de luminiscencia h . (x, y) = (1 en este ejemplo) por lo que los datos de imagen g (x, y) de salida se vuelve a«g (x, y). En este caso, la luminiscencia se incrementa si a > 1 se mantiene y disminuye si a > 1 se mantiene. La figura 4(B) ilustra una tabla de temporización de la corrección de luminiscencia en la unidad de edición de datos de imagen 10A. Si los datos de imagen corregida HD (Yn) de cierta línea de exploración Yn se observan, se podrá ver que los datos en pixeles negros BK se emiten en el intervalo X = Xi de oscuridad, que los datos g de pixeles de la entrada posteriormente se emiten como en el intervalo X. < X < X2 de transparencia, y que los datos de pixeles negro BK posteriormente se emiten nuevamente en el intervalo X = X2 de oscuridad. La figura 5 es un diagrama que ¡lustra la construcción de la máquina de juego de conformidad con una segunda modalidad. Esto ilustra un caso en donde las imágenes dentro y fuera del área R generadas se muestran claramente (en un estado de foco) mientras las imágenes fuera de esta área se muestran en un estado borroso (fuera de foco). En la figura 5 se muestra una unidad de edición de datos de imagen 10B de conformidad con la segunda modalidad, una cámara 11 de televisión (CCD) que puede crear imágenes de las áreas circundantes de la vista del usuario, y un detector de punto de fijación 12 para detectar la posición del punto de fijación del usuario en la pantalla 71. Otros componentes son los mismos que aquellos descritos junto con la figura 2. En este caso se ¡lustra una escena de un juego de golf. En la memoria de encuadre 51 se almacena datos de imagen de fondo que representan un campo de golf. El fondo incluye imágenes tales como el césped que rodea al hoyo funcionando como objetivo, un agujero en el centro del césped, una bandera colocada sobre el césped que rodea al hoyo, una colina, arbustos y obstáculos circundando el césped que rodea al hoyo. La imagen de una pelota de gol que será golpeada (controlada) por el usuario se almacena en la memoria de encuadre 52. En esta escena el objeto de interés del usuario es un punto sobre el césped que rodea al hoyo en la distancia, y la distancia hacia el césped que rodea al hoyo y la inclinación de la pendiente y el camino son sólo imaginarios. Adicionalmente, de conformidad con esta escena, la imagen de una escala para estimar la distancia hacia el césped que rodea al hoyo y la inclinación se llamará mientras avanza el juego, y la imagen de la escala se desarrolla de tal manera que se sobrepone en la memoria de encuadre 52 temporalmente. Bajo estas condiciones, las imágenes de ambos ojos del usuario frente a la pantalla se leen a través de la cámara CCD 11 y entran al detector de punto de fijación 12 de vez en cuando. AI analizar las imágenes de ambos ojos, el detector de punto de fijación 12 genera las coordenadas P (x, y) del punto de fijación del usuario sobre la pantalla de visualización 61 y entra las coordenadas a la CPU 1. Basándose en la información de operación de juego (escena), la CPU 1 detecta la cercanía del punto de fijación P (x, y) que en ese momento está siendo observada por el usuario que incluye el césped que rodea al hoyo, que es un elemento importante en términos de avance en el juego, y juzga que el punto de fijación del usuario está en el agujero sobre el césped que rodea al hoyo a través de un método determinado por el juego por adelantado. Como respuesta, la CPU 1 calcula las coordenadas Q (x, y) del agujero y entra estas coordenadas hacia la unidad de edición de datos de imagen 10B. En la base de las coordenadas Q (x, y) del agujero desde la CPU 1 y la dirección de visualización (x, y) desde el controlador de visualización 8, la unidad de edición de datos de imagen 10B genera la función predeterminada H2 (x, y) como referencia, de esta manera se aplica una corrección (edición) a los datos de fondo PD1 de la memoria de encuadre 51 y los datos de imagen corregida HD se emiten. El sintetizador de datos de imagen 6 combina los datos de imagen PD2 de la memoria de encuadre 52 con los datos de imagen HD emitidos desde la unidad de edición de datos 10B y emite los datos combinados CD a la unidad de visualización 7. Como resultado, la imagen de la cercanía del agujero (la imagen dentro del área R) estando observadas por el usuario se muestra claramente sobre la pantalla de visualízación 71 , mientras la parte externa de la imagen (fuera del área R) (los obstáculos circundantes, la pelota de gol enfrente, etc.) se muestra borrosa. Debe observarse que cuando el usuario fija la vista sobre la parte inferior de la pantalla de visualización 71 , la CPU 1 juzga, con base en las coordenadas detectadas P (x, y) de este punto de fijación, que el usuario está observando la pelota de gol y emite las coordenadas de la pelota de golf Q (x, y). Como resultado, la imagen de la cercanía de la pelota de golf (la imagen dentro del área R) siendo observada por el usuario se emite claramente en la pantalla de visualización 71 , mientras la parte externa de la imagen (cerca del agujero, etc.) se muestra borrosa. Lo anterior expresa circunstancias más reales similares a las que experimenta el usuario en un juego de golf real [es decir, circunstancias en donde la imagen de la cercanía del punto de fijación aparece clara a la vista mientras otras imágenes aparecen (se sienten) borrosas]. Esto mejora en gran medida la realidad del juego. Diversos métodos para detectar la dirección del punto de fijación de la visión humana que ya se conocen involucran usar lentes de objetivo especial, y capturar por uno o dos o más elementos receptores de luz, el hecho de que uno o más rayos de luz de una longitud de onda específica (infrarroja, etc.) emitidas hacia la pupila dentro de los lentes se reflejan en una dirección correspondiente de conformidad con la dirección de línea de la visión de la pupila, en donde la línea de visión de la pupila puede detectarse de manera precisa. Esto sucede sin mencionar que diversos métodos ya conocidos (aparato) puede utilizarse en la segunda modalidad también. Sin embargo, la segunda modalidad tomando en consideración que no se requiere una alta presión de los medios de detección de la línea de visión debido a que las coordenadas Q (x, y) de un objeto específico involucrado en el juego de puede estar determinado desde las coordenadas P (x, y) del punto de fijación general, y el hecho de que no deseable el uso de unos lentes para propósito especial o anteojos generalmente, se describirá un método de detección de punto de fijación simple que utiliza una cámara de televisión estacionaria pequeña (CCD) que cada vez es más común. La figura 6 es un diagrama para describir la operación de un detector de un punto de fijación de conformidad con la segunda modalidad. La figura 6 (e) ¡lustra las imágenes de ambos ojos cuando el usuario observa el centro de la pantalla de visualización 71. Al desplegar un mensaje o imagen que el usuario observará en el centro de la pantalla 71 como cuando inicia el juego, es posible dirigir los ojos del usuario fácilmente hacia el centro de la pantalla.
Cuando se observa en términos de la imagen capturada por la cámara CCD 11 , el ojo izquierdo L del usuario aparece en el lado derecho y el ojo derecho R del usuario aparece en el lado izquierdo de la figura 6. La descripción que sigue se relaciona a esta relación. En primer lugar, los párpados inferior y superior 21 , 22, los irises 23 y pupilas 24 se identifican al aplicar un análisis de imagen fundamental ya conocido a los datos de imagen de ambos ojos, e información característica con relación a la dirección de línea de edición del usuario se extrae desde los puntos identificados. Debe observarse que aunque la pupila se encuentra dentro del iris (azul o café, etc.), la pupila puede identificarse debido a que su color es más oscuro (negro, etc.). En caso de presentarse alguna dificultad al identificar la pupila, un patrón circular del mismo tamaño que el iris se generará de manera sobrepuesta sobre la porción del iris y el centro de este circulo pude encontrarse y construirse como la pupila. En general, el iris humano claramente limita el área blanca del ojo de los lados izquierdo y derecho, y el iris con frecuencia se mueve de lado a lado. Esto hace posible detectar la dirección izquierda-derecha con facilidad por comparación. Por otro lado, el ojo humano no se mueve hacia arriba y hacia abajo con frecuencia. Existe una tendencia de que el párpado superior 21 se abra hacia arriba cuando la persona vea hacia arriba y el párpado superior 21 se cierre hacia abajo cuando la persona vea hacia abajo. De esta manera, el grado de abertura entre los párpados superior e inferior pueden usarse como un solo criterio.
De esta manera, ventana rectangulares izquierda y derecha W? y Wr que incluyen los párpados inferior e inferior 21 , 22 se generan y la altura Hm de las ventanas cuando el usuario está viendo hacia el centro de la pantalla 71 se toman como un indicativo de referencia del grado de abertura del párpado. En este caso, si ambos ojos se abren ai mismo grado, el valor promedio puede tomarse como la altura Hm. Si ambos ojos no se abren en el mismo grado, el punto de fijación puede estar detectado con base en el análisis meramente del ojo izquierdo o derecho. Adicionalmente, las coordenadas de los iris 24 (o los centros de las pupilas 23) dentro de las ventanas izquierda y derecha W?, Wr se encuentran y adoptan como coordenadas de referencia L, R en dirección izquierda-derecha. A pesar del tamaño del ojo, la distancia entre los ojos izquierdo y derecho y el grado de la abertura del párpado varía de persona a persona, el procedimiento descrito anteriormente elimina tales diferencias individuales y provee una referencia aceptable. La figura 6(f) muestra una imagen obtenida cuando el usuario ve hacia la derecha del centro de la pantalla. En este caso, el grado de abertura Hm de los párpados no cambia mucho y las posiciones 1 , r de las pupilas 24 se han movido hacia la derecha. De esta manera, con base en la determinación de que hm -. Hm se mantiene y que 1 > L y/o r > R se mantiene, puede discriminares que el usuario ve hacia la derecha del centro de la pantalla 71. De manera alternativa, las coordenadas P(x, y) del punto de fijación general de la pantalla 71 se obtienen como se incida a continuación. Específicamente, la coordenada X del punto de fijación sobre la pantalla es x = Xm + ß (1 - L) ó x = xm + ß (r-R) y la coordenada Y es Y = ym. En donde (xm, ym) representa las coordenadas del centro de la pantalla 71 y ß es un coeficiente para alargar el microdesplazamiento (1-L) o (r-R) de las pupilas 24 hacia la posición del punto de fijación sobre la pantalla. Cuando el usuario ve a la derecha, la pupila 24 del ojo izquierdo (R en término de imagen) tiende a moverse hacia la derecha en una gran cantidad. Cuando la coordenada X x = xm + ß (r-R) se emplea, entonces, puede decirse que la sensibilidad es buena. La figura 6(d) muestra una imagen obtenida cuando el usuario ve a la izquierda del centro de la pantalla. Esto se considera lo contrario a la figura 6(f). Cuando el usuario ve a la izquierda, la pupila 24 del ojo derecho (L en términos de imagen) tiende a moverse a la izquierda en gran medida. Cuando la coordenada X x = xm + ß (1-L) se emplea, entonces, puede decirse que la sensibilidad es buena. La figura 6(b) muestra una imagen obtenida cuando el usuario ve sobre el centro de la pantalla. En este caso el grado de abertura de los párpados satisface la relación hm > Hm y las coordenadas horizontales de las pupilas 24 satisfacen las relaciones L N 1 y/o R =. r. Puede discriminares, por lo tanto, que el usuario está viendo al centro de la pantalla. Alternativamente, las coordenadas P (x, y) del punto de fijación se obtienen de conformidad con la coordenada X x = xm y la coordenada Y y = ym + ? (hm-Hm). Aquí, ? es un coeficiente para alargar el microdesplazamiento (hm-Hm) del grado de abertura de los párpados 21 , 22 a la posición del punto de fijación sobre la pantalla. La figura 6(h) muestra una imagen obtenida cuando el usuario ve por debajo del centro de la pantalla. Esto se considera que es lo contrario a la figura 6(b). En virtud de las combinaciones descritas anteriormente, es posible discriminar cada área de punto de fijación general cuando el usuario ve hacia la parte superior izquierda (a), superior derecha (c), inferior izquierda (g) o inferior derecha (i) de la pantalla 71. Alternativamente, se encuentran las coordenadas P (x, y) de cada punto de fijación. En este caso, la coordenada X del punto de fijación es X = xm ± ?x y la coordenada Y es y = ym ± ?y. La figura 7 es un diagrama de flujo del procedimiento detección de punto de fijación de conformidad con la segunda modalidad. Las entradas se hacen a este procedimiento según sea adecuado durante la ejecución del juego. Los datos de imagen de las áreas unidas por los párpados superior e inferior 21 , 22 de los ojos izquierdo y derecho se extraen en el paso S1. La identificación de los párpados superior e inferior, 21 , 22, irises 23 y pupilas 24 pueden llevarse a cabo sometiendo los datos de imagen a un procedimiento detección de borde y un patrón de procedimiento de reconocimiento, etc. ya conocidos. Las ventanas rectangulares más pequeñas W?, Wr que incluyen los párpados superior e inferior 21 , 22 se generan en el paso S2. Las alturas h?, hr de las ventanas rectangulares W?, Wr se obtienen en el paso S3. Las coordenadas horizontales X?, xr de las pupilas 24 (o los centros de los irises 23) en las ventanas rectangulares W|, Wr se detectan en el paso S4. Debe observarse que los irises 23 no pueden interpretarse por completo cuando los párpados 21 , 22 están medio abiertos. En este caso, al aplicar un procedimiento de comparación y selección de imagen ya conocido a las porciones visibles (semicírculos, etc.) de los irises, patrones circulares de tamaño idéntico se comparan y seleccionan por patrón con respecto a los irises 23 y los centros de los patrones circulares en tal momento pueden observarse como las pupilas 24. El procedimiento se ramifica en el paso S5 dependiendo de si el modo de ejecución del juego es un modo de referencia. Por ejemplo, cuando el usuario está obligado a ver el centro de la pantalla 71 es cuando el juego inicia, tal modo es un modo de referencia. En este caso el control continúa en el paso S6, en donde las alturas h?, hr de las ventanas rectangulares W|, Wr se adoptan como las longitudes de abertura Hm (H?, Hr) de los párpados. Las coordenadas horizontales x?, xr de las pupilas 24 (o los centros de los irises 23) se adoptan como coordenadas horizontales de referencia X?, Xr en el paso S7. Si la determinación hecha en el paso S5 es que el modo no es el modo de referencia, el control continúa con el paso S8, en donde el desplazamiento ?h| = h? - H|, ?hr = hr - Hr de las aberturas de los párpados se obtienen. Los desplazamientos ?xi = x? - X?, ?xr = xr - Xr de las pupilas (o centros de los irises 23) se obtienen en el paso S9. Las coordenadas P (x, y) del punto de fijación en la pantalla 71 se obtienen en el paso S10. También puede disponerse de manera tal que cualquiera de las nueve áreas en las que la pantalla 71 se ha dividido pueda obtenerse. Las figuras 8 y 9 son diagramas (1), (2), para describir la unidad de edición de datos de imagen de conformidad con la segunda modalidad. La figura 8(A) es un diagrama de bloques de la unidad de edición de datos de imagen. En la figura 8 se muestra la unidad de datos de imagen 10B de conformidad con la segunda modalidad, los procesadores de filtro de datos de imagen 31a - 31c, una memoria intermedia de datos de imagen en línea LB2, un generador de corrección de función 38 para generar un área de corrección R e intensidad de corrección en la pantalla de visualización 71 , un sumador (+), y un ROM 38a en donde los datos de corrección-intensidad (señal de selección) SL se han registrado en una posición correspondiente una entrada de dirección (X', Y') por adelantado. Los procesadores de filtro 31 , cada uno generan datos de imagen corregida hg tomando la media tomada de, por ejemplo, nueve pixeles inclusive de un pixel central de interés con respecto a los datos de imagen g' de la entrada. Una matriz de computación (característica de filtro), que es un ejemplo del filtro 31b, se muestra en el diagrama inserto (a). Si el pixel de interés es el pixel de la segunda fila y la segunda columna, la media tomada de los ocho pixeles circundantes se toman y adopta como los datos de hgb en pixeles del pixel de interés. Un ejemplo del cálculo del pixel de interés es 0.44, y el total de cálculos de los ocho pixeles circundantes es 0.56. La luminiscencia y el color del pixel hgb de interés están influidos y se traducen con una diferencia menor por los ocho pixeles circundantes dependiendo de la combinación de los cálculos. El procesador de filtración 31c tiene una importante característica fuera de foco. Esto es, el cálculo del pixel de interés es menor de 0.44 y el total de los cálculos de los ocho pixeles circundantes es mayor que 0.56. El procesador de filtración 31a, mientras tanto, tiene una característica débil fuera de foco, esto es, el cálculo del pixel de interés es mayor de 0.44 y el total de los cálculos de los ocho pixeles circundantes es menor de 0.56. Como resultado de tomar el valor promedio de nueve pixeles por el procesador de filtración 31 , es necesario leer previamente por lo menos una línea y pixel de datos g' de imagen desde la memoria de encuadre 51 de la etapa precedente hacia los procesadores de filtro 31. La línea de memoria media LB2 está provista para mitigar la diferencia de fase entre la entrada y la emisión. La figura 8 (B) ilustra una imagen bidimensional de la función H2( , y) generada por el generador de función de corrección 38. Si la dirección de la línea de exploración se explora de manera satisfactoria en dirección de las filas Y y columnas X, entonces la dirección del ROM 38a se explorará de manera satisfactoria en la dirección de las filas Y' y columnas X' en sincronía con ei exploración de la dirección de la línea de exploración. Asumiendo que el tamaño de dirección de ROM 38a es (Xm', Ym') y las coordenadas del objetivo (punto de fijación) en la pantalla 71 son Q(x, y), entonces la dirección de inicio de acceso del ROM 38a es Yb = y - (Ym'/2), la dirección de acceso de orden bajo por lo tanto es Xb = x - (Xm'/2), la dirección de exploración de orden alto del ROM 38a es Y' = Y - Y y la dirección de exploración de orden bajo por lo tanto es X' = X - Xb. Un ejemplo de la operación se describirá usando valores numéricos específicos. Asumiendo que el tamaño de dirección (Xm, Ym) de una línea de exploración es igual a (200, 150), el tamaño de dirección (Xm', Ym') de ROM 38a es igual a (50, 50) y las coordenadas Q(x, y) son (100, 30), la dirección de inicio de acceso de orden alto de ROM 38a será Yb = 30 - 25 = 5 y la dirección de acceso de orden bajo por lo tanto será X = 100 - 25 = 75. Adicionalmente, la dirección de exploración de orden alto de ROM 38a es la relación Y' = Y - 5 y la dirección de exploración de orden bajo por lo tanto es la relación X' = X - 75. Si bajo estas condiciones la dirección de exploración (X, Y) de cierto fragmento inicia de (0, 0), entonces, con respecto al eje Y' de ROM 38a, el acceso de orden alto de ROM 38a inicia desde Y' = 0 cuando la dirección de exploración Y se hace Y = 5, y cada punto de datos de corrección SL de la línea final se lee desde Y' = 49 cuando la dirección de exploración Y se vuelve Y = 54. Adicionalmente, con respecto al eje X', el acceso de orden bajo de ROM 38a inicia desde X' = 0 cuando la dirección de exploración X se vuelve X = 75, en cada punto de datos de corrección SL de la columna final se extrae desde X' = 49 cuando la dirección de exploración X se hace X = 124.
Debe observarse que el ROM 38a proporciona los datos de emisión SL = 0 en caso de una entrada a la dirección diferente de la del área unida por 0 = X' = 49 y 0 = Y' = 49. En general, se recomienda que Xm ? Y anterior para el tamaño de dirección de ROM 38a. De esta manera, sólo designando libremente las coordenadas Q(x, y) externamente, el área de salida de lectura (Xm', Ym') de ROM 38a fácilmente puede aplicarse a cualquier posición (incluso en el caso de que una porción emerja del área) sobre la pantalla de visualización 71. La figura 9(A) ilustra una imagen tridimensional de la función H2(x, y). En este caso, el eje vertical indica una intensidad fuera de foco. Los datos de salida de lectura SL = 0 de ROM 38a están correlacionados con la intensidad fuera de foco 3 de un tercer nivel (máximo) por el selector 34. Los datos de imagen hgc después de la corrección de filtración se eligen dentro de este intervalo. Los datos de salida de lectura SL cuando el ROM 38a no entran adecuadamente (es decir, cuando la entrada está fuera del área de acceso de ROM 38a) es SL = 0. En este caso también los datos de imagen hgc después de la corrección de filtros se seleccionan. Adicíonalmente, los datos de lectura SL = 1 del ROM 38a están correlacionados con una intensidad fuera de foco 2 de un segundo nivel por el selector 34. Los datos de imagen hgb después de la corrección de filtro se eligen dentro de este intervalo. Adicíonalmente, los datos de salida de lectura SL=2 del ROM 38a están correlacionados con una intensidad fuera de foco 1 de un primer nivel (más débil) por el selector 34. Datos de imagen hga después de la corrección de filtración se eligen dentro de este intervalo. Adicíonalmente, los datos de lectura SL=3 de ROM 38a están correlacionados con una intensidad fuera de foco 0 (sin estar fuera de foco) por el selector 34. Los datos g del pixel de interés de la entrada se eligen como están dentro de este intervalo. De esta manera, una imagen que tiene un contraste diferente en la periferia de las coordenadas Q(x, y) y en donde sale de foco gradualmente mientras la distancia de estas coordenadas aumenta puede generarse en tiempo real con facilidad. Demás, ya que la función H2(x, y) con un área de cualquier forma y valor numérico puede almacenarse en ROM 38a previamente, las correcciones fuera de foco de diversas formas que se acercan más a la naturaleza pueden llevarse acabo. Debe observarse que un RAM 38a puede usarse en lugar de ROM 38a. En tal caso la información de función con relación a diversas formas y valores numéricos de área se almacenarán en RAM 38a y se usarán cuando sea conveniente según avance el juego. En este caso, el área no estará limitada a uno. Por ejemplo, proveyendo un RAM 38a grande, dos o más áreas pueden generarse de manera simultánea. Este punto se mantiene de manera similar para ROM 38a. Adicionalmente, aunque se dé el caso en donde la función generada H2(x, y) y los procesadores de filtración 31 para realizar la corrección fuera de foco de los datos de imagen están asociados operativamente se han descrito, la invención no está limitada a esta disposición. Por ejemplo, la imagen dentro del área R puede agrandarse o reducirse como lo hace un efecto de lente, la brillantez o el color de la imagen pueden cambiar y la imagen puede girar o salir de su posición. Por lo tanto, la unión con otras operaciones de procesamiento de imagen son posibles. La figura 9 (B) ilustra una tabla de temporización de la corrección fuera de foco realizada en la unidad de edición de datos de imagen 10B. Si los datos de imagen corregidos HD(Yn) de cierta línea de exploración Yn se observa, se observará que los datos hgc en pixeles que se han sometido al procesamiento de filtración se emiten en el intervalo externo X = X , que los datos g de pixeles de la entrada se emiten mientras el grado fuera de foco disminuye gradualmente, y posteriormente se emiten como son, y el intervalo Xb < X < Xe, y que los datos de pixeles filtrados hgc posteriormente se emiten nuevamente en el intervalo externo X = Xe. La figura 10 es un diagrama que ilustra la construcción de la máquina de juego de conformidad con una tercera modalidad. Esto ilustra un caso en donde se procesan datos de imagen CG 3D. En la figura 10 se muestra un procesador de clasificación 13 ya conocido y una unidad de edición de datos de imagen 10C de conformidad con la tercera modalidad. Otros componentes son los mismos que los descritos junto con la figura 5. Se ilustra una escena de un juego de guerra basado en aviones de combate. Cuando avanza el juego, la CPU 1 lee los datos del modelo 3D CG 3DMD fuera de la memoria externa 4 sucesivamente y entra los datos hacia el procesador de clasificación 13.
La figura 11 es un diagrama para describir la operación del procesador en la tercera modalidad. Usando las coordenadas de referencia A'(x, y, z), B'(x, y, z) de ios aviones de combate A', B' en el espacio 3D como una referencia, el procesador de clasificación 13 desarrolla las imágenes 3D de los aviones de combate A', B' en un espacio virtual con base en los datos del modelo de forma común con respecto a los aviones de combate. Los aviones de combate A', B' en un espacio 3D tienen la misma dimensión. El procesador de clasificación 13 adicionalmente genera imágenes 2D, que se despliegan en la pantalla 71 , sometiendo las imágenes 3D de los aviones de combate A', B' a una transformación de perspectiva con relación a los ojos L, R del usuario. Los aviones de combate A, B de estas imágenes 2D comprenden únicamente datos de pixel de las porciones que pueden observarse desde el lado del usuario y constituyen las imágenes de los aviones de combate A, B que dan la impresión de estar alejados (es decir con tamaño diferente) de conformidad con la distancia desde el usuario. La imagen de un avión de combate C en la distancia está dibujado en tamaño un pequeño sobre la pantalla 71. La figura 12 es un diagrama que muestra la construcción de la unidad de edición de datos de imagen de conformidad con la tercera modalidad. En la figura 12 se muestra la unidad de edición de datos de imagen 10C de conformidad con la tercera modalidad, un discriminador Z 35 para realizar la discriminación de área a lo largo del eje Z en el espacio 3D, y un generador de parámetro 37C. Otros componentes son similares a los que se muestran en la figura 8 (A). Los datos g' de pixeles que se han sometido a una sometido a una transformación en perspectiva a 2D y datos de profundidad z' representando las coordenadas del eje z' de los datos g' de pixel en el espacio 3D entran a la unidad de edición de datos de imagen 10 desde el procesador de clasificación 13 de la etapa precedente. De manera similar a la de la segunda modalidad descrita anteriormente, los datos g' de pixel se someten a tipos plurales de procesamiento de filtración y a procesamientos de no-filtración (el procesamiento de retardo con base en la memoria intermedia de línea LB2) en paralelo. Por otro lado, los datos de profundidad de entrada z' se someten a un retardo por una memoria intermedia de línea LB1 para acoplar la fase de procesamiento a los datos g de imagen, y los datos resultantes se adoptan como datos de profundidad z. La descripción continuará en los siguientes párrafos usando la fase de ambos puntos de datos g, z como referencia. Con referencia nuevamente a la figura 10, y asumiendo que el usuario está observando el avión de combate B en el centro de la pantalla, el detector de punto de fijación 12 genera las coordenadas P(x, y) del punto de fijación del usuario sobre la pantalla con base en los datos de imagen de ambos ojos desde la cámara CCD 11 y accesa las coordenadas a la CPU 1. La CPU 1 envía las coordenadas P(x, y) al procesador de clasificación 13 y solicita una búsqueda del objeto (elemento principal que constituye el juego) siendo observado por el usuario.
El procesador de clasificación 13 investiga la imagen 2D en el área cercana de las coordenadas P(x, y), determina si toda o una parte del objeto está contenida en esta área y, en este ejemplo, detecta que parte del avión de combate B está contenida en esta área. El procesador de clasificación 13 posteriormente extrae las coordenadas de referencia B(x, y) del avión de combate B en la pantalla, ejecuta el procesamiento que es a la inversa de la transformación de perspectiva descrita anteriormente con base en estas coordenadas y finalmente extrae las coordenadas de referencia B' (x, y, z) del avión de combate B' en el espacio 3D. El procesador de clasificación 13 posteriormente envía las coordenadas de referencia B(x, y) del avión de combate B en la pantalla 2D y las coordenadas de referencia del eje Z B'(z) del avión de combate B' hacia la CPU 1. Al recibir estas coordenadas, la CPU 1 accesa las coordenadas B(x, y), B'(z) hacia la unidad de edición de datos de imagen 10C. En la figura 12, el generador de parámetro 37 genera los parámetros necesarios con base en las coordenadas 2D B(x, y) de la entrada. Esto es, el generador de parámetro 37 obtiene la dirección de inicio de acceso de orden alto Yb = y - (Ym'/2) y la dirección de inicio de acceso de orden bajo Xb = x - (Xm'/s) de ROM 38a. Adicionalmente, con base en la coordenada B' (z)3D de la entrada, el generador de parámetro 37 obtiene un valor de tolerancia de limite inferior z. = z -?z y un valor de tolerancia de limite superior z2 = z +?x a lo largo del eje Z para discriminar un área de eje Z en el espacio 3D. El tamaño de memoria (Xm', Ym') de ROM 38a y el parámetro de profundidad ?z con respecto al eje Z ya se conocen en el generador de parámetro 37. Debe observarse que una disposición puede adoptarse en donde el parámetro de profundidad ?z se provee por la CPU 1. Los comparadores CMP2, 3 en el discriminador Z 35 comparan los datos de profundidad z correspondientes a cada punto de los datos g de pixel dentro de los valores de tolerancia z-i, z2. Cuando la relación z.< z < z2 se mantiene, la condición de la compuerta Y A1 se satisface, momento en el cual esta compuerta Y emite una señal de activación E = 1 para activar un circuito A3 de compuerta Y (que comprende una pluralidad de compuertas Y), que se describen posteriormente. Mientras tanto, la señal de selección SL emitida desde el generador de función de conexión 38 sale por la señal de activación E en el circuito A3de compuerta Y. Se aplica una señal de selección SL valida al selector de datos 34 cuando la señal de activación E=1 se mantiene. De esta manera, el selector 34 normalmente selecciona los datos hgc de pixel que se encuentran más fuera de foco, lo que la salida de datos del procesador de filtración 31c. Sin embargo, con respecto a los datos de pixel para los que la dirección de exploración X, Y se encuentran dentro del área de lectura de salida de ROM 38a y el discrimínador Z 35 discrimina para encontrarse dentro del área Z preescrita, el selector, de conformidad con la señal de selección GL emitida por Rom 38a, elige y emite cualquiera de los puntos de los datos de pixel desde los datos de pixel hg , que son que se encuentran más fuera de foco en segundo lugar, y los datos g de píxel originales.
La figura 13 es un diagrama de imagen que muestra la operación de la unidad de edición de datos de imagen 10C en la tercera modalidad. Las coordenadas de referencia B(x, y) del avión de combate B en la pantalla y la coordenada Z B' (z) del avión de combate B' en el espacio 13 se extrajeron en la etapa precedente, descrita anteriormente, con base en las coordenadas P(x, y) del punto de fijación del usuario. El generador de función de corrección 38 en la unidad de edición de datos de imagen 10 C genera la función de corrección H2(x, y) que tiene una forma indicada por el área plana R con base en las coordenadas B (x, y) 2D de la entrada. El área plana R está correlacionada con el espacio 3D mediante una transformación de perspectiva y por lo tanto tiene las propiedades de un cono (ángulo de visión fijo) en donde a mayor profundidad a lo largo del eje z, será mayor el área R. Mientras tanto, el discriminador Z 35 señala un área espacial f del tipo que se ilustra cortando el área del cono, que se extiende en este espacio 3D, a los valores de tolerancia del eje Z z., z2 al frente y en la parte posterior del avión de combate B'. Como resultado, la imagen (avión de combate B) dentro del área espacial f se muestra claramente (enfocado), y las imágenes (aviones de combate A y C) fuera del área espacial f se muestran en un estado borroso (fuera de foco). En este ejemplo, parte (la nariz) del avión de combate A cae dentro del área R de la pantalla. Sin embargo, ya que cada punto de los datos de píxel (g, z) de esta porción no satisface la condición z. < z < z2, este avión de combate se muestra en estado fuera de foco incluso aunque caiga dentro del área R 2D. Esto concuerda cercanamente con el área clara de visión (enfocado) cuando el usuario en realidad ve a un punto (avión de combate B') en el espacio 3D. Específicamente, el área del usuario de visión clara se amplía en el espacio 3D en un ángulo fijo de visión y una imagen en una escala Zi = z = z2 usualmente se encuentra en un foco claro con relación a la profundidad. Sin embargo, con respecto a las imágenes en las escalas z < z., z > z2, los ojos salen de foco y las imágenes aparecen (se perciben como) borrosas. Aunque la descripción anterior utiliza las coordenadas detectadas P (x, y) del punto de fijación del usuario, es posible un caso en donde, dependiendo del juego, el usuario bloquee un dispositivo de apuntar (cursor, etc.) que se manipula en la pantalla 71 , sobre un objetivo (avión de combate B). En este caso es posible usar las coordenadas E (x, y) del dispositivo de apuntar (cursor, etc.) en la pantalla en lugar de las coordenadas detectadas P (x, y) del punto de fijación. En tal caso, la cámara CCD 11 y el detector de punto de fijación 12 pueden eliminarse. En cada una de las modalidades descritas se describe un ejemplo en donde la invención se aplica a una máquina de juego ordinaria usada individualmente. Sin embargo, la presente invención también aplica a una máquina de juego ¡mplementada por una computadora personal o similar, así como una máquina de juego instalada en un lugar de juegos o similar. En tal caso se puede decir que la invención también aplica a un automóvil de carreras, juego de tiro, juego de aventuras, juego por turnos u otros tipos de juegos. Adicionalmente, en cada una de las modalidades anteriores se describe un ejemplo en donde la invención se aplica a una unidad de visualización (incluso a una televisión, etc.). Sin embargo, la presente invención aplica también a una unidad de salida de datos como una impresora o máquina de facsímil. Adicionalmente, los datos de imagen no se limitan a los datos de imagen CG con base en gráficos de computadora, ia invención también puede aplicarse a datos de imagen que serán leídos por un explorador (escáner) o una cámara de t.v. Aunque se describió en los párrafos anteriores una pluralidad de modalidades preferidas de la presente invención, pude decirse que los componentes, control y combinaciones de la misma pueden modificarse de diversas maneras sin separarse del espíritu y alcance de la presente invención. De esta manera, de conformidad con la presente invención, como se describió anteriormente, los datos de imagen en un área deseada dentro de una imagen de emisión pueden someterse a un procesamiento de imagen de manera deseada mediante una simple disposición en donde el procesamiento de imagen de los datos g de salida de imagen correspondientes se ejecutan en tiempo real de conformidad con el valor de una función H (x, y) generada en una posición deseada en sincronía con el control de lectura de salida XY de los datos de imagen.

Claims (7)

NOVEDAD DE LA INVENCIÓN REIVINDICACIONES
1.- Un aparato de salida de datos de imagen que comprende: una memoria para almacenar datos de imagen; un generador de función que, en sincronía con el control para extraer dichos datos de imagen hacia un plano XY de emisión, genera una función predeterminada H(x, y) en una posición deseada en el espacio de dirección XY; y un procesador de datos de imagen en donde, con base al valor de dicha función H(x, y), se someten los datos de imagen de salida de un espacio de dirección correspondiente hacia el procesamiento de imagen que corresponde al valor de dicha función.
2.- El aparato de salida de datos de imagen de conformidad con la reivindicación 1 , caracterizado además porque los datos de imagen son datos de imagen de una imagen obtenida al someter una imagen en un espacio tridimensional a una transformación en perspectiva con relación al plano XY de salida.
3.- Un aparato de salida de datos de imagen de conformidad con la reivindicación 1 ó 2, caracterizado además porque la función H (x, y) se genera usando coordenadas de entrada externamente Q (x, y) en el plano XY de salida como referencia.
4.- El aparato de salida de datos de imagen de conformidad con la reivindicación 3, caracterizado además porque las coordenadas Q (x, y) son coordenadas detectadas P (x, y) de un punto de fijación de la visión con respecto al plano XY de salida.
5.- El aparato de salida de datos de imagen de conformidad con la reivindicación 3, caracterizado además porque las coordenadas Q, (x, y) son coordenadas C (x, y) de un punto designado por medios de entrada de posición externa.
6.- El aparato de salida de datos de imagen de conformidad con la reivindicación 3, caracterizado además porque las coordenadas Q (x, y) son coordenadas M (x, y) de un punto de referencia que representa una imagen específica, toda o una parte de la cual está contenida en un área cercana a las coordenadas detectadas P (x, y) del punto de fijación descrito en la reivindicación 4 o las coordenadas C (x, y) del punto designado descrito en la reivindicación 5.
7.- El aparato de salida de datos de imagen de conformidad con la reivindicación 2, caracterizado además porque los datos de imagen de salida están acompañados por datos de profundidad que representan la profundidad a lo largo del eje Z en un espacio tridimensional de los datos de imagen, y el procesador de datos de imagen aplica un procesamiento de imagen, que se adecúa al valor de la función, a los datos de imagen de salida correspondientes en la condición de que dichos datos de profundidad se encuentran dentro de los límites predeterminados a lo largo del eje Z.
MXPA/A/2000/006341A 1997-12-25 2000-06-23 Aparato de salida de datos de imagen MXPA00006341A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9/358201 1997-12-25

Publications (1)

Publication Number Publication Date
MXPA00006341A true MXPA00006341A (es) 2002-02-26

Family

ID=

Similar Documents

Publication Publication Date Title
US7176945B2 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US6361438B1 (en) Video game transparency control system for images
US8956227B2 (en) Storage medium recording image processing program, image processing device, image processing system and image processing method
KR100439931B1 (ko) 가상화상생성장치및그방법
US6400364B1 (en) Image processing system
US20050049047A1 (en) Game system in which a field of view is displayed according to a specific view point position
US6831656B2 (en) Game system and computer readable storage medium storing game program
JP3442270B2 (ja) 画像生成装置及び情報記憶媒体
WO2017056892A1 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP2024032826A (ja) 情報処理装置、情報処理方法、及びプログラム
JP3413129B2 (ja) 画像処理方法及び画像処理装置
JP3554477B2 (ja) 画像編集装置
KR100320053B1 (ko) 게임기 및 게임기에서의 화상 처리 방법
US7277583B2 (en) Game software and game machine
JPH11195131A (ja) 仮想現実方法及び装置並びに記憶媒体
MXPA00006341A (es) Aparato de salida de datos de imagen
JPH10334274A (ja) 仮想現実方法及び装置並びに記憶媒体
JPH11328437A (ja) ゲ―ム機及びゲ―ム機における画像処理方法
JPH0955959A (ja) 画像表示装置
KR0181037B1 (ko) 고속 레이 트레이싱 방법
KR101957417B1 (ko) 실사이미지 디스플레이 방식의 동작인식 컨트롤 시스템 및 방법
JP2024008006A (ja) 画像処理装置、表示装置、画像処理方法、およびプログラム
JP2002150310A (ja) ゲーム装置および情報記憶媒体