ES2545660T3 - Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información - Google Patents

Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información Download PDF

Info

Publication number
ES2545660T3
ES2545660T3 ES12824893.7T ES12824893T ES2545660T3 ES 2545660 T3 ES2545660 T3 ES 2545660T3 ES 12824893 T ES12824893 T ES 12824893T ES 2545660 T3 ES2545660 T3 ES 2545660T3
Authority
ES
Spain
Prior art keywords
determination
information
objects
user
basis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12824893.7T
Other languages
English (en)
Inventor
Seiichi Takeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of ES2545660T3 publication Critical patent/ES2545660T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • G06Q30/0629Directed, with specific intent or strategy for generating comparisons

Abstract

Un dispositivo de procesamiento de información (10), que comprende: unos medios de control de presentación visual (52) que están configurados para presentar visualmente una pantalla que incluye una pluralidad de objetos en unos medios de presentación visual; unos medios de obtención de resultado de detección (54) que están configurados para obtener un resultado de detección mediante unos medios de detección capaces de detectar una pluralidad de posiciones en la pantalla que son designadas por un usuario; unos medios de determinación (56) que están configurados para determinar si una primera posición designada del usuario que se obtiene mediante los medios de obtención de resultado de detección (54) está incluida o no en un área de determinación que se establece sobre la base de una posición de un primer objeto de entre la pluralidad de objetos y que están configurados para determinar si una segunda posición designada del usuario que se obtiene mediante los medios de obtención de resultado de detección (54) está incluida o no en un área de determinación que se establece sobre la base de una posición de un segundo objeto de entre la pluralidad de objetos; unos medios de movimiento de objetos (58) que están configurados para ejecutar por lo menos uno de un procesamiento para mover el primer objeto de acuerdo con el movimiento de la primera posición designada en un caso en el que se determina por los medios de determinación que la primera posición designada está incluida en el área de determinación que se establece sobre la base de la posición del primer objeto, y un procesamiento para mover el segundo objeto de acuerdo con el movimiento de la segunda posición designada en un caso en el que se determina por los medios de determinación que la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto; unos medios de determinación de colisión (60), en un caso en el que por lo menos uno del primer objeto y el segundo objeto es movido por los medios de movimiento de objetos (58), que están configurados para determinar si el primer objeto y el segundo objeto colisionan uno con otro o no; y unos primeros medios de ejecución de procesamiento (62) que están configurados para ejecutar un procesamiento relevante para el primer objeto y el segundo objeto sobre la base de un resultado de determinación por los medios de determinación de colisión (60); caracterizado el dispositivo de procesamiento de información (10) por: unos segundos medios de ejecución de procesamiento (64) que están configurados para ejecutar un procesamiento para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la pantalla que se presenta visualmente mediante los medios de control de presentación visual, en el que establecer unas posiciones de presentación visual inicial de la pluralidad de objetos se basa en unos datos de historia, comprendiendo dichos datos de historia una información de relación de posición, incluyendo la información de relación de posición unos artículos de información de dirección, siendo cada artículo de información de dirección indicativo de una dirección desde el primer objeto o la primera posición designada hasta el segundo objeto o la segunda posición designada en un caso en el pasado en el que se determina por los medios de determinación que la primera posición designada está incluida en el área de determinación que se establece sobre la base de la posición del primer objeto y se determina por los medios de determinación que la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto, en el que los segundos medios de ejecución de procesamiento están dispuestos para determinar si un artículo de información de dirección se corresponde con una de una pluralidad de direcciones de referencia y para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la base de una comparación de un número respectivo de veces en los datos de historia que se determina una correspondencia con cada una de la pluralidad de direcciones de referencia.

Description

15
25
35
45
55
65 E12824893
18-08-2015
DESCRIPCIÓN
Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información
Campo de la técnica
La presente invención se refiere a un dispositivo de procesamiento de información, a un método de control para un dispositivo de procesamiento de información, a un programa y a un soporte de almacenamiento de información.
Antecedentes de la técnica
Se conoce una técnica para potenciar la comodidad de un usuario usando un dispositivo de procesamiento de información al considerar una mano dominante, hábito, o similar, del usuario. Como una técnica de este tipo, por ejemplo, se conoce una técnica para cambiar la distribución de una pantalla que se presenta visualmente en una unidad de presentación visual del dispositivo de procesamiento de información, dependiendo de la mano dominante de un usuario. Por ejemplo, la literatura de patente 1 divulga un cambio de una posición de presentación visual de un botón de desplazamiento vertical que se presenta visualmente en una pantalla, dependiendo de la mano dominante de un usuario.
Lista de citas
Literatura de patente
Literatura de patente 1: JP 5-66888 A
Literatura de patente 2: US 2011/022982 A1
Literatura de patente 3: EP 2 284 674 A2
Literatura de patente 4: WO 2011/102406 A1
La literatura de patente 2 describe un dispositivo de procesamiento de presentación visual que incluye un elemento de presentación visual, un mecanismo de agrupamiento que está configurado para realizar un agrupamiento de tal modo que cada uno de una pluralidad de artículos seleccionables pertenece a uno o más grupos sobre la base de una información que tiene cada artículo, un mecanismo de asignación que está configurado para generar y asignar unos objetos de presentación visual que se corresponden con unos artículos relacionados a los grupos respectivos que se generan mediante el agrupamiento de la pluralidad de artículos seleccionables por el mecanismo de agrupamiento, y un mecanismo de procesamiento de presentación visual que está configurado para presentar visualmente los objetos de presentación visual que están asignados a los grupos por el mecanismo de asignación sobre una pantalla de presentación visual del elemento de presentación visual.
La literatura de patente 3 describe un terminal móvil que puede incluir un visualizador para presentar visualmente por lo menos un icono, una memoria para almacenar una información en relación con unos iconos, y un controlador para realizar, cuando un primer icono colisiona con un segundo icono, una operación de control que está asociada con los iconos que se han hecho colisionar de acuerdo con un tipo y / o un atributo del primer y el segundo iconos.
La literatura de patente 4 divulga un dispositivo de entrada de panel táctil que comprende un panel táctil y un controlador de entrada que detecta toques en dos puntos sobre el panel táctil en uno de dos modos de detección de entrada. Los modos de detección de entrada incluyen un modo de detección de entrada de entrada táctil de dos puntos para dedos de la mano derecha adecuado para la distribución de dedos de la mano derecha y el de dedos de la mano izquierda adecuado para la distribución de dedos de la mano izquierda, y pueden conmutarse de uno a otro.
Sumario de la invención
Problema técnico
No obstante, de acuerdo con el dispositivo de procesamiento de información que se divulga en la literatura de patente 1, por ejemplo, un usuario necesita introducir una información acerca de su mano dominante por adelantado.
La presente invención se ha concebido a la vista de lo anterior, y tiene por objeto la provisión de un dispositivo de procesamiento de información, un método de control para un dispositivo de procesamiento de información, un programa y un soporte de almacenamiento de información capaz de potenciar la comodidad de un usuario usando un dispositivo de procesamiento de información al considerar la mano dominante, hábito, o similar, del usuario sin imponer al usuario una tarea de introducción de información acerca de su mano dominante, hábito, o similar.
Solución al problema
En las reivindicaciones adjuntas se exponen aspectos de la presente invención.
15
25
35
45
55
65 E12824893
18-08-2015
Con el fin de lograr el objeto que se ha descrito en lo que antecede, se proporciona un dispositivo de procesamiento de información de acuerdo con la reivindicación 1.
Además, se proporciona un método de control para un dispositivo de procesamiento de información de acuerdo con la reivindicación 11.
También se proporciona un programa de acuerdo con la reivindicación 12, para dar lugar a que un ordenador funcione de acuerdo con la reivindicación 1.
También se proporciona un soporte de almacenamiento de información legible por ordenador de acuerdo con la reivindicación 13, que almacena un programa para dar lugar a que un ordenador funcione de acuerdo con la reivindicación 1.
En una realización de la presente invención, la relación de posición puede ser una relación de posición entre el un objeto o la una posición designada y el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que el un objeto y el otro objeto colisionan uno con otro.
En una realización de la presente invención, los segundos medios de ejecución de procesamiento pueden incluir unos medios de determinación de mano dominante para determinar una mano de documento del usuario mediante la ejecución de un procesamiento de determinación de mano dominante para determinar la mano dominante del usuario sobre la base de la información de relación de posición.
En una realización de la presente invención, la información de relación de posición puede incluir una información de dirección acerca de una dirección desde el un objeto o la una posición designada hasta el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se establece sobre la base de la posición del un objeto y la otra posición designada está incluida en el área de determinación que se establece sobre la base de la posición del otro objeto, y los medios de determinación de mano dominante pueden determinar la mano dominante del usuario sobre la base de la información de dirección.
En una realización de la presente invención, una información de atributos puede ponerse en correlación con cada uno de la pluralidad de objetos, y los medios de control de presentación visual pueden incluir unos medios de comparación para comparar artículos de información de atributos de dos objetos de entre la pluralidad de objetos, y unos medios para establecer unas posiciones de presentación visual inicial de dos objetos conduciendo a un resultado de comparación mediante los medios de comparación que es un resultado previamente determinado, sobre la base de un resultado de determinación por los medios de determinación de mano dominante.
En una realización de la presente invención, el dispositivo de procesamiento de información puede incluir además unos medios para almacenar en unos medios de almacenamiento una información acerca de una combinación de dos objetos que se determinan por los medios de determinación de colisión como que han colisionado uno con otro en el pasado, en el que los medios de control de presentación visual pueden incluir unos medios para establecer unas posiciones de presentación visual inicial de dos objetos seleccionados de entre la pluralidad de objetos sobre la base de por lo menos una parte de un contenido que está almacenado en los medios de almacenamiento, sobre la base de un resultado de determinación por los medios de determinación de mano dominante.
En una realización de la presente invención, el dispositivo de procesamiento de información puede incluir además unos medios para obtener una lista de información que satisface una condición de búsqueda, y unos medios para presentar visualmente una pantalla de resultados de búsqueda que muestra la lista de información en los medios de presentación visual, en el que la condición de búsqueda puede establecerse sobre la base de un resultado de determinación por los medios de determinación de mano dominante.
En una realización de la presente invención, los segundos medios de ejecución de procesamiento pueden incluir unos medios de establecimiento de posición de presentación visual inicial para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos mediante la ejecución de un procesamiento para establecer las posiciones de presentación visual inicial de la pluralidad de objetos sobre la base de la información de relación de posición.
En una realización de la presente invención, la información de relación de posición puede incluir una información de dirección acerca de una dirección desde el un objeto o la una posición designada hasta el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se establece sobre la base de la posición del un objeto y la otra posición designada está incluida en el área de determinación que se establece sobre la base de la posición del otro objeto, una información de atributos puede ponerse en correlación con cada uno de la pluralidad de objetos, y los medios de establecimiento de posición de presentación visual inicial pueden incluir unos medios de comparación para comparar artículos de información de atributos de dos objetos de entre la pluralidad de objetos, y unos medios para establecer una dirección desde una posición de presentación visual inicial de uno de dos objetos conduciendo a un resultado de
15
25
35
45
55
65 E12824893
18-08-2015
comparación mediante los medios de comparación que es un resultado previamente determinado hasta una posición de presentación visual inicial del otro de los dos objetos, sobre la base de la información de dirección.
En una realización de la presente invención, la información de relación de posición puede incluir una información de distancia acerca de una distancia entre el un objeto o la una posición designada y el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se establece sobre la base de la posición del un objeto y la otra posición designada está incluida en el área de determinación que se establece sobre la base de la posición del otro objeto, una información de atributos puede ponerse en correlación con cada uno de la pluralidad de objetos, y los medios de establecimiento de posición de presentación visual inicial pueden incluir unos medios de comparación para comparar artículos de información de atributos de dos objetos de entre la pluralidad de objetos, y unos medios para establecer una distancia entre unas posiciones de presentación visual inicial de dos objetos conduciendo a un resultado de comparación mediante los medios de comparación que es un resultado previamente determinado, sobre la base de la información de distancia.
En una realización de la presente invención, la información de relación de posición puede incluir una información de dirección acerca de una dirección desde el un objeto o la una posición designada hasta el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se establece sobre la base de la posición del un objeto y la otra posición designada está incluida en el área de determinación que se establece sobre la base de la posición del otro objeto, el dispositivo de procesamiento de información puede incluir además unos medios para almacenar en unos medios de almacenamiento una información acerca de una combinación de dos objetos que se determinan en el pasado por los medios de determinación de colisión como que se ha hecho que colisionen uno con otro, y los medios de establecimiento de posición de presentación visual inicial pueden incluir unos medios para establecer una dirección desde una posición de presentación visual inicial de uno de dos objetos seleccionados de entre la pluralidad de objetos sobre la base de por lo menos una parte de un contenido que está almacenado en los medios de almacenamiento, hasta una posición de presentación visual inicial del otro de los dos objetos, sobre la base de la información de dirección.
En una realización de la presente invención, la información de relación de posición puede incluir una información de distancia acerca de una distancia entre el un objeto o la una posición designada y el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se establece sobre la base de la posición del un objeto y la otra posición designada está incluida en el área de determinación que se establece sobre la base de la posición del otro objeto, el dispositivo de procesamiento de información puede incluir además unos medios para almacenar en unos medios de almacenamiento una información acerca de una combinación de dos objetos que se determinan en el pasado por los medios de determinación de colisión como que se ha hecho que colisionen uno con otro, y los medios de establecimiento de posición de presentación visual inicial pueden incluir unos medios para establecer una distancia entre unas posiciones de presentación visual inicial de dos objetos seleccionados de entre la pluralidad de objetos sobre la base de por lo menos una parte de un contenido que está almacenado en los medios de almacenamiento, sobre la base de la información de distancia.
Efectos ventajosos de la invención
De acuerdo con la presente invención, es posible potenciar la comodidad de un usuario usando un dispositivo de procesamiento de información al considerar una mano dominante, hábito, o similar, del usuario sin imponer al usuario una tarea de introducción de información acerca de una mano dominante, hábito, o similar.
Breve descripción de los dibujos
La figura 1 muestra un ejemplo de una estructura de soporte físico de un dispositivo de procesamiento de información de acuerdo con una realización de la presente invención; la figura 2 muestra un ejemplo de una pantalla de resultados de búsqueda; la figura 3 muestra un ejemplo de una pantalla de favoritos; la figura 4 es un diagrama que explica una operación para comparar dos productos; la figura 5 muestra un ejemplo de una pantalla de comparación; la figura 6 es un diagrama de bloques funcional de un dispositivo de procesamiento de información de acuerdo con una primera realización; la figura 7 muestra un ejemplo de una tabla de favoritos; la figura 8 muestra un ejemplo de una tabla de objetos; la figura 9 muestra un ejemplo de unos datos de posiciones designadas; la figura 10 es un diagrama que explica un área de determinación; la figura 11 es un diagrama que explica un método de determinación de colisión; la figura 12 es un diagrama de flujo de un ejemplo de un procesamiento que se ejecuta en el dispositivo de procesamiento de información; la figura 13 muestra un ejemplo de unos datos de historia;
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
la figura 14 es un diagrama que explica una operación de pinzar que se realiza fácilmente por un usuario diestro; la figura 15 es un diagrama que explica una operación de pinzar que se realiza fácilmente por un usuario zurdo; la figura 16 es un diagrama de flujo de un ejemplo de un procesamiento que se ejecuta en el dispositivo de procesamiento de información; la figura 17 es un diagrama que explica un procesamiento que se ejecuta en el dispositivo de procesamiento de información; y la figura 18 muestra otro ejemplo de unos datos de historia; la figura 19 es un diagrama que explica unos datos de posición de presentación visual inicial; la figura 20 muestra un ejemplo de unos datos de posición de presentación visual inicial; la figura 21 muestra un ejemplo de la posición de presentación visual inicial de una imagen de producto; la figura 22 es un diagrama de bloques funcional de un dispositivo de procesamiento de información de acuerdo con una segunda realización; la figura 23 es un diagrama que explica unos datos de posición de presentación visual inicial; y la figura 24 muestra otro ejemplo de unos datos de posición de presentación visual inicial.
Descripción de realizaciones
En lo que sigue, se describirán con detalle ejemplos de realizaciones de la presente invención con referencia a los dibujos adjuntos.
[Primera realización]
Inicialmente, se describirá un dispositivo de procesamiento de información de acuerdo con la primera realización de la presente invención. El dispositivo de procesamiento de información de acuerdo con la primera realización se implementa usando, por ejemplo, un teléfono portátil, un terminal de información portátil, un ordenador personal, un dispositivo de juego, o similar. La figura 1 muestra un ejemplo de una estructura de soporte físico de un dispositivo de procesamiento de información 10 en la presente realización. Tal como se muestra en la figura 1, el dispositivo de procesamiento de información 10 incluye una unidad de control 11, una unidad de memoria principal 12, una unidad de almacenamiento auxiliar 13, una unidad operativa 14, una unidad de presentación visual 15, una unidad de salida de sonido 16, una unidad de unidad de disco óptico 17, y una interfaz de comunicación 18.
La unidad de control 11 incluye, por ejemplo, una o más CPU, y ejecuta un procesamiento de información de acuerdo con un sistema de operaciones o un programa que está almacenado en la unidad de almacenamiento auxiliar 13. La unidad de memoria principal 12 es una RAM, por ejemplo, mientras que la unidad de almacenamiento auxiliar 13 es un disco duro o una unidad de estado sólido, por ejemplo.
La unidad operativa 14 se usa para la operación por parte del usuario. En la presente realización, una unidad de designación para que un usuario designe una posición en una pantalla que se presenta visualmente en la unidad de presentación visual 15 se proporciona como la unidad operativa 14. Es decir, un dispositivo apuntador, tal como, por ejemplo, un panel táctil, un ratón, una palanca, o similar, se proporciona como la unidad operativa 14. Obsérvese que la siguiente descripción se basa en una suposición de que el dispositivo de procesamiento de información 10 tiene un panel táctil que está provisto sobre la unidad de presentación visual 15.
El panel táctil que se proporciona en el dispositivo de procesamiento de información 10 es un panel táctil general, y es capaz de detectar una o más posiciones que son tocadas por un usuario. Como un panel táctil, se usa por ejemplo un panel táctil que emplea un método de capacidad estática. Con el panel táctil que emplea el método de capacidad estática, una o más posiciones que son tocadas por un usuario es detectada / son detectadas, sobre la base de un cambio en el cargo al que se da lugar después del toque por parte de un usuario de la superficie del panel táctil. El panel táctil suministra una información indicativa de una o más posiciones que son tocadas por el usuario. La unidad de control 11 obtiene las una o más posiciones que son tocadas por el usuario, sobre la base de la información que se suministra a partir del panel táctil.
La unidad de presentación visual 15 es un visualizador de cristal líquido, o similar, por ejemplo, y la unidad de salida de sonido 16 es un altavoz o similar, por ejemplo. La unidad de unidad de disco óptico 17 lee un programa y / o unos datos que están almacenados en un disco óptico (un soporte de almacenamiento de información).
Obsérvese que, por ejemplo, un programa y unos datos se suministran a la unidad de almacenamiento auxiliar 13 por medio de un disco óptico. Es decir, un disco óptico con un programa y unos datos grabados en el mismo se inserta en la unidad de unidad de disco óptico 17, y el programa y / o los datos grabados en el disco óptico son leídos por la unidad de unidad de disco óptico 17 y, a continuación, se almacenan en la unidad de almacenamiento auxiliar 13. Obsérvese que la unidad de unidad de disco óptico 17 no es un elemento estructural esencial. Puede incluirse un elemento estructural para leer un programa o unos datos que están almacenados en un soporte de almacenamiento de información (por ejemplo, una tarjeta de memoria) que no sea un disco óptico, en lugar de la unidad de unidad de disco óptico 17, de tal modo que un programa y / o unos datos pueden suministrarse a la unidad de almacenamiento auxiliar 13 por medio de un soporte de almacenamiento de información que no sea un
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
disco óptico. Como alternativa, un programa y / o unos datos pueden suministrarse a la unidad de almacenamiento auxiliar 13 por medio de una red de comunicación 2 incluyendo, por ejemplo, Internet o similar.
La interfaz de comunicación 18 es una interfaz para conectar el dispositivo de procesamiento de información 10 con la red de comunicación 2. El dispositivo de procesamiento de información 10 puede acceder al servidor 4 por medio de la red de comunicación 2.
El servidor 4 ejecuta un procesamiento sobre la base de una solicitud de procesamiento que se recibe del dispositivo de procesamiento de información 10. Por ejemplo, se activa un programa demonio en el servidor 4, y tras la recepción de de una solicitud de procesamiento a partir del dispositivo de procesamiento de información 10, el servidor 4 accede a la base de datos 6, cuando es necesario, y envía un resultado de procesamiento en respuesta a la solicitud de procesamiento al dispositivo de procesamiento de información 10. La base de datos 6 puede asegurarse en un ordenador servidor diferente del servidor 4 o en el servidor 4.
En lo que sigue, se describirá un caso en el que un sitio comercial electrónico en el que un usuario puede comprar un producto por medio de la red de comunicación 2 es proporcionado por el servidor 4, y un programa de aplicación para usar el sitio comercial electrónico se ejecuta en el dispositivo de procesamiento de información 10.
Inicialmente, se describirá el programa de aplicación que se ha descrito en lo que antecede. En lo sucesivo, se describirá un ejemplo de una pantalla que se presenta visualmente en la unidad de presentación visual 15 del dispositivo de procesamiento de información 10 en un caso en el que se ejecuta el programa de aplicación que se ha descrito en lo que antecede.
La figura 2 muestra un ejemplo de una pantalla de resultados de búsqueda. La pantalla de resultados de búsqueda es una pantalla que muestra una lista de productos que satisfacen una condición de búsqueda que se establece sobre la base de una entrada por un usuario en una pantalla de búsqueda (que no se muestra). La pantalla de resultados de búsqueda que se muestra en la figura 2 es una pantalla que muestra una lista de productos que satisfacen un resultado de búsqueda de entre unos productos que se encuentran disponibles para su compra en un sitio comercial electrónico.
Con el fin de mostrar la pantalla de resultados de búsqueda, el dispositivo de procesamiento de información 10 obtiene una lista de productos que satisfacen la condición de búsqueda que se establece sobre la base de una entrada por un usuario en la pantalla de búsqueda. Por ejemplo, el dispositivo de procesamiento de información 10 (el programa de aplicación que se ha descrito en lo que antecede) envía una condición de búsqueda al servidor 4. Habiendo recibido la condición de búsqueda, el servidor 4 accede a la base de datos 6 para obtener una lista de productos que satisfacen la condición de búsqueda. A continuación, el servidor 4 envía la lista de productos obtenida al dispositivo de procesamiento de información 10. El dispositivo de procesamiento de información 10 presenta visualmente la pantalla de resultados de búsqueda que muestra la lista de productos que se envía a partir del servidor 4.
La pantalla de resultados de búsqueda que se muestra en la figura 2 tiene un área de lista 20. Una lista de productos que satisfacen la condición de búsqueda se presenta visualmente en el área de lista 20. En concreto, una imagen de producto 22 de cada producto que satisface la condición de búsqueda se presenta visualmente en el área de lista
20. La imagen de producto 22 incluye una imagen en miniatura del producto, y el nombre y el precio del producto están unidos a la imagen de producto 22.
La pantalla de resultados de búsqueda incluye un área de favoritos 24. El área de favoritos 24 se usa para el registro de un producto como un favorito de entre los productos que se presentan visualmente en el área de lista 20.
En lo que sigue, se describirá una operación para registrar un producto como un favorito. Supóngase un caso en el que un usuario registra un producto “D” como un favorito. En el presente caso, el usuario toca el panel táctil con su dedo con el fin de señalar la imagen de producto 22 del producto “D”, a continuación desliza el dedo hasta el área de favoritos 24 sobre el panel táctil, tal como se indica mediante la flecha 26. En respuesta a una operación de este tipo, la imagen de producto 22 del producto “D” se mueve hasta el área de favoritos 24 de acuerdo con el movimiento del dedo, y el producto “D” se registra de forma resultante como un favorito. Tras el nuevo registro de un producto como un favorito, se presenta visualmente una pantalla de favoritos que muestra una lista de productos que se registran como favoritos.
La figura 3 muestra un ejemplo de la pantalla de favoritos. Unas imágenes de producto 22 de los productos que se registran como favoritos se presentan visualmente en la pantalla de favoritos. La figura 3 muestra un ejemplo de la pantalla de favoritos con los productos “A”, “B”, “C”, y “D” que se registran como productos favoritos. Las imágenes de producto 22A, 22B, 22C y 22D de los productos “A”, “B”, “C”, y “D” se presentan visualmente en la pantalla de favoritos que se muestra en la figura 3. En la pantalla de favoritos, las imágenes de producto 22 se presentan visualmente dispersas, como las imágenes de producto 22A a 22D que se muestran en la figura 3.
15
25
35
45
55
65 E12824893
18-08-2015
Esta pantalla de favoritos también se presenta visualmente a través de un intercambio de datos entre el dispositivo de procesamiento de información 10 (el programa de aplicación que se ha descrito en lo que antecede) y el servidor
4. Es decir, cuando la imagen de producto 22 de cualquier producto se mueve hasta el área de favoritos 24 en la pantalla de resultados de búsqueda, el programa de aplicación que se ha descrito en lo que antecede envía la ID de producto del producto, junto con la ID de usuario, al servidor 4.
Una tabla que muestra un producto que se registra por un usuario como un favorito se almacena en la base de datos 6, y el servidor 4 actualiza la tabla sobre la base de la ID de usuario y la ID de producto que se han descrito en lo que antecede que se reciben del dispositivo de procesamiento de información 10. Además, el servidor 4 obtiene una información acerca de un producto que se registra por un usuario como un favorito a partir de la base de datos 6, y envía la información obtenida al dispositivo de procesamiento de información 10. En el dispositivo de procesamiento de información 10, la información que se envía a partir del servidor 4 se almacena en la unidad de almacenamiento auxiliar 13 (véase la figura 7 que va a describirse posteriormente), y la pantalla de favoritos se presenta visualmente sobre la base de la información.
En la pantalla de favoritos, un usuario puede seleccionar y comparar dos productos uno con otro. En lo que sigue, se describirá una operación para comparar dos productos. La figura 4 es un diagrama que explica esta operación. Supóngase en el presente caso un caso en el que los productos “B” y “C” se comparan uno con otro.
En la comparación de los productos “B” y “C”, un usuario realiza, por ejemplo, una “operación de pinzar” para hacer que colisionen la imagen de producto 22B del producto “B” y la imagen de producto 22C del producto “C” una contra otra. Es decir, el usuario coloca un dedo (por ejemplo, el pulgar) de su mano (por ejemplo, la mano derecha) sobre el panel táctil con el fin de señalar la imagen de producto 22B del producto “B”, y otro dedo (por ejemplo, el dedo índice) sobre el panel táctil con el fin de señalar la imagen de producto 22C del producto “C”. A continuación de lo anterior, el usuario desliza estos dedos con el fin de acercar uno a otro sobre el panel táctil. Con una operación de este tipo, la imagen de producto 22B del producto “B” y la imagen de producto 22C del producto “C” se mueven acercándose una a otra de acuerdo con el movimiento de los dedos, tal como se indica mediante las flechas 30, 32.
A continuación, si se determina que la imagen de producto 22B del producto “B” y la imagen de producto 22C del producto “C” han colisionado una con otra, se presenta visualmente una pantalla de comparación para comparar los productos “B” y “C”. La figura 5 muestra un ejemplo de la pantalla de comparación en el presente caso. Una tabla de comparación 40 que muestra una información (una información de atributos) diversa acerca de los productos “B” y “C” se presenta visualmente en la pantalla de comparación en el presente caso.
Un comprador de un producto puede calificar el producto con la puntuación completa de cinco puntos, por ejemplo, en el sitio comercial electrónico. Es decir, el promedio de las calificaciones que se registran por los compradores del producto se presenta visualmente en la sección de “puntuación de calificación” en la tabla de comparación 40. Cuando un producto se registra como un favorito en la pantalla de resultados de búsqueda que se ha descrito en lo que antecede, se notifica al servidor 4 el hecho de que el producto se registra como un favorito, y el número de usuarios que han registrado el producto como un favorito se almacena en la base de datos 6. La sección de “favoritos” en la tabla de comparación 40 muestra el número de usuarios que han registrado el producto como un favorito.
Un botón de enlace 42 para saltar a una pantalla de compras para comprar un producto respectivo se presenta visualmente en la pantalla de comparación. La selección del botón de enlace 42 da lugar a que aparezca una pantalla de compras (que no se muestra) para comprar un producto involucrado. Además, también se presenta visualmente un botón de cierre 44 en la pantalla de comparación. La selección del botón de cierre 44 da lugar a que se cierre la pantalla de comparación y a que aparezca de nuevo la pantalla de favoritos.
En la pantalla de favoritos que se ha descrito en lo que antecede, el usuario puede ordenar al dispositivo de procesamiento de información 10 que presente visualmente una pantalla de comparación para dos productos a través de una operación intuitiva de señalización para seleccionar de ese modo las dos imágenes de producto 22 y de mover los dos dedos para mover de ese modo las dos imágenes de producto 22 con el fin de hacer que colisionen.
Obsérvese que una operación de arrastrar y soltar puede emplearse como una operación para ordenar al dispositivo de procesamiento de información 10 que presente visualmente una pantalla de comparación para dos productos. Es decir, es factible presentar visualmente, cuando un usuario realiza una operación de arrastrar para mover de ese modo una imagen de producto 22 sobre otra imagen de producto 22 y, a continuación, una operación de soltar con las imágenes de productos 22 colocadas la una sobre la otra, una pantalla de comparación para dos productos de esas imágenes de producto 22.
Con la operación de arrastrar y soltar empleada que se ha descrito en lo que antecede, no obstante, puede haber un caso en el que, cuando se pretende mover, a través de una operación de arrastrar, una imagen de producto 22 sobre su imagen de producto 22 deseada de entre una pluralidad de imágenes de producto 22 densamente colocadas y, a continuación, realizar una operación de soltar, un usuario puede realizar una operación de soltar con
15
25
35
45
55
65 E12824893
18-08-2015
la una imagen de producto 22 colocada de forma errónea sobre una imagen de producto 22 que no sea su imagen de producto 22 deseada. En un caso de este tipo, se presenta visualmente una pantalla de comparación para dos productos no prevista por el usuario.
Por el contrario, de acuerdo con el dispositivo de procesamiento de información 10 en la presente realización, un usuario selecciona inicialmente ambas de las imágenes de producto 22 de dos productos para su comparación y, a continuación, el usuario mueve las imágenes de producto 22 con el fin de hacer que colisionen. Como resultado, se presenta visualmente una pantalla de comparación para los dos productos. Con lo anterior, es poco probable que se dé lugar a la molestia que se ha descrito en lo que antecede. Es decir, incluso si se selecciona una imagen de producto 22 que no sea una imagen de producto 22 deseada, a menos que se dé lugar a que la imagen de producto 22 colisione contra otra imagen de producto 22, no se presenta visualmente una pantalla de comparación para estos productos. En el presente caso, el usuario simplemente despega su dedo del panel táctil, y selecciona de nuevo una imagen de producto 22. Tal como se ha descrito en lo que antecede, de acuerdo con el dispositivo de procesamiento de información 10 en la presente realización, es poco probable que se presente visualmente una pantalla de comparación para dos productos no prevista por un usuario.
Además, con la operación de arrastrar y soltar empleada que se ha descrito en lo que antecede, cuando un usuario detiene la operación de arrastrar en curso a medio camino en el movimiento de una imagen de producto 22, que entonces resulta estar colocada sobre otra imagen de producto 22, se presenta visualmente una pantalla de comparación para estos productos. Es decir, se presenta visualmente una pantalla de comparación para dos productos no prevista por el usuario. Para abordar lo anterior, el usuario necesita mover la una imagen de producto 22 hasta una posición que no se superpone con otra imagen de producto 22 antes de detener la operación de arrastrar.
Por el contrario, de acuerdo con el dispositivo de procesamiento de información 10 en la presente realización, no se da lugar a la molestia que se ha descrito en lo que antecede. Es decir, incluso cuando un usuario despega su dedo del panel táctil para seleccionar de nuevo una imagen de producto 22 diferente después de la selección de una imagen de producto 22 que no sea una imagen de producto 22 deseada, el usuario no necesita preocuparse de forma particular por si la imagen de producto 22 seleccionada resulta estar situada o no sobre otra imagen de producto 22. Esto es debido a que una pantalla de comparación para productos no se presenta visualmente incluso a pesar de que la imagen de producto 22 que es seleccionada por un usuario se coloca sobre otra imagen de producto 22 a menos que las imágenes de producto 22 colisionen una con otra.
En lo que sigue, se describirá una estructura para mejorar la comodidad del usuario al considerar la mano dominante, hábito, o similar de un usuario en el dispositivo de procesamiento de información 10 que tiene una interfaz de usuario (una pantalla de favoritos), tal como se ha descrito en lo que antecede. En lo que sigue, en particular, se describirá una estructura para potenciar la comodidad del usuario al considerar la mano dominante, hábito, o similar de un usuario sin imponer al usuario una tarea de introducción de información acerca de su mano dominante, hábito, o similar.
La figura 6 es un diagrama de bloques funcional que muestra un bloque funcional relevante para la presente invención de entre los que se implementan en el dispositivo de procesamiento de información 10 en la presente realización. Tal como se muestra en la figura 6, el dispositivo de procesamiento de información 10 incluye una unidad de almacenamiento 50, una unidad de control de presentación visual 52, una unidad de obtención de resultado de detección 54, una unidad de determinación de selección 56, una unidad de movimiento de objetos 58, una unidad de determinación de colisión 60, una primera unidad de ejecución de procesamiento 62, y una segunda unidad de ejecución de procesamiento 64.
Por ejemplo, la unidad de almacenamiento 50 se implementa usando la unidad de memoria principal 12 y la unidad de almacenamiento auxiliar 13. La unidad de control de presentación visual 52, la unidad de obtención de resultado de detección 54, la unidad de determinación de selección 56, la unidad de movimiento de objetos 58, la unidad de determinación de colisión 60, una primera unidad de ejecución de procesamiento 62, y una segunda unidad de ejecución de procesamiento 64 se implementan mediante la unidad de control 11. Es decir, la unidad de control 11 que ejecuta un procesamiento de acuerdo con un programa funciona como estos bloques funcionales.
Se describirá la unidad de almacenamiento 50. La unidad de almacenamiento 50 almacena diversos datos. Las figuras 7 a 9 muestran un ejemplo de unos datos que están almacenados en la unidad de almacenamiento 50.
La figura 7 muestra un ejemplo de una tabla de favoritos. La tabla de favoritos es una tabla que muestra una información acerca de un producto que se registra como un favorito. Tal como se ha descrito en lo que antecede, en la presentación visual de la pantalla de favoritos, una información acerca de un producto que se registra por un usuario como un favorito se obtiene a partir del servidor 4 (la base de datos 6). La información obtenida se registra en la tabla de favoritos.
La tabla de favoritos que se muestra en la figura 7 incluye unos campos de “ID de producto”, de “nombre de producto”, de “precio”, de “categoría”, de “puntuación de calificación”, de “número de solicitantes de registro en
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
favorito”, de “imagen” y de “página de compras”. En el campo de “ID de producto”, se registra una información de identificación (ID de producto) para identificar de forma única un producto. En los campos de “nombre de producto” y de “precio”, se registran de forma respectiva el nombre y el precio de un producto. En el campo “categoría”, se registra la categoría de un producto. En el campo de “puntuación de calificación”, se registra el promedio de las puntuaciones de calificación que se realizan por los compradores del producto. En el campo de “número de solicitantes de registro en favorito”, se registra el número de usuarios que han registrado el producto como un favorito. En el campo de “imagen”, se registra una información de enlace (URL) para una imagen normal y una imagen en miniatura del producto. En el campo de “página de compras”, se registra una información de enlace (URL) para una página de compras (una pantalla de compras) para el producto.
La figura 8 muestra un ejemplo de la tabla de objetos. La tabla de objetos es una tabla para gestionar un objeto (una imagen de producto 22) que se presenta visualmente en la pantalla de favoritos. La tabla de objetos incluye los campos de “ID de objeto”, de “ID de producto” y de “posición”. En el campo de “ID de objeto”, se registra una información de identificación (ID de objeto) que identifica de forma única un objeto (una imagen de producto 22). En el campo de “ID de producto”, se registra la ID de producto de un producto que está en correlación con un objeto (una imagen de producto 22). Por ejemplo, para la imagen de producto 22 del producto “A”, la ID de producto del producto “A” se registra en el campo de “ID de producto”. En el campo de “posición”, se registra una posición de presentación visual de un objeto (una imagen de producto 22). Por ejemplo, se registran las coordenadas de pantalla de una posición representativa (por ejemplo, la posición central) de un objeto (una imagen de producto 22). Obsérvese que un sistema de coordenadas de pantalla es un sistema de coordenadas que tiene el origen definido en la esquina superior izquierda de una pantalla, siendo el eje X positivo en el sentido hacia la derecha, y siendo el eje Y positivo en el sentido hacia abajo.
En lo que sigue, se describirá la unidad de control de presentación visual 52. La unidad de control de presentación visual 52 presenta visualmente una pantalla que incluye una pluralidad de objetos sobre la unidad de presentación visual 15. En la presente realización, la unidad de control de presentación visual 52 presenta visualmente una pantalla de favoritos sobre la unidad de presentación visual 15. Es decir, en la presente realización, la pantalla de favoritos se corresponde con la “pantalla” que se ha descrito en lo que antecede, y una pluralidad de imágenes de producto 22 que se presentan visualmente en la pantalla de favoritos se corresponden con la “pluralidad de objetos” que se ha descrito en lo que antecede.
En lo que sigue, se describirá la unidad de obtención de resultado de detección 54. La unidad de obtención de resultado de detección 54 obtiene un resultado de detección mediante una unidad de detección capaz de detectar dos o más posiciones que son designadas por un usuario en una pantalla. Por ejemplo, el dispositivo apuntador se corresponde con la “unidad de detección”. En la presente realización, el panel táctil se corresponde con la “unidad de detección”, y la unidad de obtención de resultado de detección 54 obtiene la posición designada de un usuario (una posición que es designada por un usuario) y detectada por el panel táctil. Por ejemplo, cuando un usuario designa dos posiciones (una primera posición designada y una segunda posición designada) en una pantalla, el panel táctil detecta la primera posición designada y la segunda posición designada. A continuación, la unidad de obtención de resultado de detección 54 obtiene la primera posición designada y la segunda posición designada detectada por el panel táctil. En el presente caso, la unidad de obtención de resultado de detección 54 obtiene unos datos de posiciones designadas, tal como se muestra en la figura 9, por ejemplo. Obsérvese que la posición designada de un usuario se expresa usando las coordenadas del sistema de coordenadas de pantalla.
En lo que sigue, se describirá la unidad de determinación de selección 56. La unidad de determinación de selección 56 determina si la posición designada de un usuario está incluida o no en cualquiera de una pluralidad de áreas de determinación que se establecen en correspondencia con las posiciones respectivas de una pluralidad de objetos. Cuando se determina que la posición designada de un usuario está incluida en cualquier área de determinación, la unidad de determinación de selección 56 determina que el objeto que se corresponde con el área de determinación es seleccionado por un usuario.
Por ejemplo, cuando la primera posición designada (una posición designada) de un usuario es detectada por la unidad de detección, la unidad de determinación de selección 56 determina si la primera posición designada está incluida o no en cualquier área de determinación. Además, cuando la segunda posición de designación (otra posición designada) del usuario es detectada por la unidad de detección, además de la primera posición designada, la unidad de determinación de selección 56 determina si la segunda posición designada está incluida o no en otra área de determinación.
En lo sucesivo, se describirá el “área de determinación”. Un área de determinación es un área que se establece para determinar si un usuario está señalando o no un objeto. Un área de determinación se establece sobre la base de la posición de presentación visual de un objeto, y se mueve de acuerdo con el movimiento del objeto. Por ejemplo, un área en la que un objeto se presenta visualmente se establece como un área de determinación. Puede que el área de determinación no coincida necesariamente con el área en la que el objeto se presenta visualmente. Por ejemplo, puede establecerse como un área de determinación un área que incluye la totalidad del área en la que un objeto se presenta visualmente y que también es más grande que el área en la que el objeto se presenta visualmente.
15
25
35
45
55
65 E12824893
18-08-2015
Además, por ejemplo, para un objeto con una forma relativamente complicada, puede establecerse un área de determinación que tenga una forma relativamente más simple.
La figura 10 es un diagrama que explica un área de determinación en un caso en el que se presenta visualmente la pantalla de favoritos, tal como se muestra en la figura 3. Obsérvese que el número de referencia “70A” en la figura 10 indica la primera posición designada de un usuario, y “70B” indica la segunda posición designada del usuario.
Cuando las imágenes de producto 22A a 22D se presentan visualmente en la pantalla de favoritos que se muestra en la figura 3, las áreas de determinación 72A a 72D se establecen en el ejemplo que se muestra en la figura 10. Obsérvese que, en lo que sigue, puede hacerse referencia de forma colectiva a las áreas de determinación 72A a 72D como una “área de determinación 72”.
El área de determinación 72A es un área de determinación que se corresponde con la imagen de producto 22A del producto “A”, y el área en la que la imagen de producto 22A se presenta visualmente se establece como el área de determinación 72A. De forma similar, el área de determinación 72B es un área de determinación que se corresponde con la imagen de producto 22B del producto “B”, y el área en la que la imagen de producto 22B se presenta visualmente se establece como el área de determinación 72B. El área de determinación 72C es un área de determinación que se corresponde con la imagen de producto 22C del producto “C”, y el área en la que la imagen de producto 22C se presenta visualmente se establece como el área de determinación 72C. El área de determinación 72D es un área de determinación que se corresponde con la imagen de producto 22D del producto “D”, y el área en la que la imagen de producto 22D se presenta visualmente se establece como el área de determinación 72D.
En el ejemplo que se muestra en la figura 10, por ejemplo, la unidad de determinación de selección 56 determina si la primera posición designada 70A está incluida o no en cualquiera de las áreas de determinación 72A a 72D. En el ejemplo que se muestra en la figura 10, debido a que la primera posición designada 70A está incluida en el área de determinación 72B, la unidad de determinación de selección 56 determina que la primera posición designada 70A está incluida en el área de determinación 72B. Como resultado, la unidad de determinación de selección 56 determina que la imagen de producto 22B es seleccionada por un usuario. Además, la unidad de determinación de selección 56 determina si la segunda posición designada 70B está incluida o no en cualquiera de las áreas de determinación 72A a 72D. En el ejemplo que se muestra en la figura 10, debido a que la segunda posición designada 70B está incluida en el área de determinación 72C, la unidad de determinación de selección 56 determina que la segunda posición designada 70B está incluida en el área de determinación 72C. Como resultado, la unidad de determinación de selección 56 determina que la imagen de producto 22C es seleccionada por un usuario.
En lo que sigue, se describirá la unidad de movimiento de objetos 58. Cuando se determina que la posición designada de un usuario está incluida en el área de determinación que se corresponde con cualquier objeto (es decir, cuando se determina que un objeto es seleccionado por un usuario), la unidad de movimiento de objetos 58 mueve el objeto de acuerdo con el movimiento de la posición designada.
Por ejemplo, cuando se determina que la primera posición designada está incluida en la primera área de determinación que se corresponde con el primer objeto, la unidad de movimiento de objetos 58 mueve el primer objeto de acuerdo con el movimiento de la primera posición designada. Además, cuando se determina que la segunda posición designada está incluida en la segunda área de determinación que se corresponde con el segundo objeto, la unidad de movimiento de objetos 58 mueve el segundo objeto de acuerdo con el movimiento de la segunda posición designada.
En el ejemplo que se muestra en la figura 10, por ejemplo, debido a que la primera posición designada 70A está incluida en el área de determinación 72B que se corresponde con la imagen de producto 22B, la unidad de movimiento de objetos 58 mueve la imagen de producto 22B de acuerdo con el movimiento de la primera posición designada 70A. Es decir, la unidad de movimiento de objetos 58 da lugar a que la imagen de producto 22B siga la primera posición designada 70A.
En el ejemplo que se muestra en la figura 10, debido a que la segunda posición designada 70B está incluida en el área de determinación 72C que se corresponde con la imagen de producto 22C, la unidad de movimiento de objetos 58 mueve la imagen de producto 22C de acuerdo con el movimiento de la segunda posición designada 70B. Es decir, la unidad de movimiento de objetos 58 da lugar a que la imagen de producto 22C siga la segunda posición designada 70B.
En lo que sigue, se describirá la unidad de determinación de colisión 60. La unidad de determinación de colisión 60 determina si un primer objeto y un segundo objeto han colisionado uno con otro o no cuando se determina que la primera posición designada está incluida en el área de determinación que se corresponde con el primer objeto y la segunda posición designada está incluida en el área de determinación que se corresponde con el segundo objeto y por lo menos uno del primer y el segundo objetos es movido por la unidad de movimiento de objetos 58.
Por ejemplo, la unidad de determinación de colisión 60 determina si el primer objeto y el segundo objeto han colisionado uno con otro o no mediante la determinación de si la distancia entre la primera posición designada y la
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
segunda posición designada es o no igual a o más pequeña que un umbral. La unidad de determinación de colisión 60 determina que el primer objeto y el segundo objeto han colisionado uno con otro cuando por lo menos uno del primer y el segundo objetos es movido por la unidad de movimiento de objetos 58 y la distancia entre la primera posición designada y la segunda posición designada es igual a o más pequeña que el umbral.
En el ejemplo que se muestra en la figura 10, por ejemplo, la primera posición designada 70A está incluida en el área de determinación 72B, y la segunda posición designada 70B está incluida en el área de determinación 72C. En el presente caso, tal como se ha descrito en lo que antecede, la unidad de movimiento de objetos 58 mueve la imagen de producto 22B de acuerdo con el movimiento de la primera posición designada 70A y la imagen de producto 22C de acuerdo con el movimiento de la segunda posición designada 70B. En el presente caso, tal como se muestra en la figura 11, la unidad de determinación de colisión 60 obtiene la distancia (d) entre la primera posición designada 70A y la segunda posición designada 70B, y determina si la distancia (d) es o no igual a o más pequeña que el umbral para determinar de ese modo si la imagen de producto 22B y la imagen de producto 22C han colisionado una con otra o no.
Cuando se determina que la distancia (d) que se ha descrito en lo que antecede es igual a o más pequeña que el umbral, la unidad de determinación de colisión 60 determina que la imagen de producto 22B y la imagen de producto 22C han colisionado una con otra. En el ejemplo que se muestra en la figura 11, a pesar de que el área de determinación 72B se superpone con el área de determinación 72C (es decir, la imagen de producto 22B se superpone con la imagen de producto 22C), la unidad de determinación de colisión 60 no determina que la imagen de producto 22B y la imagen de producto 22C han colisionado una con otra a menos que la distancia (d) que se ha descrito en lo que antecede sea igual a o más pequeña que el umbral.
En el ejemplo que se muestra en la figura 11, a pesar de que el área de determinación 72C se superpone con el área de determinación 72D (es decir, la imagen de producto 22C se superpone con la imagen de producto 22D), la unidad de determinación de colisión 60 no determina que la imagen de producto 22B y la imagen de producto 22D han colisionado una con otra debido a que la posición designada de un usuario no está incluida en el área de determinación 72D.
Obsérvese que un método de determinación de colisión para un objeto (una imagen de producto 22) no se limita al método que se ha descrito en lo que antecede. Por ejemplo, la unidad de determinación de colisión 60 puede determinar si el primer objeto se superpone o no con el segundo objeto, para determinar de ese modo si el primer objeto y el segundo objeto han colisionado uno con otro o no. Además, por ejemplo, la unidad de determinación de colisión 60 puede determinar si el área de determinación que se corresponde con el primer objeto se superpone o no con el área de determinación que se corresponde con el segundo objeto, para determinar de ese modo si el primer objeto y el segundo objeto han colisionado uno con otro o no.
En lo que sigue, se describirá la primera unidad de ejecución de procesamiento 62. La primera unidad de ejecución de procesamiento 62 ejecuta un procesamiento relevante para el primer objeto y el segundo objeto, sobre la base de un resultado de determinación por la unidad de determinación de colisión 60. Por ejemplo, cuando se determina que el primer objeto y el segundo objeto han colisionado uno con otro, la primera unidad de ejecución de procesamiento 62 presenta visualmente una pantalla de comparación para comparar una información de atributos que está en correlación con el primer objeto y una información de atributos que está en correlación con el segundo objeto sobre la unidad de presentación visual 15.
Por ejemplo, en el ejemplo que se muestra en la figura 11, cuando se determina que la imagen de producto 22B y la imagen de producto 22C han colisionado una con otra, la primera unidad de ejecución de procesamiento 62 ejecuta un procesamiento relevante para la imagen de producto 22B y la imagen de producto 22C. En el presente caso, la primera unidad de ejecución de procesamiento 62 presenta visualmente una pantalla de comparación, tal como se muestra en la figura 5, sobre la unidad de presentación visual 15. Es decir, la primera unidad de ejecución de procesamiento 62 muestra una pantalla de comparación para comparar una información acerca del producto “B” que está en correlación con la imagen de producto 22B y una información acerca del producto “C” que está en correlación con la imagen de producto 22C sobre la unidad de presentación visual 15.
En lo que sigue, se describirá un procesamiento para implementar la unidad de obtención de resultado de detección 54, la unidad de determinación de selección 56, la unidad de movimiento de objetos 58, la unidad de determinación de colisión 60, y la primera unidad de ejecución de procesamiento 62 que se han descrito en lo que antecede. La figura 12 es un diagrama de flujo de un ejemplo de un procesamiento que se ejecuta de forma repetitiva cada periodo de tiempo previamente determinado (por ejemplo, 1 / 60 de un segundo) en el dispositivo de procesamiento de información 10 mientras que la pantalla de favoritos se presenta visualmente. Obsérvese que un procesamiento para mover la imagen de producto 22 de acuerdo con un cambio de la posición designada de un usuario también se ejecuta mientras que la pantalla de favoritos se presenta visualmente, que, no obstante, no se muestra en la figura
12. La figura 12 muestra principalmente un procesamiento para determinar si las imágenes de producto 22 han colisionado o no. La unidad de control 11 ejecuta el procesamiento que se muestra en la figura 12 de acuerdo con el programa y, como resultado, la unidad de control 11 funciona como la unidad de obtención de resultado de
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
detección 54, la unidad de determinación de selección 56, la unidad de movimiento de objetos 58, la unidad de determinación de colisión 60, y la primera unidad de ejecución de procesamiento 62.
Tal como se muestra en la figura 12, inicialmente, la unidad de control 11 (la unidad de obtención de resultado de detección 54) obtiene el número (N) de las posiciones designadas de un usuario detectadas por la unidad de detección (el panel táctil) (S101). A continuación, la unidad de control 11 determina si el número (N) obtenido es o no dos o más grande (S102). Si el número (N) obtenido no es dos o más grande, la unidad de control 11 termina este procesamiento.
Mientras tanto, si el número (N) obtenido es dos o más grande, la unidad de control 11 inicializa el valor de la variable i a 1 (S103). A continuación, la unidad de control 11 (la unidad de determinación de selección 56) determina si la i-ésima posición designada está incluida o no en cualquier área de determinación 72 (S104). Obsérvese que “la i-ésima posición designada” se refiere a la i-ésima posición designada de entre las posiciones designadas detectadas por la unidad de detección (el panel táctil).
Si la i-ésima posición designada está incluida en cualquier área de determinación 72, la unidad de control 11 (la unidad de determinación de selección 56) inicializa el valor de la variable j a i + 1 (S105), y determina si la j-ésima posición designada está incluida o no en otra área de determinación 72 (S106). Obsérvese que “otra área de determinación 72” se refiere a un área de determinación 72 que no sea el área de determinación 72 que se determina en la etapa S104 como que incluye la i-ésima posición designada.
Si la j-ésima posición designada está incluida en otra área de determinación 72, la unidad de control 11 obtiene la distancia (d) entre la i-ésima posición designada y la j-ésima posición designada (S107). A continuación, la unidad de control 11 (la unidad de determinación de colisión 60) determina si la distancia (d) es o no igual a o más pequeña que el umbral (D) (S108). Si la distancia (d) es igual a o más pequeña que el umbral (D), la unidad de control 11 (la primera unidad de ejecución de procesamiento 62) determina que las imágenes de producto 22 han colisionado, y presenta visualmente la pantalla de comparación (la figura 5) sobre la unidad de presentación visual 15. En el presente caso, se presenta visualmente una pantalla de comparación para el producto de la imagen de producto 22 que se corresponde con el área de determinación que se determina en la etapa S104 como que incluye la i-ésima posición designada y el producto de la imagen de producto 22 que se corresponde con el área de determinación 72 que se determina en la etapa S106 como que incluye la j-ésima posición designada. La pantalla de comparación se presenta visualmente sobre la base de la tabla de favoritos que se muestra en la figura 7.
Mientras tanto, si no se determina en la etapa S104 que la i-ésima posición designada está incluida en cualquier área de determinación 72, la unidad de control 11 incrementa el valor de la variable i (S112) y, a continuación, determina si la variable i es o no más pequeña que el número (N) de las posiciones designadas del usuario detectadas (S113). Si se determina que la variable i es más pequeña que el número (N) de las posiciones designadas del usuario detectadas, la unidad de control 11 ejecuta el procesamiento en la etapa S104. Mientras tanto, si no se determina que la variable i es más pequeña que el número (N) de las posiciones designadas del usuario detectadas, la unidad de control 11 termina este procesamiento.
Además, si no se determina en la etapa S106 que la j-ésima posición designada está incluida en otra área de determinación 72 o si no se determina en la etapa S108 que la distancia (d) es igual a o más pequeña que el umbral (D), la unidad de control 11 incrementa el valor de la variable j (S110) y, a continuación, determina si el valor de la variable j es o no igual a o más pequeño que el número (N) de las posiciones designadas del usuario detectadas (S111). Si se determina que la variable j es igual a o más pequeña que el número (N) de las posiciones designadas del usuario detectadas, la unidad de control 11 ejecuta el procesamiento en la etapa S106. Mientras tanto, si no se determina que la variable j es igual a o más pequeña que el número (N) de las posiciones designadas del usuario detectadas, la unidad de control 11 ejecuta el procesamiento en la etapa S112. La descripción acerca del procesamiento que se muestra en la figura 12 se completa con lo anterior.
En lo que sigue, se describirá la segunda unidad de ejecución de procesamiento 64. La segunda unidad de ejecución de procesamiento 64 es un bloque funcional para potenciar la comodidad del usuario al considerar una mano dominante, hábito, o similar, de un usuario.
La segunda unidad de ejecución de procesamiento 64 ejecuta un procesamiento previamente determinado, sobre la base de una información de relación de posición acerca de una relación de posición entre “el un objeto o la una posición designada” y “el otro objeto o la otra posición designada” en un caso en el pasado en el que se determina que una posición designada de un usuario está incluida en el área de determinación que se corresponde con un objeto de una pluralidad de objetos y otra posición designada del usuario está incluida en el área de determinación que se corresponde con otro objeto de la pluralidad de objetos.
En lo que sigue, se describirán la “información de relación de posición” y el “procesamiento previamente determinado” que se han mencionado en lo que antecede.
15
25
35
45
55
65 E12824893
18-08-2015
Inicialmente, se describirá una “información de relación de posición”. Por ejemplo, una “información de relación de posición” es una información de dirección acerca de una dirección desde “el un objeto o la una posición designada” hasta “el otro objeto o la otra posición designada” en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se corresponde con el un objeto y la otra posición designada está incluida en el área de determinación que se corresponde con el otro objeto. La figura 13 muestra un ejemplo de unos datos de historia que están almacenados en la unidad de almacenamiento
50. Los datos de historia que se muestran en la figura 13 muestran una historia de una información de dirección que indica la dirección desde un objeto hasta el otro objeto en un momento en el pasado en el que se determina que dos objetos son seleccionados por un usuario. La información de dirección es, por ejemplo, una información vectorial que indica la dirección desde la posición representativa (por ejemplo, la posición central) de uno de los dos objetos en colisión que tiene unas coordenadas de eje X más pequeñas que las del otro hasta la posición representativa (por ejemplo, la posición central) del otro objeto.
Obsérvese que la información de dirección puede ser una información vectorial que indica la dirección desde una posición designada hasta la otra posición designada. Como alternativa, la información de dirección puede ser una información vectorial que indica la dirección desde la posición representativa de un objeto hasta una posición designada que se corresponde con el otro objeto (es decir, una posición designada que se determina como que está incluida en el área de determinación que se corresponde con el otro objeto), o una información vectorial que indica la dirección desde una posición designada que se corresponde con un objeto hasta la posición representativa del otro objeto.
Aún como alternativa, la información de dirección puede ser una información vectorial que indica la dirección desde un objeto hasta el otro objeto en un momento que no sea un momento de determinación de que dos objetos son seleccionados por un usuario. Por ejemplo, la información de dirección puede ser una información vectorial que indica la dirección desde un objeto hasta el otro objeto en un momento de determinación de que dos objetos han colisionado.
En lo que sigue, se describirá un “procesamiento previamente determinado”. Un “procesamiento previamente determinado” es un procesamiento para potenciar la comodidad del usuario.
En la presente realización, un “procesamiento previamente determinado” incluye un procesamiento de determinación de mano dominante para determinar la mano dominante de un usuario. Es decir, en la presente realización, la segunda unidad de ejecución de procesamiento 64 incluye una unidad de determinación de mano dominante 66. La unidad de determinación de mano dominante 66 ejecuta el procesamiento de determinación de mano dominante que se ha descrito en lo que antecede sobre la base de la información de relación que se ha descrito en lo que antecede, para determinar de ese modo la mano dominante de un usuario. Por ejemplo, la unidad de determinación de mano dominante 66 determina la mano dominante de un usuario sobre la base de los datos de historia que se han descrito en lo que antecede (la figura 13).
Por ejemplo, se considera que, en general, un usuario diestro puede realizar fácilmente una operación de pinzar tal como se muestra en la figura 14. Es decir, un usuario diestro puede realizar fácilmente una operación de pinzar de acercar su pulgar Fa y su dedo índice Fb uno a otro a partir de un estado en el que el dedo índice Fb está colocado el lado superior derecho del pulgar Fa. Por lo tanto, un usuario diestro tiende a hacer que colisionen dos imágenes de producto 22 que tienen una relación de posición tal que una imagen de producto 22 está colocada el lado superior derecho de la otra imagen de producto 22.
Mientras tanto, se considera que, en general, un usuario zurdo puede realizar fácilmente una operación de pinzar tal como se muestra en la figura 15. Es decir, un usuario zurdo puede realizar fácilmente una operación de pinzar de acercar su pulgar Fa y su dedo índice Fb uno a otro a partir de un estado en el que el pulgar Fa está colocado en el lado inferior derecho del dedo índice Fb. Por lo tanto, un usuario zurdo tiende a hacer que colisionen dos imágenes de producto 22 que tienen una relación de posición tal que una imagen de producto 22 está colocada en el lado inferior derecho de la otra imagen de producto 22.
Una determinación acerca de la mano dominante de un usuario puede realizarse en consideración de la tendencia que se ha descrito en lo que antecede. En lo que sigue, se describe un ejemplo de un procesamiento para determinar la mano dominante de un usuario, que, no obstante, no es limitante.
La figura 16 es un diagrama de flujo de un ejemplo de un procesamiento de determinación de mano dominante de un usuario. La unidad de control 11 ejecuta el procesamiento que se muestra en la figura 16 de acuerdo con un programa y, como resultado, la unidad de control 11 funciona como la unidad de determinación de mano dominante 66 (la segunda unidad de ejecución de procesamiento 64).
La figura 17 es un diagrama que explica el procesamiento que se muestra en la figura 16. La “dirección de referencia A” en la etapa S201 en la figura 16 indica la dirección de referencia 80A que se muestra en la figura 17. La dirección de referencia 80A es una dirección de referencia que se corresponde con una operación de pinzar que se realiza fácilmente por un usuario diestro (la figura 14). Por ejemplo, la dirección de referencia 80A es una dirección desde el
15
25
35
45
55
65 E12824893
18-08-2015
vértice inferior izquierdo de una pantalla hasta el vértice superior derecho. Mientras tanto, la “dirección de referencia B” en la etapa S202 en la figura 16 se corresponde con la dirección de referencia 80B que se muestra en la figura
17. La dirección de referencia 80B es una dirección de referencia que se corresponde con una operación de pinzar que se realiza fácilmente por un usuario zurdo (la figura 15). Por ejemplo, la dirección de referencia 80B es una dirección desde el vértice superior izquierdo de una pantalla hasta el vértice inferior derecho. Tal como se muestra en la figura 16, inicialmente, la unidad de control 11 (la unidad de determinación de mano dominante 66) obtiene el número (m1) de artículos de información de dirección que se corresponden con la dirección de referencia 80A de entre una pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13) (S201). Obsérvese que “información de dirección que se corresponde con la dirección de referencia 80A” es, por ejemplo, una información de dirección que indica una dirección en paralelo con respecto a o sustancialmente en paralelo con respecto a la dirección de referencia 80A. En concreto, “información de dirección que se corresponde con la dirección de referencia 80A” es, por ejemplo, una información de dirección con el ángulo formado por la dirección que se indica mediante la información de dirección y la dirección de referencia 80A siendo igual a o más pequeño que un ángulo de referencia.
Además, la unidad de control 11 (la unidad de determinación de mano dominante 66) obtiene el número (m2) de artículos de información de dirección que se corresponden con la dirección de referencia 80B de entre una pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13) (S202). Obsérvese que “información de dirección que se corresponde con la dirección de referencia 80B” es, por ejemplo, una información de dirección que indica una dirección en paralelo con respecto a o sustancialmente en paralelo con respecto a la dirección de referencia 80B. En concreto, “información de dirección que se corresponde con la dirección de referencia 80B” es, por ejemplo, una información de dirección con el ángulo formado por la dirección que se indica mediante la información de dirección y la dirección de referencia 80B siendo igual a o más pequeño que un ángulo de referencia.
La unidad de control 11 (la unidad de determinación de mano dominante 66) compara el número (m1) que se ha descrito en lo que antecede y el número (m2) que se ha descrito en lo que antecede para determinar la mano dominante de un usuario sobre la base del resultado de comparación (S203 a S208).
Es decir, la unidad de control 11 determina si el número (m1) que se ha descrito en lo que antecede es o no más grande que el número (m2) que se ha descrito en lo que antecede (S203). Si el número (m1) que se ha descrito en lo que antecede es más grande que el número (m2) que se ha descrito en lo que antecede, la unidad de control 11 determina si la diferencia entre el número (m1) que se ha descrito en lo que antecede y el número (m2) que se ha descrito en lo que antecede es o no igual a o más grande que un valor de referencia (M) (S204). Si la diferencia entre el número (m1) que se ha descrito en lo que antecede y el número (m2) que se ha descrito en lo que antecede es más grande que el valor de referencia (M), la unidad de control 11 determina que la mano dominante del usuario es una mano derecha (S205).
Obsérvese que el procesamiento en la etapa S204 puede omitirse. De la forma que se ha descrito en lo que antecede, puede determinarse que la mano dominante del usuario es una mano derecha cuando se determina que el número (m1) que se ha descrito en lo que antecede es más grande que el número (m2) que se ha descrito en lo que antecede.
Mientras tanto, si no se determina en la etapa S203 que el número (m1) que se ha descrito en lo que antecede es más grande que el número (m2) que se ha descrito en lo que antecede o si no se determina en la etapa S204 que la diferencia entre el número (m1) que se ha descrito en lo que antecede y el número (m2) que se ha descrito en lo que antecede es más grande que el valor de referencia (M), la unidad de control 11 determina si el número (m2) que se ha descrito en lo que antecede es o no más grande que el número (m1) que se ha descrito en lo que antecede (S206).
Si el número (m2) que se ha descrito en lo que antecede es más grande que el número (m1) que se ha descrito en lo que antecede, la unidad de control 11 determina si la diferencia entre el número (m2) que se ha descrito en lo que antecede y el número (m1) que se ha descrito en lo que antecede es o no más grande que el valor de referencia (M) (S207). A continuación, si la diferencia entre el número (m2) que se ha descrito en lo que antecede y el número (m1) que se ha descrito en lo que antecede es más grande que el valor de referencia (M), la unidad de control 11 (la unidad de determinación de mano dominante 66) determina que la mano dominante del usuario es una mano izquierda (S208).
Obsérvese que el procesamiento en la etapa S207 puede omitirse. De la forma que se ha descrito en lo que antecede, puede determinarse que la mano dominante del usuario es una mano izquierda cuando se determina que el número (m2) que se ha descrito en lo que antecede es más grande que el número (m1) que se ha descrito en lo que antecede.
Mientras tanto, si no se determina en la etapa S206 que el número (m2) que se ha descrito en lo que antecede es más grande que el número (m1) que se ha descrito en lo que antecede o si no se determina en la etapa S207 que la diferencia entre el número (m2) que se ha descrito en lo que antecede y el número (m1) que se ha descrito en lo que
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
antecede es más grande que el valor de referencia (M), la unidad de control 11 termina el procesamiento sin determinar la mano dominante del usuario. La descripción acerca del procesamiento que se muestra en la figura 16 se completa con lo anterior.
Tal como se ha descrito en lo que antecede, de acuerdo con el dispositivo de procesamiento de información 10 en la presente realización, la mano dominante de un usuario se determina sobre la base de la información de dirección acerca de la dirección desde una imagen de producto 22 hasta la otra imagen de producto 22 en un momento en el pasado en el que se determina que dos imágenes de producto 22 son seleccionadas por un usuario. Es decir, es posible determinar la mano dominante de un usuario sin imponer al usuario una tarea de introducción de información acerca de su mano dominante.
Además, en la determinación de la mano dominante de un usuario, puede considerarse una información de distancia (una información de relación de posición) acerca de la distancia entre dos objetos de producto 22 en un momento en el pasado en el que se determina que las dos imágenes de producto 22 son seleccionadas por un usuario. Obsérvese que la información de distancia puede ser una información acerca de la distancia entre una posición designada y la otra posición designada. Como alternativa, la información de distancia puede ser una información acerca de la distancia entre la posición representativa de un objeto y una posición designada que se corresponde con el otro objeto (es decir, una posición designada que se determina como que está incluida en el área de determinación que se corresponde con el otro objeto), o la distancia entre una posición designada que se corresponde con un objeto y la posición representativa del otro objeto.
Por ejemplo, cuando la distancia entre dos imágenes de producto 22 en un momento en el pasado en el que se determina que las dos imágenes de producto 22 son seleccionadas por un usuario es grande, es sumamente probable que el usuario esté seleccionando una imagen de producto 22 con su dedo de la mano derecha y la otra imagen de producto 22 con su dedo de la mano izquierda. No es deseable usar la información de dirección (es decir, una información de dirección acerca de la dirección desde una imagen de producto 22 hasta la otra imagen de producto 22) en un caso de este tipo en la determinación de la mano dominante de un usuario. Por lo tanto, puede que la unidad de determinación de mano dominante 66 no use la información de dirección que se ha descrito en lo que antecede en un caso de este tipo en la determinación de la mano dominante de un usuario.
Con el fin de no usar la información de dirección que se ha descrito en lo que antecede en el caso que se ha descrito en lo que antecede en la determinación de la mano dominante de un usuario, por ejemplo, puede que la información de dirección que se ha descrito en lo que antecede en el caso que se ha descrito en lo que antecede no esté incluida en los datos de historia (la figura 13). Como alternativa, por ejemplo, unos datos de historia tal como se muestra en la figura 18 pueden almacenarse en lugar de los datos de historia que se muestran en la figura 13. Es decir, los datos de historia que se muestran en la figura 18 son unos datos que establecen una correlación entre la información de dirección que se ha descrito en lo que antecede y la información de distancia que se ha descrito en lo que antecede. Además, una información de dirección que está en correlación con una información de distancia que indica una distancia más grande que una distancia de referencia puede ignorarse en las etapas S201 y S202 en la figura 16. Con lo anterior, es posible mejorar la precisión en la determinación de la mano dominante de un usuario.
En un caso en el que la mano dominante de un usuario se determina por la unidad de determinación de mano dominante 66, unos datos que indican el resultado de la determinación se almacenan en la unidad de almacenamiento 50. En lo sucesivo en el presente documento, se hará referencia a los datos como “datos de mano dominante”. Los datos de mano dominante se usan en diversos procesamientos.
Por ejemplo, los datos de mano dominante se usan en la presentación visual de la pantalla de favoritos. Por ejemplo, la unidad de control de presentación visual 52 establece las posiciones de presentación visual inicial de la pluralidad de imágenes de producto 22 que se presentan visualmente en la pantalla de favoritos, sobre la base de los datos de mano dominante. En lo que sigue, se describirá un ejemplo de un procesamiento para establecer la posición de presentación visual inicial de la imagen de producto 22.
Inicialmente, la unidad de control de presentación visual 52 obtiene una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable. Es decir, la unidad de control de presentación visual 52 obtiene una combinación de dos productos que un usuario selecciona de manera sumamente probable como objetivos de comparación.
Una combinación de dos productos que un usuario selecciona de manera sumamente probable como objetivos de comparación puede obtenerse sobre la base de una información de atributos de producto, por ejemplo. Por ejemplo, en general, se considera que un usuario selecciona de manera sumamente probable como objetivos de comparación dos productos que tienen una información de atributos de una similitud elevada. En concreto, en general, se considera que un usuario selecciona de manera sumamente probable dos productos del mismo tipo como objetivos de comparación. Además, en general, se considera que un usuario selecciona de manera sumamente probable dos productos a un nivel de precios similar como objetivos de comparación.
15
25
35
45
55
65 E12824893
18-08-2015
Por lo tanto, con el fin de obtener una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, en lo que respecta a cada una de la pluralidad de imágenes de producto 22 que se muestran en la pantalla de favoritos, la unidad de control de presentación visual 52 (los medios de comparación) compara la información de atributos de producto que está en correlación con la imagen de producto 22 y la que está en correlación con otra imagen 22. A continuación, la unidad de control de presentación visual 52 determina dos imágenes de producto 22 conduciendo a un resultado de comparación que es un resultado previamente determinado como una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable. Obsérvese que un “resultado previamente determinado” es un resultado de comparación de que, por ejemplo, las categorías son las mismas o similares, que los precios son los mismos o similares (dicho de otra forma, la diferencia en cuanto al precio es igual a o más pequeña que un valor de referencia), y así sucesivamente.
Obsérvese que una combinación de dos productos que un usuario selecciona de manera sumamente probable como objetivos de comparación puede obtenerse sobre la base de, por ejemplo, una combinación de dos productos que han sido seleccionados por el usuario en el pasado como objetivos de comparación. Por ejemplo, en general, se considera que una combinación de productos que han sido seleccionados como objetivos de comparación muchas veces en el pasado se selecciona de manera sumamente probable como objetivos de comparación por un usuario.
Por lo tanto, una información acerca de una combinación de imágenes de producto 22 que se ha hecho que colisionen por un usuario en el pasado (es decir, una combinación de productos que han sido seleccionados como objetivos de comparación en el pasado por un usuario) puede almacenarse en la unidad de almacenamiento 50. Sobre la base de la información, la unidad de control de presentación visual 52 puede obtener una combinación de dos imágenes de producto 22 que el usuario hace que colisionen de manera sumamente probable. Por ejemplo, la unidad de control de presentación visual 52 puede obtener una combinación de imágenes de producto 22 que se ha hecho que colisionen un número de veces más grande que un número de veces de referencia como una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable.
Cuando se obtiene una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, la unidad de control de presentación visual 52 establece las posiciones de presentación visual inicial de estas dos imágenes de producto 22 sobre la base de los datos de mano dominante.
Con el fin de establecer la posición de presentación visual inicial de la imagen de producto 22 sobre la base de los datos de mano dominante, son necesarios unos datos que establecen una correlación entre los datos de mano dominante (la mano dominante de un usuario) y la posición de presentación visual inicial de la imagen de producto
22. En lo que sigue, se hará referencia a los datos como “datos de posición de presentación visual inicial”. Las figuras 19 y 20 son unos diagramas que explican los datos de posición de presentación visual inicial.
En la presente realización, por ejemplo, una pluralidad de áreas 90A, 90B, 90C y 90D tal como se muestran en la figura 19 se establecen de forma virtual en la pantalla de favoritos. En el ejemplo que se muestra en la figura 19, la pantalla de favoritos se divide a la mitad en sentido horizontal y en sentido vertical de tal modo que cuatro áreas 90A, 90B, 90C y 90D se establecen de forma virtual en la pantalla de favoritos.
El área 90A es un área superior izquierda en la pantalla de favoritos; el área 90B es un área inferior izquierda en la pantalla de favoritos; el área 90C es un área superior derecha en la pantalla de favoritos; y el área 90D es un área inferior derecha en la pantalla de favoritos. Las áreas 90A y 90D tienen una relación de posición en la que el área 90D está colocada en el lado inferior derecho del área 90A, y las áreas 90B y 90C tienen una relación de posición en la que el área 90C está colocada el lado superior derecho del área 90B.
Obsérvese que en la figura 19, el número de referencia “92A” indica la frontera entre las áreas 90A y 90B, y el número de referencia “92B” indica la frontera entre las áreas 90B y 90D. El número de referencia “92C” indica la frontera entre las áreas 90A y 90C, y el número de referencia “92D” indica la frontera entre las áreas 90C y 90D.
La figura 20 muestra un ejemplo de los datos de posición de presentación visual inicial. Los datos de posición de presentación visual inicial que se muestran en la figura 20 establecen una correlación entre la mano dominante de un usuario y la posición de presentación visual inicial de la imagen de producto 22. Obsérvese que las áreas A, B, C y D respectivas que se muestran en la figura 20 se corresponden con las áreas 90A, 90B, 90C y 90D respectivas que se muestran en la figura 19. De acuerdo con los datos de posición de presentación visual inicial que se muestran en la figura 20, como la posición de presentación visual inicial de la imagen de producto 22, las áreas 90B y 90C están en correlación con una “mano derecha” como una mano dominante, mientras que las áreas 90A y 90D están en correlación con una “mano izquierda” como una mano dominante.
Por ejemplo, si los datos de mano dominante indican que la mano dominante de un usuario es una mano derecha, la unidad de control de presentación visual 52 obtiene la posición de presentación visual inicial (las áreas 90B y 90C) que está en correlación con una “mano derecha” como la mano dominante, con referencia a los datos de posición de presentación visual inicial. En el presente caso, la unidad de control de presentación visual 52 establece la posición de presentación visual inicial de una de las dos imágenes de producto 22 que un usuario selecciona de manera
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
sumamente probable como objetivos de comparación en el área 90B y la posición de presentación visual inicial de la otra en el área 90C.
Mientras tanto, si los datos de mano dominante indican que la mano dominante de un usuario es una mano izquierda, la unidad de control de presentación visual 52 obtiene la posición de presentación visual inicial (las áreas 90A y 90D) que está en correlación con una “mano izquierda” como una mano dominante, con referencia a los datos de posición de presentación visual inicial. En el presente caso, la unidad de control de presentación visual 52 establece la posición de presentación visual inicial de una de las dos imágenes de producto 22 que un usuario selecciona de manera sumamente probable como objetivos de comparación en el área 90A y la posición de presentación visual inicial de la otra en el área 90D.
Supóngase en el presente caso que las imágenes de producto 22A a 22D que se muestran en la figura 3 se presentan visualmente en la pantalla de favoritos. En el presente caso, debido a que las imágenes de producto 22B y 22C pertenecen a la misma categoría de producto (es decir, calcetines) y tienen un precio similar, las imágenes de producto 22B y 22C se determinan como dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable.
Además, si los datos de mano dominante indican que la mano dominante de un usuario es una mano izquierda, la posición de presentación visual inicial de una de las imágenes de producto 22B y 22C se establece en el área 90A, y la de la otra en el área 90D, tal como se muestra en la figura 21, por ejemplo. En el presente caso, por ejemplo, una u otra de las imágenes de producto 22B y 22C se selecciona de forma aleatoria como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90A, y la imagen de producto 22 no seleccionada como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90A se selecciona como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90D.
En el ejemplo que se muestra en la figura 21, la imagen de producto 22B se selecciona como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90A, y la imagen de producto 22C se selecciona como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90D. Obsérvese que, en el presente caso, una posición en el área 90A en la que presentar visualmente inicialmente la imagen de producto 22B se determina de forma aleatoria. De forma similar, una posición en el área 90D en la que presentar visualmente inicialmente la imagen de producto 22C se determina de forma aleatoria. Las orientaciones de las imágenes de producto 22B y 22C también se determinan de forma aleatoria.
Obsérvese que las posiciones de presentación visual inicial de las imágenes de producto 22A y 22D, que no se determinan como unas imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, se establecen en las áreas 90B y 90C que no sean las áreas 90A y 90D, de forma respectiva. Es decir, en el presente caso, las posiciones en las áreas 90B y 90C se determinan de forma aleatoria como las posiciones de presentación visual inicial de las imágenes de producto 22A y 22D. Las orientaciones de las imágenes de producto 22A y 22D también se determinan de forma aleatoria.
Mientras tanto, si los datos de mano dominante indican que la mano dominante de un usuario es una mano derecha, la posición de presentación visual inicial de una de las imágenes de producto 22B y 22C se establece en el área 90B, y la de la otra en el área 90C. En el presente caso, las posiciones de presentación visual inicial de las imágenes de producto 22A y 22D, que no se determinan como unas imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, se establecen en las áreas 90B y 90C que no sean las áreas 90A y 90D, de forma respectiva.
De esta forma, es posible ayudar a un usuario a que haga que colisionen fácilmente las imágenes de producto 22 al considerar la mano dominante del usuario. Es decir, es posible ayudar a un usuario a que seleccione fácilmente dos productos como objetivos de comparación.
Obsérvese que una de las imágenes de producto 22B y 22C que un usuario hace que colisionen de manera sumamente probable puede presentarse visualmente en ambas de las áreas 90A y 90B y la otra en ambas de las áreas 90C y 90D en la pantalla de favoritos que se muestra en la figura 21, por ejemplo, antes de la compleción de la determinación por la unidad de determinación de mano dominante 66 (es decir, cuando los datos de mano dominante que indican si la mano dominante de un usuario es una mano derecha o una mano izquierda no se almacenan en la unidad de almacenamiento 50). Con lo anterior, es posible ayudar a un usuario a que haga que colisionen fácilmente las imágenes de producto 22 incluso antes de que la unidad de determinación de mano dominante 66 determine la mano dominante del usuario. Es decir, es posible ayudar a un usuario a que seleccione fácilmente dos productos como objetivos de comparación.
Obsérvese que a pesar de que se ha descrito en lo que antecede un caso en el que los datos de mano dominante se usan en la presentación visual de la pantalla de favoritos, los datos de mano dominante pueden usarse no solo en la presentación visual de la pantalla de favoritos. Por ejemplo, los datos de mano dominante también pueden usarse en la búsqueda de un producto (una búsqueda de información).
15
25
35
45
55
65 E12824893
18-08-2015
Por ejemplo, hay un caso en el que se encuentran disponibles tanto un producto para diestros como un producto para zurdos para algunos tipos de productos. En lo que respecta a los artículos de papelería, por ejemplo, pueden encontrarse disponibles tanto unos artículos de papelería para diestros como unos artículos de papelería para zurdos. En concreto, se encuentran disponibles unas tijeras para diestros y unas tijeras para zurdos. Por lo tanto, por ejemplo, cuando un usuario designa una categoría de producto específica (por ejemplo, artículos de papelería) como una condición de búsqueda en una pantalla de búsqueda, la mano dominante del usuario puede añadirse de forma automática como una parte de la condición de búsqueda sobre la base de la mano dominante. Esto posibilita una búsqueda en consideración de la mano dominante de un usuario.
De acuerdo con el dispositivo de procesamiento de información 10 en la primera realización que se ha descrito en lo que antecede, es posible potenciar la comodidad del usuario al considerar la mano dominante de un usuario sin imponer al usuario una tarea de introducción de información acerca de la mano dominante del usuario.
[Segunda realización]
Se describirá un dispositivo de procesamiento de información de acuerdo con una segunda realización de la presente invención. Un dispositivo de procesamiento de información 10 en la segunda realización tiene una estructura de soporte físico similar a la del dispositivo de procesamiento de información 10 en la primera realización (véase la figura 1).
También en la segunda realización, un sitio comercial electrónico es proporcionado por el servidor 4, y un programa de aplicación para usar el sitio comercial electrónico que se ha descrito en lo que antecede se ejecuta en el dispositivo de procesamiento de información 10. Es decir, también en la segunda realización, la pantalla de resultados de búsqueda que se muestra en la figura 2, la pantalla de favoritos que se muestra en la figura 3, y la pantalla de comparación que se muestra en la figura 5 se presentan visualmente sobre la unidad de presentación visual 15.
Mientras que el dispositivo de procesamiento de información 10 en la primera realización determina la mano dominante de un usuario y establece la posición de presentación visual inicial de la imagen de producto 22 que se presenta visualmente en la pantalla de favoritos sobre la base de la mano dominante del usuario, el dispositivo de procesamiento de información 10 en la segunda realización difiere con respecto al de la primera realización en que la posición de presentación visual inicial de la imagen de producto 22 que se presenta visualmente en la pantalla de favoritos se establece sin determinar la mano dominante de un usuario.
La figura 22 es un diagrama de bloques funcional que muestra un bloque funcional relevante para la presente invención de entre los que se logran en el dispositivo de procesamiento de información 10 en la segunda realización. Tal como se muestra en la figura 22, el dispositivo de procesamiento de información 10 en la segunda realización incluye una unidad de almacenamiento 50, una unidad de control de presentación visual 52, una unidad de obtención de resultado de detección 54, una unidad de determinación de selección 56, una unidad de movimiento de objetos 58, una unidad de determinación de colisión 60, una primera unidad de ejecución de procesamiento 62, y una segunda unidad de ejecución de procesamiento 64.
El dispositivo de procesamiento de información 10 en la segunda realización difiere con respecto al de la primera realización en que la unidad de establecimiento de posición de presentación visual inicial 68 está incluida en la segunda unidad de ejecución de procesamiento 64 en lugar de la unidad de determinación de mano dominante 66. Por lo tanto, en lo que sigue, se describirán principalmente la segunda unidad de ejecución de procesamiento 64 y la unidad de establecimiento de posición de presentación visual inicial 68. Obsérvese que las funciones de los otros bloques funcionales son similares a las de la primera realización y, por lo tanto, no se describen de nuevo en el presente caso.
De forma similar a la de la primera realización, también en la segunda realización, la segunda unidad de ejecución de procesamiento 64 ejecuta un procesamiento previamente determinado, sobre la base de una relación de posición entre el un objeto o la una posición designada y el otro objeto o la otra posición designada en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se corresponde con el un objeto de entre la pluralidad de objetos y la otra posición designada está incluida en el área de determinación que se corresponde con el otro objeto de entre la pluralidad de objetos.
Obsérvese que, de forma similar a la de la primera realización, una “información de relación de posición” es una información de dirección acerca de una dirección desde “el un objeto o la una posición designada” hasta “el otro objeto o la otra posición designada” en un caso en el pasado en el que se determina que la una posición designada está incluida en el área de determinación que se corresponde con el un objeto y la otra posición designada está incluida en el área de determinación que se corresponde con el otro objeto. También en la segunda realización, por ejemplo, los datos de historia que se muestran en la figura 13 se almacenan en la unidad de almacenamiento 50.
Un “proceso previamente determinado” es un procesamiento para establecer las posiciones de presentación visual inicial de una pluralidad de objetos en una pantalla, por ejemplo. Es decir, la segunda unidad de ejecución de
15
25
35
45
55
65 E12824893
18-08-2015
procesamiento 64 incluye la unidad de establecimiento de posición de presentación visual inicial 68. La unidad de establecimiento de posición de presentación visual inicial 68 ejecuta un procesamiento para establecer las posiciones de presentación visual inicial de la pluralidad de objetos en una pantalla sobre la base de la información de relación que se ha descrito en lo que antecede, para establecer de ese modo las posiciones de presentación visual inicial de la pluralidad de objetos en la pantalla. También en la segunda realización, de forma similar a la de la primera realización, debido a que la pantalla de favoritos se corresponde con la “pantalla” que se ha descrito en lo que antecede, y la pluralidad de imágenes de producto 22 se corresponden con “la pluralidad de objetos”, la unidad de establecimiento de posición de presentación visual inicial 68 establece las posiciones de presentación visual inicial de la pluralidad de imágenes de producto 22 que se presentan visualmente en la pantalla de favoritos sobre la base de los datos de historia (la figura 13).
Con el fin de establecer la posición de presentación visual inicial de la imagen de producto 22, sobre la base de los datos de historia, son necesarios unos datos que establecen una correlación entre los datos de historia y la posición de presentación visual inicial de la imagen de producto 22. En lo sucesivo en el presente documento, se hará referencia a los datos como “datos de posición de presentación visual inicial”. Las figuras 23 y 24 explican los datos de posición de presentación visual inicial.
En la presente realización, una pluralidad de direcciones de referencia 80A, 80B, 80C y 80D tal como se muestran en la figura 23, por ejemplo, se establecen de forma virtual en la pantalla de favoritos. La dirección de referencia 80A es una dirección que se extiende desde el vértice inferior izquierdo de la pantalla de favoritos hasta el vértice superior derecho; la dirección de referencia 80B es una dirección que se extiende desde el vértice superior izquierdo de la pantalla de favoritos hasta el vértice inferior derecho; la dirección de referencia 80C es una dirección que se extiende desde el lado izquierdo de la pantalla de favoritos hasta el lado derecho (es decir, la dirección positiva de eje x); la dirección de referencia 80D es una dirección que se extiende en la dirección de arriba abajo de la pantalla de favoritos (es decir, la dirección positiva o negativa de eje y). Obsérvese que a pesar de que en el presente caso se establecen en la descripción cuatro direcciones de referencia 80A a 80D, pueden establecerse cinco o más direcciones de referencia.
La figura 24 muestra un ejemplo de los datos de posición inicial. Los datos de posición inicial que se muestran en la figura 24 establecen una correlación entre unas posiciones de presentación visual inicial de la imagen de producto 22 y las direcciones de referencia 80A a 80D respectivas. Las direcciones de referencia A, B, C y D respectivas que se muestran en la figura 24 se corresponden con las direcciones de referencia 80A, 80B, 80C y 80D respectivas que se muestran en la figura 23. Las áreas A, B, C y D respectivas que se muestran en la figura 24 se corresponden con las áreas 90A, 90B, 90C y 90D respectivas que se muestran en la figura 19. Además, unas fronteras A, B, C y D respectivas que se muestran en la figura 24 se corresponden con las fronteras 92A, 92B, 92C y 92D respectivas que se muestran en la figura 19.
Inicialmente, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable. Es decir, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene una combinación de dos productos que un usuario selecciona de manera sumamente probable como objetivos de comparación. Un método para obtener una combinación de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable es similar al de la primera realización.
Cuando se obtienen dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, la unidad de establecimiento de posición de presentación visual inicial 68 establece las posiciones de presentación visual inicial de estas dos imágenes de producto 22 sobre la base de los datos de historia (la figura 13). Es decir, la unidad de establecimiento de posición de presentación visual inicial 68 establece la dirección desde la posición de presentación visual inicial de una de las dos imágenes de producto 22 hasta la de la otra sobre la base de la información de dirección que está incluida en los datos de historia (la figura 13). En concreto, la unidad de establecimiento de posición de presentación visual inicial 68 establece las posiciones de presentación visual inicial de estas dos imágenes de producto 22 de tal modo que la dirección desde una de las dos imágenes de producto 22 hasta la de la otra coincide con la dirección sobre la base de la información de dirección que está incluida en los datos de historia (la figura 13).
Por ejemplo, en lo que respecta a cada uno de la pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13), la unidad de establecimiento de posición de presentación visual inicial 68 determina si la información de dirección se corresponde o no con cualquiera de las direcciones de referencia 80A a 80D. En concreto, la unidad de establecimiento de posición de presentación visual inicial 68 determina si el ángulo formado por la dirección que se indica mediante la información de dirección y la dirección de referencia es o no igual a o más pequeño que un ángulo de referencia, para determinar de ese modo si la información de dirección se corresponde o no con la dirección de referencia. Por ejemplo, si el ángulo formado por la dirección que se indica mediante la información de dirección y la dirección de referencia 80A es igual a o más pequeño que un ángulo de referencia, la unidad de establecimiento de posición de presentación visual inicial 68 determina que la información de dirección se corresponde con la dirección de referencia 80A. Si ninguno de los ángulos formados por la dirección que se indica mediante la información de dirección y las direcciones de referencia 80A a 80D respectivas es igual a
10
15
20
25
30
35
40
45
50
55
60
65 E12824893
18-08-2015
o más pequeño que un ángulo de referencia, la unidad de establecimiento de posición de presentación visual inicial 68 determina que la información de dirección no se corresponde con cualquiera de las direcciones de referencia 80A a 80D.
En lo que respecta a cada una de las direcciones de referencia 80A a 80D, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene el número de artículos de información de dirección que se corresponden con la dirección de referencia. Es decir, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene el número de artículos de información de dirección que se corresponden con la dirección de referencia 80A de entre la pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13). Además, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene el número de artículos de información de dirección que se corresponden con la dirección de referencia 80B de entre la pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13). De forma similar, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene el número de artículos de información de dirección que se corresponden con la dirección de referencia 80C de entre la pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13). Además, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene el número de artículos de información de dirección que se corresponden con la dirección de referencia 80D de entre la pluralidad de artículos de información de dirección que están incluidos en los datos de historia (la figura 13). A continuación, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene una dirección de referencia que tiene el número más grande de los artículos de información de dirección que se han descrito en lo que antecede de entre las direcciones de referencia 80A a 80D.
A continuación, con referencia a los datos de posición de presentación visual inicial (la figura 24), la unidad de establecimiento de posición de presentación visual inicial 68 obtiene la posición de presentación visual inicial que está en correlación con la dirección de referencia que tiene el número más grande de los artículos de información de dirección que se han descrito en lo que antecede. Por ejemplo, si la dirección de referencia que tiene el número más grande de los artículos de información de dirección que se han descrito en lo que antecede es la dirección de referencia 80B, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene las áreas 90A y 90D como las posiciones de presentación visual inicial. En el presente caso, la unidad de establecimiento de posición de presentación visual inicial 68 presenta visualmente una de las dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable en el área 90A y la otra en el área 90D.
Supóngase en el presente caso un caso en el que las imágenes de producto 22A a 22D que se muestran en la figura 3 se presentan visualmente en la pantalla de favoritos. En el presente caso, debido a que las imágenes de producto 22B y 22C pertenecen a la misma categoría de producto (es decir, calcetines) y tienen un precio similar, la imagen de producto 22B, 22C se determinan como dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable.
Por ejemplo, si la dirección de referencia que tiene el número más grande de los artículos de información de dirección que se han descrito en lo que antecede es la dirección de referencia 80B, la posición de presentación visual inicial de una de las imágenes de producto 22B y 22C se establece en el área 90A y la de la otra en el área 90D, tal como se muestra en la figura 21, por ejemplo. En el presente caso, por ejemplo, una u otra de las imágenes de producto 22B y 22C se selecciona de forma aleatoria como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90A. A continuación, la imagen de producto 22 no seleccionada como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90A se selecciona como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90D.
En el ejemplo que se muestra en la figura 21, la imagen de producto 22B se selecciona como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90A, y la imagen de producto 22C se selecciona como una imagen de producto 22 que va a presentarse visualmente inicialmente en el área 90D. Obsérvese que, en el presente caso, una posición en el área 90A en la que presentar visualmente inicialmente la imagen de producto 22B se determina de forma aleatoria. De forma similar, una posición en el área 90D en la que presentar visualmente inicialmente la imagen de producto 22C se determina de forma aleatoria. Las orientaciones de las imágenes de producto 22B y 22C también se determinan de forma aleatoria.
Obsérvese que las posiciones de presentación visual inicial de las imágenes de producto 22A y 22D, que no se determinan como unas imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, se establecen en las áreas 90B y 90C que no sean las áreas 90A y 90D, de forma respectiva. En el presente caso, las posiciones en las áreas 90B y 90C se determinan de forma aleatoria como las posiciones de presentación visual inicial de las imágenes de producto 22A y 22D. Las orientaciones de las imágenes de producto 22A y 22D también se determinan de forma aleatoria.
Obsérvese que, por ejemplo, cuando la dirección de referencia que tiene el número más grande de los artículos de información de dirección que se han descrito en lo que antecede es la dirección de referencia 80C, la unidad de establecimiento de posición de presentación visual inicial 68 obtiene las fronteras 92A y 92D como las posiciones de presentación visual inicial. En el presente caso, la unidad de establecimiento de posición de presentación visual
15
25
35
45
55
65 E12824893
18-08-2015
inicial 68 muestra una de las dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable sobre la frontera 92A y la otra en la frontera 92D.
Con lo anterior, es posible ayudar a un usuario a que haga que colisionen fácilmente las imágenes de producto 22 al considerar el hábito del usuario. Es decir, es posible ayudar a un usuario a que seleccione fácilmente dos productos como objetivos de comparación.
De acuerdo con el dispositivo de procesamiento de información 10 que se ha descrito en lo que antecede en la segunda realización, es posible potenciar la comodidad del usuario al considerar el hábito de un usuario sin imponer al usuario una tarea de introducción de información acerca del hábito del usuario.
Obsérvese en el presente caso que, en el establecimiento de la posición de presentación visual inicial de la imagen de producto 22, puede considerarse una información de distancia (una información de relación de posición) acerca de la distancia entre dos imágenes de producto 22 en un momento en el pasado en el que se determina que las dos imágenes de producto 22 son seleccionadas por un usuario. Esta información de distancia puede ser una información acerca de la distancia entre una posición designada y la otra posición designada. Como alternativa, la información de distancia puede ser una información acerca de la distancia entre la posición representativa de un objeto y una posición designada que se corresponde con el otro objeto (es decir, una posición designada que se determina como que está incluida en el área de determinación que se corresponde con el otro objeto), o una información acerca de la distancia entre una posición designada que se corresponde con un objeto y la posición representativa del otro objeto.
En lo que sigue, se describirá un ejemplo en el que la posición de presentación visual inicial de la imagen de producto 22 se establece en consideración de la información de distancia que se ha descrito en lo que antecede. En lo que sigue, se describirán dos ejemplos.
Inicialmente, se describirá un primer ejemplo. Por ejemplo, si la distancia entre dos imágenes de producto 22 en un momento en el pasado en el que se determina que las dos imágenes de producto 22 son seleccionadas por un usuario es grande, es sumamente probable que el usuario seleccione una imagen de producto 22 con su dedo de la mano derecha y la otra imagen de producto 22 con su dedo de la mano izquierda. Debido a que la unidad de establecimiento de posición de presentación visual 68 es un bloque funcional para establecer la posición de presentación visual inicial de la imagen de producto 22 de tal modo que un usuario puede hacer que colisionen fácilmente dos imágenes de producto 22 a través de una operación de pinzar usando dos dedos de su mano, no es deseable usar la información de dirección que se ha descrito en lo que antecede en el caso que se ha descrito en lo que antecede en el establecimiento de la posición de presentación visual inicial de la imagen de producto 22. Por lo tanto, puede que la unidad de establecimiento de posición de presentación visual inicial 68 no use la información de dirección que se ha descrito en lo que antecede en el caso que se ha descrito en lo que antecede en el establecimiento de la posición de presentación visual inicial de la imagen de producto 22.
Con el fin de no usar la información de dirección que se ha descrito en lo que antecede en el caso que se ha descrito en lo que antecede en el establecimiento de la posición de presentación visual inicial de la imagen de producto 22, puede que la información de dirección que se ha descrito en lo que antecede en el caso que se ha descrito en lo que antecede no esté incluida en los datos de historia (la figura 13), por ejemplo. Como alternativa, los datos de historia que se muestran en la figura 18 pueden almacenarse en lugar de los datos de historia que se muestran en la figura
13. En el presente caso, una información de dirección que está en correlación con una información de distancia que indica una distancia más grande que una distancia de referencia puede ignorarse en el establecimiento de la posición de presentación visual inicial de la imagen de producto 22.
Se describirá un segundo ejemplo. La unidad de establecimiento de posición de presentación visual inicial 68 puede usar la información de dirección que se ha descrito en lo que antecede y la información de distancia que se ha descrito en lo que antecede en el establecimiento de la posición de presentación visual inicial de la imagen de producto 22. Por ejemplo, en el establecimiento de las posiciones de presentación visual inicial de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, la unidad de establecimiento de posición de presentación visual inicial 68 puede establecer la distancia entre las posiciones de presentación visual inicial de estas dos imágenes de producto 22 sobre la base de la información de distancia. En concreto, la unidad de establecimiento de posición de presentación visual inicial 68 puede establecer las posiciones de presentación visual inicial de estas dos imágenes de producto 22 de tal modo que la distancia entre las posiciones de presentación visual inicial de estas dos imágenes de producto 22 se vuelve una distancia sobre la base de la información de distancia que se ha descrito en lo que antecede.
Con el fin de implementar una operación de este tipo de la unidad de establecimiento de posición de presentación visual inicial 68, por ejemplo, es necesario que unos datos de historia tal como se muestra en la figura 18 se almacenen en la unidad de almacenamiento 50. Obsérvese que, en el presente caso, no es necesario que la información de dirección se almacene con el fin de ponerse en correlación con la información de distancia, y unos datos que indican la historia de la información de dirección pueden almacenarse por separado de unos datos que indican la historia de la información de distancia.
15
25
35
45
55
65 E12824893
18-08-2015
A continuación, la unidad de establecimiento de posición de presentación visual inicial 68 puede calcular una estadística (por ejemplo, el valor promedio, un valor intermedio, o similar) de las distancias que se indican mediante una pluralidad de artículos de información de distancia respectivos que están incluidos en los datos de historia (la figura 18). Como alternativa, la unidad de establecimiento de posición de presentación visual inicial 68 puede establecer la distancia entre las posiciones de presentación visual inicial de dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable, sobre la base de la estadística que se ha descrito en lo que antecede. Por ejemplo, la unidad de establecimiento de posición de presentación visual inicial 68 puede establecer las posiciones de presentación visual inicial de estas dos imágenes de producto 22 de tal modo que la distancia entre las posiciones de presentación visual inicial de estas dos imágenes de producto 22 que un usuario hace que colisionen de manera sumamente probable se vuelve la estadística que se ha descrito en lo que antecede.
Obsérvese que la presente invención no se limita a la primera y la segunda realizaciones que se han descrito en lo que antecede.
[1] Por ejemplo, a pesar de que se ha descrito en lo que antecede un caso en el que un programa de aplicación para buscar un producto se ejecuta en el dispositivo de procesamiento de información 10, un programa de aplicación para buscar una información que no sea un producto puede ejecutarse en el dispositivo de procesamiento de información
10.
Además, a pesar de que se ha descrito en lo que antecede un caso en el que una información que va a buscarse se almacena en la base de datos 6, una información que va a buscarse puede almacenarse en la unidad de almacenamiento auxiliar 13 del dispositivo de procesamiento de información 10. En el presente caso, el dispositivo de procesamiento de información 10 obtiene una lista de artículos de información que satisfacen una condición de búsqueda a partir de la unidad de almacenamiento auxiliar 13.
[2] Además, por ejemplo, a pesar de que se ha descrito en lo que antecede un caso en el que la presente invención se aplica a un dispositivo de procesamiento de información 10 para presentar visualmente una pluralidad de imágenes de producto 22 en una pantalla (una pantalla de favoritos), la presente invención puede aplicarse a un dispositivo de procesamiento de información para presentar visualmente un objeto que no sea la imagen de producto 22 en una pantalla. [2-1] Por ejemplo, la presente invención puede aplicarse a un dispositivo de procesamiento de información para presentar visualmente una pluralidad de iconos (objetos), que están cada uno en correlación con un archivo o una carpeta en una pantalla.
Obsérvese que en el dispositivo de procesamiento de información en el presente caso, cuando un usuario ha hecho que colisionen unos iconos, los archivos (las carpetas) que están en correlación con los dos iconos respectivos pueden unificarse. Como alternativa, puede presentarse visualmente una diferencia entre los archivos (las carpetas) que están en correlación con los dos iconos respectivos. Como alternativa, un archivo (una carpeta) que está en correlación con un icono puede sobrescribirse por un archivo (una carpeta) que está en correlación con el otro icono. Aún como alternativa, los archivos (las carpetas) que están en correlación con los dos iconos respectivos pueden borrarse. Si unos datos de imagen están en correlación con un icono, pueden presentarse visualmente unos datos de imagen que se obtienen mediante la combinación de unos artículos de datos de imagen que están en correlación con dos iconos respectivos en colisión. [2-2] Además, por ejemplo, la presente invención puede aplicarse a un dispositivo de procesamiento de información (un dispositivo de juego) para presentar visualmente una pluralidad de personajes de juego (objetos) en una pantalla de juego.
Es decir, en el dispositivo de procesamiento de imagen (el dispositivo de juego) en el presente caso, cuando un usuario hace que colisionen unos personajes de juego en la pantalla de juego, puede presentarse visualmente una pantalla de comparación para comparar artículos de información de parámetros (información de atributos) de estos personajes de juego. Como alternativa, los personajes de juego pueden hablar uno con otro. Adicionalmente como alternativa, estos personajes de juego pueden luchar. En un caso en el que se da lugar a que unos personajes de juego luchen uno contra otro cuando un usuario hace que colisionen los personajes de juego, pueden determinarse un ganador y un perdedor mediante la comparación de los artículos de información de parámetros (información de atributos) de estos personajes de juego. A continuación, un personaje de juego ganador puede dejarse en una pantalla de juego, mientras que un personaje de juego perdedor puede desaparecer de la pantalla de juego. Obsérvese que el personaje de juego perdedor puede moverse hasta un extremo de la pantalla de juego. [2-3] Además, la presente invención puede aplicarse a un dispositivo de procesamiento de imagen para presentar visualmente una pluralidad de iconos (objetos) que están en correlación con unos materiales sin procesar (materiales) en una pantalla (una pantalla de búsqueda de recetas).
Es decir, si un usuario hace que colisionen unos iconos en la pantalla de búsqueda de recetas, puede buscarse un menú que puede realizarse usando los materiales que están en correlación con estos iconos, y puede presentarse visualmente una receta del menú. Se ha descrito en lo que antecede que dos objetos son movibles cuando están siendo señalados por un usuario con sus dos dedos. Es decir, un objeto se mueve de acuerdo con el movimiento de un dedo, y el otro objeto se mueve de acuerdo con el movimiento del otro dedo.
E12824893
18-08-2015
No obstante, puede ser movible solo uno de los dos objetos que están siendo señalados por un usuario con sus dos dedos. En el presente caso, por ejemplo, puede ser movible solo el objeto que está siendo señalado en primer lugar por el usuario, o puede ser movible solo el objeto que está siendo señalado en segundo lugar por el usuario.
5 En el presente caso, supóngase un caso de un ejemplo que se muestra en las figuras 4, 10, y 11, por ejemplo. Además, supóngase un caso en el que es movible solo la imagen de producto 22 que está siendo señalada en primer lugar por un usuario. En el presente caso, si el usuario señala la imagen de producto 22C antes que la imagen de producto 22B, el usuario puede mover solo la imagen de producto 22C. En el presente caso, el usuario
10 mueve el dedo que señala la imagen de producto 22C hacia el dedo que señala la imagen de producto 22B, por lo cual se hace que la imagen de producto 22C colisione contra la imagen de producto 22B. Por ejemplo, la pantalla que se presenta visualmente en la unidad de presentación visual 15 puede generarse usando una técnica de gráficos de ordenador en 3D. Por ejemplo, una pantalla que muestra una imagen de un espacio en 3D en el que está colocada una pluralidad de objetos vista desde una cámara virtual puede presentarse
15 visualmente sobre la unidad de presentación visual 15. Por ejemplo, puede que la unidad de designación (la unidad operativa 14) para su uso por un usuario para designar una posición en una pantalla que se presenta visualmente en la unidad de presentación visual 15 no se proporcione en superposición con la unidad de presentación visual 15, sino por separado de la unidad de presentación visual 15.

Claims (11)

  1. REIVINDICACIONES
    1. Un dispositivo de procesamiento de información (10), que comprende:
    5 unos medios de control de presentación visual (52) que están configurados para presentar visualmente una pantalla que incluye una pluralidad de objetos en unos medios de presentación visual; unos medios de obtención de resultado de detección (54) que están configurados para obtener un resultado de detección mediante unos medios de detección capaces de detectar una pluralidad de posiciones en la pantalla que son designadas por un usuario;
    10 unos medios de determinación (56) que están configurados para determinar si una primera posición designada del usuario que se obtiene mediante los medios de obtención de resultado de detección (54) está incluida o no en un área de determinación que se establece sobre la base de una posición de un primer objeto de entre la pluralidad de objetos y que están configurados para determinar si una segunda posición designada del usuario que se obtiene mediante los medios de obtención de resultado de detección (54) está incluida o no en un área de
    15 determinación que se establece sobre la base de una posición de un segundo objeto de entre la pluralidad de objetos; unos medios de movimiento de objetos (58) que están configurados para ejecutar por lo menos uno de un procesamiento para mover el primer objeto de acuerdo con el movimiento de la primera posición designada en un caso en el que se determina por los medios de determinación que la primera posición designada está incluida
    20 en el área de determinación que se establece sobre la base de la posición del primer objeto, y un procesamiento para mover el segundo objeto de acuerdo con el movimiento de la segunda posición designada en un caso en el que se determina por los medios de determinación que la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto; unos medios de determinación de colisión (60), en un caso en el que por lo menos uno del primer objeto y el
    25 segundo objeto es movido por los medios de movimiento de objetos (58), que están configurados para determinar si el primer objeto y el segundo objeto colisionan uno con otro o no; y unos primeros medios de ejecución de procesamiento (62) que están configurados para ejecutar un procesamiento relevante para el primer objeto y el segundo objeto sobre la base de un resultado de determinación por los medios de determinación de colisión (60);
    30 caracterizado el dispositivo de procesamiento de información (10) por:
    unos segundos medios de ejecución de procesamiento (64) que están configurados para ejecutar un procesamiento para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la pantalla que se presenta visualmente mediante los medios de control de presentación visual,
    35 en el que establecer unas posiciones de presentación visual inicial de la pluralidad de objetos se basa en unos datos de historia, comprendiendo dichos datos de historia una información de relación de posición, incluyendo la información de relación de posición unos artículos de información de dirección, siendo cada artículo de información de dirección indicativo de una dirección desde el primer objeto o la primera posición designada hasta el segundo objeto o la segunda posición designada en un caso en el pasado en el que se
    40 determina por los medios de determinación que la primera posición designada está incluida en el área de determinación que se establece sobre la base de la posición del primer objeto y se determina por los medios de determinación que la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto, en el que los segundos medios de ejecución de procesamiento están dispuestos para determinar si un
    45 artículo de información de dirección se corresponde con una de una pluralidad de direcciones de referencia y para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la base de una comparación de un número respectivo de veces en los datos de historia que se determina una correspondencia con cada una de la pluralidad de direcciones de referencia.
    50 2. El dispositivo de procesamiento de información (10) de acuerdo con la reivindicación 1, en el que cada artículo de información de dirección es indicativo de una dirección de relación de posición desde el primer objeto o la primera posición designada hasta el segundo objeto o la segunda posición designada en un caso en el pasado en el que se determina por los medios de determinación de colisión que el primer objeto y el segundo objeto colisionan uno con otro.
    55
  2. 3. El dispositivo de procesamiento de información (10) de acuerdo con la reivindicación 1 o 2, en el que los segundos medios de ejecución de procesamiento (64) están configurados para ejecutar un procesamiento para determinar una mano dominante del usuario sobre la base de los datos de historia, los segundos medios de ejecución de procesamiento están dispuestos para determinar si un artículo de información
    60 de dirección se corresponde con una de una pluralidad de direcciones de referencia y para determinar una mano dominante del usuario sobre la base de una comparación de un número respectivo de veces en los datos de historia que se determina una correspondencia con cada una de la pluralidad de direcciones de referencia, los segundos medios de ejecución de procesamiento están configurados para ejecutar el procesamiento para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la base de una
    65 información que indica la mano dominante del usuario.
    24 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
  3. 4.
    El dispositivo de procesamiento de información (10) de acuerdo con una cualquiera de la reivindicación 3, en el que una información de atributos está en correlación con cada uno de la pluralidad de objetos, y los medios de control de presentación visual (52) incluyen unos medios de comparación que están configurados para comparar artículos de información de atributos de dos objetos de entre la pluralidad de objetos, y unos medios que están configurados para establecer unas posiciones de presentación visual inicial de dos objetos conduciendo a un resultado de comparación mediante los medios de comparación que es un resultado previamente determinado, sobre la base de un resultado de determinación del procesamiento para determinar la mano dominante del usuario.
  4. 5.
    El dispositivo de procesamiento de información (10) de acuerdo con una cualquiera de las reivindicaciones 3 y 4, que comprende además unos medios que están configurados para almacenar en unos medios de almacenamiento una información acerca de una combinación de dos objetos que se determinan por los medios de determinación de colisión (60) como que han colisionado uno con otro en el pasado, en el que los medios de control de presentación visual (52) incluyen unos medios que están configurados para establecer unas posiciones de presentación visual inicial de dos objetos seleccionados de entre la pluralidad de objetos sobre la base de por lo menos una parte de un contenido que está almacenado en los medios de almacenamiento, sobre la base de un resultado de determinación del procesamiento para determinar la mano dominante del usuario.
  5. 6.
    El dispositivo de procesamiento de información (10) de acuerdo con una cualquiera de las reivindicaciones 3 a 5, que comprende además:
    unos medios que están configurados para obtener una lista de información que satisface una condición de búsqueda, y unos medios que están configurados para presentar visualmente una pantalla de resultados de búsqueda que muestra la lista de información en los medios de presentación visual, en el que la condición de búsqueda se establece sobre la base de un resultado de determinación del procesamiento para determinar la mano dominante del usuario.
  6. 7.
    El dispositivo de procesamiento de información (10) de acuerdo con la reivindicación 1, en el que una información de atributos está en correlación con cada uno de la pluralidad de objetos, y los segundos medios de ejecución de procesamiento (64) incluyen unos medios de comparación que están configurados para comparar artículos de información de atributos de dos objetos de entre la pluralidad de objetos, y unos medios que están configurados para establecer una dirección desde una posición de presentación visual inicial de uno de dos objetos conduciendo a un resultado de comparación mediante los medios de comparación que es un resultado previamente determinado hasta una posición de presentación visual inicial del otro de los dos objetos, sobre la base de la información de dirección.
  7. 8.
    El dispositivo de procesamiento de información (10) de acuerdo con la reivindicación 1 o 7, la información de relación de posición incluye una información de distancia acerca de una distancia entre el primer objeto o la primera posición designada y el segundo objeto o la segunda posición designada en un caso en el pasado en el que se determina que la primera posición designada está incluida en el área de determinación que se establece sobre la base de la posición del primer objeto y la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto, una información de atributos está en correlación con cada uno de la pluralidad de objetos, y los segundos medios de ejecución de procesamiento (64) incluyen unos medios de comparación que están configurados para comparar artículos de información de atributos de dos objetos de entre la pluralidad de objetos, y unos medios que están configurados para establecer una distancia entre unas posiciones de presentación visual inicial de dos objetos conduciendo a un resultado de comparación mediante los medios de comparación que es un resultado previamente determinado, sobre la base de la información de distancia.
  8. 9.
    El dispositivo de procesamiento de información (10) de acuerdo con la reivindicación 1, en el que el dispositivo de procesamiento de información (10) comprende además unos medios que están configurados para almacenar en unos medios de almacenamiento una información acerca de una combinación de dos objetos que se determinan en el pasado por los medios de determinación de colisión como que se ha hecho que colisionen uno con otro, y los segundos medios de ejecución de procesamiento (64) incluyen unos medios que están configurados para establecer una dirección desde una posición de presentación visual inicial de uno de dos objetos seleccionados de entre la pluralidad de objetos sobre la base de por lo menos una parte de un contenido que está almacenado en los medios de almacenamiento, hasta una posición de presentación visual inicial del otro de los dos objetos, sobre la base de la información de dirección.
  9. 10.
    El dispositivo de procesamiento de información (10) de acuerdo con la reivindicación 1 o 9, la información de relación de posición incluye una información de distancia acerca de una distancia entre el primer objeto o la primera posición designada y el segundo objeto o la segunda posición designada en un caso en el pasado en el que se determina que la primera posición designada está incluida en el área de determinación que se
    25
    establece sobre la base de la posición del primer objeto y la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto, el dispositivo de procesamiento de información (10) comprende además unos medios que están configurados para almacenar en unos medios de almacenamiento una información acerca de una combinación de dos objetos que se
    5 determinan en el pasado por los medios de determinación de colisión como que se ha hecho que colisionen uno con otro, y los segundos medios de ejecución de procesamiento (64) incluyen unos medios que están configurados para establecer una distancia entre unas posiciones de presentación visual inicial de dos objetos seleccionados de entre la pluralidad de objetos sobre la base de por lo menos una parte de un contenido que está almacenado en los medios de almacenamiento, sobre la base de la información de distancia.
    10
  10. 11. Un método de control para un dispositivo de procesamiento de información, comprendiendo el método de control:
    una etapa de control de presentación visual de presentación visual de una pantalla que incluye una pluralidad de
    15 objetos en unos medios de presentación visual; una etapa de obtención de resultado de detección de obtención de un resultado de detección mediante unos medios de detección capaces de detectar una pluralidad de posiciones en la pantalla que son designadas por un usuario; una etapa de determinación (S101) de determinación de si una primera posición designada del usuario que se
    20 obtiene en la etapa de obtención de resultado de detección está incluida o no en un área de determinación que se establece sobre la base de una posición de un primer objeto de entre la pluralidad de objetos y de determinación de si una segunda posición designada del usuario que se obtiene mediante la etapa de obtención de resultado de detección está incluida o no en un área de determinación que se establece sobre la base de una posición de un segundo objeto de entre la pluralidad de objetos;
    25 una etapa de movimiento de objetos de ejecución de por lo menos uno de un procesamiento para mover el primer objeto de acuerdo con el movimiento de la primera posición designada en un caso en el que se determina en la etapa de determinación que la primera posición designada está incluida en el área de determinación que se establece sobre la base de la posición del primer objeto, y un procesamiento para mover el segundo objeto de acuerdo con el movimiento de la segunda posición designada en un caso en el que se determina en la etapa de
    30 determinación que la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto; una etapa de determinación de colisión (S108), en un caso en el que por lo menos uno del primer objeto y el segundo objeto es movido en la etapa de movimiento de objetos, de determinación de si el primer objeto y el segundo objeto colisionan uno con otro o no; y
    35 una primera etapa de ejecución de procesamiento de ejecución de un procesamiento relevante para el primer objeto y el segundo objeto sobre la base de un resultado de determinación en la etapa de determinación de colisión; caracterizado el método por:
    40 una segunda etapa de ejecución de procesamiento de ejecución de un procesamiento para establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la pantalla que se presenta visualmente mediante la etapa de control de presentación visual, en el que establecer unas posiciones de presentación visual inicial de la pluralidad de objetos se basa en unos datos de historia, comprendiendo dichos datos de historia una información de relación de posición,
    45 incluyendo la información de relación de posición unos artículos de información de dirección, siendo cada artículo de información de dirección indicativo de una dirección desde el primer objeto o la primera posición designada hasta el segundo objeto o la segunda posición designada en un caso en el pasado en el que se determina en la etapa de determinación que la primera posición designada está incluida en el área de determinación que se establece sobre la base de la posición del primer objeto y se determina en la etapa de
    50 determinación que la segunda posición designada está incluida en el área de determinación que se establece sobre la base de la posición del segundo objeto, en el que la segunda etapa de ejecución de procesamiento comprende determinar si un artículo de información de dirección se corresponde con una de una pluralidad de direcciones de referencia y establecer unas posiciones de presentación visual inicial de la pluralidad de objetos sobre la base de una comparación
    55 de un número respectivo de veces en los datos de historia que se determina una correspondencia con cada una de la pluralidad de direcciones de referencia.
  11. 12. Un programa para dar lugar a que un ordenador funcione de acuerdo con la reivindicación 1.
    60 13. Un soporte de almacenamiento de información legible por ordenador que almacena un programa para dar lugar a que un ordenador funcione de acuerdo con la reivindicación 1.
    26
ES12824893.7T 2011-08-31 2012-06-29 Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información Active ES2545660T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011190121 2011-08-31
JP2011190121A JP4929414B1 (ja) 2011-08-31 2011-08-31 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体
PCT/JP2012/066807 WO2013031373A1 (ja) 2011-08-31 2012-06-29 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体

Publications (1)

Publication Number Publication Date
ES2545660T3 true ES2545660T3 (es) 2015-09-14

Family

ID=46261532

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12824893.7T Active ES2545660T3 (es) 2011-08-31 2012-06-29 Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información

Country Status (7)

Country Link
US (1) US8952994B2 (es)
EP (1) EP2600234B1 (es)
JP (1) JP4929414B1 (es)
CN (1) CN103098013B (es)
ES (1) ES2545660T3 (es)
TW (1) TWI416376B (es)
WO (1) WO2013031373A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186366A (ja) * 2013-03-21 2014-10-02 Toshiba Corp 商品比較装置、方法、及びプログラム
TWI669652B (zh) * 2013-07-12 2019-08-21 日商新力股份有限公司 資訊處理裝置、資訊處理方法及電腦程式
JP7019967B2 (ja) 2017-05-29 2022-02-16 富士通株式会社 表示制御プログラム、表示制御方法及び表示制御装置
US10643362B2 (en) * 2018-03-26 2020-05-05 Lenovo (Singapore) Pte Ltd Message location based on limb location
JP7322406B2 (ja) * 2019-01-11 2023-08-08 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN109871176A (zh) * 2019-01-31 2019-06-11 维沃移动通信有限公司 一种对象显示方法及终端设备
US11270367B2 (en) * 2019-04-19 2022-03-08 Apple Inc. Product comparison techniques using augmented reality

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3311025B2 (ja) * 1991-07-12 2002-08-05 株式会社東芝 情報検索装置
JPH0566888A (ja) 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd タツチパネル装置
US5821933A (en) 1995-09-14 1998-10-13 International Business Machines Corporation Visual access to restricted functions represented on a graphical user interface
WO2003031005A2 (en) * 2001-10-09 2003-04-17 Massachusetts Institute Of Technology Methods and apparatus for detecting and correcting penetration between objects
TWI256006B (en) * 2004-12-27 2006-06-01 Ind Tech Res Inst Shopping assistant method and system
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
EP2060970A1 (en) * 2007-11-12 2009-05-20 Research In Motion Limited User interface for touchscreen device
EP2282254A1 (en) * 2008-05-12 2011-02-09 Sharp Kabushiki Kaisha Display device and control method
TWM364233U (en) * 2008-06-25 2009-09-01 Kuo Min Yun System for promoting commodity
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP4979659B2 (ja) * 2008-09-02 2012-07-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
JP5552767B2 (ja) 2009-07-27 2014-07-16 ソニー株式会社 表示処理装置、表示処理方法および表示処理プログラム
KR20110014040A (ko) * 2009-08-04 2011-02-10 엘지전자 주식회사 이동 단말기 및 그의 아이콘 충돌 제어방법
WO2011102406A1 (ja) * 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置

Also Published As

Publication number Publication date
WO2013031373A1 (ja) 2013-03-07
EP2600234A1 (en) 2013-06-05
CN103098013A (zh) 2013-05-08
TW201303646A (zh) 2013-01-16
EP2600234B1 (en) 2015-06-03
EP2600234A4 (en) 2013-07-10
JP2013054405A (ja) 2013-03-21
US20130241957A1 (en) 2013-09-19
US8952994B2 (en) 2015-02-10
CN103098013B (zh) 2016-08-31
TWI416376B (zh) 2013-11-21
JP4929414B1 (ja) 2012-05-09

Similar Documents

Publication Publication Date Title
ES2545660T3 (es) Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información
TWI579734B (zh) 3d視覺化技術
JP6665180B2 (ja) ページ情報を操作する方法、装置、及び電子デバイス
JP5157971B2 (ja) 情報処理装置、情報処理方法およびプログラム
ES2550806T3 (es) Dispositivo de procesamiento de información, método de control para dispositivo de procesamiento de información, programa y medio de almacenamiento de información
TW201203081A (en) Representative image
US20140052580A1 (en) Product explorer page for use with interactive digital catalogs and touch-screen devices
EP2818988A2 (en) Electronic device and touch sensing method thereof
CN103870115B (zh) 信息处理方法及电子设备
US20140092124A1 (en) First Image And A Second Image On A Display
CN102622179A (zh) 基于触屏电子设备上访问子文件的方法
CN109782980B (zh) 一种显示方法及电子设备
JP5088192B2 (ja) 描画装置及びプログラム
JP6029628B2 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
JP2012203645A (ja) 情報処理装置、情報処理方法及びプログラム
JP2017142572A (ja) ユーザ・インタフェース画像表示方法およびプログラム
JP6252061B2 (ja) 情報表示装置、制御方法、及びプログラム
JP6194564B1 (ja) 操作処理装置、方法、及びコンピュータプログラム
JP5895658B2 (ja) 表示制御装置および表示制御方法
Yamamoto et al. A User Interface Using a Spiral Representation for Image Retrieval on a Mobile Terminal
JP2017142770A (ja) ユーザ・インタフェース画像表示方法およびプログラム
JP2017146941A (ja) 画像表示装置、表示制御方法および表示制御プログラム
KR20140070297A (ko) 카드 탐색을 이용한 검색결과 제공 방법 및 장치