ES2364956T3 - Dispositivos interactivos manipulables. - Google Patents

Dispositivos interactivos manipulables. Download PDF

Info

Publication number
ES2364956T3
ES2364956T3 ES06726517T ES06726517T ES2364956T3 ES 2364956 T3 ES2364956 T3 ES 2364956T3 ES 06726517 T ES06726517 T ES 06726517T ES 06726517 T ES06726517 T ES 06726517T ES 2364956 T3 ES2364956 T3 ES 2364956T3
Authority
ES
Spain
Prior art keywords
devices
response
visual representation
sensory
manipulable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES06726517T
Other languages
English (en)
Inventor
Martin Owen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smalti Tech Ltd
Original Assignee
Smalti Tech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34566497&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2364956(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Smalti Tech Ltd filed Critical Smalti Tech Ltd
Application granted granted Critical
Publication of ES2364956T3 publication Critical patent/ES2364956T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B1/00Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
    • G09B1/32Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support
    • G09B1/36Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support the elements being connectible by corresponding projections and recesses
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B1/00Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
    • G09B1/32Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support
    • G09B1/34Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support the elements to be placed loosely in adjacent relationship
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F3/04Geographical or like games ; Educational games
    • A63F3/0423Word games, e.g. scrabble
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/28Chain-reaction games with toppling pieces; Dispensers or positioning devices therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Massaging Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Biological Depolymerization Polymers (AREA)
  • Toys (AREA)
  • Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Separation By Low-Temperature Treatments (AREA)
  • Selective Calling Equipment (AREA)
  • Preparation Of Compounds By Using Micro-Organisms (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Details Of Television Systems (AREA)

Abstract

Un dispositivo manipulable (500) que comprende: un procesador (510) dispuesto para controlar el funcionamiento del dispositivo (500); una fuente de alimentacion (528) que proporciona alimentacion al dispositivo (500); una unidad de representacion visual (516) dispuesta para representar un material de representacion visual; un generador de respuesta (516, 518) para generar una respuesta sensorial; una unidad de comunicaciones (514) configurada, en uso, para efectuar una comunicacion con un dispositivo manipulable similar; y en el que el dispositivo (500) esta configurado para presentar una caracterizacion individual modificable representada por la representacion de un material de representacion visual, y en el que el procesador (510) genera una respuesta sensorial en su generador de respuesta (516, 518) o una respuesta sensorial en un generador de respuesta de un dispositivo similar (610 - 616), siendo la respuesta sensorial generada dependiente de al menos una de las caracterizaciones individuales presentadas por el mismo dispositivo (500) y una caracterizacion individual presentada por el dispositivo similar (610 - 616), el dispositivo manipulable caracterizado porque: la respuesta sensorial generada de salida por el generador de respuesta, es continuacion de la manipulacion del dispositivo y de la interaccion entre las caracterizaciones individuales modificables, dependiendo la interaccion de la posicion relativa entre el dispositivo y al menos un dispositivo de interaccion situado en posicion adyacente; incluyendo asi mismo el dispositivo manipulable un sensor de proximidad (520) configurado para detectar dicha posicion relativa; y en el que: la caracterizacion individual modificable del dispositivo manipulable representada por la representacion del material de representacion visual adopta una forma de al menos un elemento entre: una letra; un grupo de letras; una palabra; palabras; un numero; un simbolo matematico, o un simbolo musical; la caracterizacion individual del dispositivo similar (610 - 616) es representada visualmente como: una letra, un grupo de letras; una palabra; palabras; un numero; un simbolo matematico; un simbolo musical y la caracterizacion individual del dispositivo manipulable (500) es controlada por el procesador (510) y siendo modificable de manera selectiva a lo largo del tiempo en base a: i) la deteccion proxima del dispositivo similar (610 - 616); y ii) la caracterizacion individual representada sobre ese dispositivo similar (610 - 616) en el momento de su deteccion.

Description

La invención se refiere a un dispositivo manipulable, especialmente a un dispositivo adaptado para interactuar con un dispositivo o dispositivos similares de acuerdo con sus vocalizaciones relativas para producir una respuesta sensorial de un usuario, estando dicho dispositivo especialmente indicado para fines educativos o de entretenimiento.
En el artículo “iClouds: Información de Par a par que Comparte Entornos Móviles” [“iClouds-: Peer-to-peer information Sharing in Mobile Environments” ] de Andreas Heinemann et al., se propone un sistema informático ubicuo, en el cual la información se pone a disposición de un grupo entero de gente y en el cual la información distribuida se basa en las contribuciones de los usuarios individuales por medio de comunicaciones de par a par y de intercambio de datos. En resumen, iClouds proporciona un fichero selectivo que comparte el entorno existente entre grupos de usuarios afiliados, cada uno de los cuales tiene un PDA personal. Cada PDA habilitado por el sistema iClouds periódicamente escanea las inmediaciones locales para identificar dispositivos (o nodos) afiliados, y cada dispositivo proporciona una indicación de sus necesidades de datos (o “iWish”) y su contribución a los datos disponibles (o “iHave”). La definición de las necesidades de los datos del PDA permite al PDA controlar el acceso mediante la disposición de una barrera de control para las descargas de datos no solicitados procedentes de un dispositivo de una tercera parte, mientras que la lista iHave permite que unos datos seleccionados sean difundidos o suministrados de forma selectiva a otro PDA interesado habilitado por el iClouds que ofrece una exigencia de datos iWish coincidente.
En el Proemio “Una Plataforma Informática de Par a Par para unas Redes Móviles Ad Hoc” [“A Peer-to-Peer Computing Platform for Mobile Ad Hoc Networks”] de Korteum (relacionado con el Proyecto iClouds y detallado en URL:http: // web archive.org / web / 20050306065830 / http: // icloud.tk.i.nformatik.tu -darmstadt.de / iCLouds / Publications.html se explica que los PDAs y otros dispositivos celulares pueden utilizar una diversidad de sistemas técnicos, incluyendo el Bluetooth para establecer una conectividad en red de dispositivos para compartir (mediante su transmisión) información. Dichos dispositivos simplemente duplican los datos que permiten que un usuario del dispositivo modifique los datos en base a la acción en cuestión del usuario. Los PDAs descritos por Korteum no son lo suficientemente inteligentes para evaluar la red de dispositivo circundante y asimilar la información para producir un resultado enteramente nuevo que se represente en el dispositivo, sino simplemente permite el compartimiento de datos.
El documento EP-A-1486237 se refiere al uso de dos objetos poliédricos, correctamente orientados y yuxtapuestos, que interactúan para proporcionar un estímulo que recompensa la correcta yuxtaposición de objetos poliédricos correctos. En particular, cuando la imagen de un cubo es situada en posición adyacente a la misma imagen sobre otro cubo, estando situadas ambas imágenes con la correcta posición hacia arriba, esto es detectado y se emite el sonido asociado. Las imágenes de cada cara que incorpora la imagen se fijan de modo permanente y no cambian en base a ningún bloque circundante. En efecto, los sistemas de emisión de sonidos están dispuestos para emitir un sonido secundario solo tras detectar que el primero y el segundo objetos poliédricos han sido yuxtapuestos con otra cara del primer objeto poliédrico encarada hacia otra cara del segundo objeto poliédrico y siendo la imagen situada sobre la primera cara de soporte de imagen del primer objeto poliédrico observarble en posición adyacente a una imagen de una segunda cara de soporte de la imagen del segundo objeto poliédrico cuando se aprecia en una dirección sustancialmente paralela en las otras caras enfrentadas. El documento EP-A-1486237 permite, por consiguiente, la construcción de una storyboard (esquema audiovisual del argumento) que refuerza el aprendizaje mediante la provisión de una historia que se despliega, constituyendo una imagen de una cara que incorpora la imagen una trama de una secuencia una trama de una secuencia que representa la historia. Las imágenes de los objetos poliédricos se refieren a la historia que va a ser contada y , por tanto, están fijados de manera permanente.
El documento US 4,936,780 de Cogliano describe simplemente un bloque con unas marcas aplicadas a solo una superficie y un sensor que desencadena un sonido a través de un altavoz cuando el sensor es activado. De nuevo aquí, como en el documento EP-A-1486237, hay una relación permanente entre la imagen aplicada y sus respectivas superficies. No se deriva ningún cambio en los datos de salida procedentes de la detección de cualquier bloque vecino.
En el documento US 5,823,782 de Marcus, se nos da a conocer una “plataforma de trabajo” o un cuadro de lectura que identifica de manera exclusiva la representación del carácter sobre el bloque y se prevé la colocación del bloque con respecto a otros bloques. Sin embargo, hay una relación permanentemente fijada entre los caracteres existentes en cada cara asignada de cada bloque, esto es, los bloques pueden incluir entre uno y seis caracteres sobre sus superficies respectivas … el bloque incluirá seis sistemas de transmisión diferentes, disponiéndose cada par de sistemas de caracteres / transmisión próximos a las superficies opuestas entre sí. En efecto, la plataforma de trabajo identifica no solo la información de los caracteres sino también la localización de un bloque con respecto a otros bloques para posibilitar la identificación de todas las palabras, frases y / o resultados matemáticos. Por consiguiente, la plataforma de trabajo incluye una cuadrícula de lectores.
El documento US 5,320,358 describe el uso de formas diferentes de activación de sensor, mientras el documento US 6,149,490 de Hampton proporciona un fondo proporciona un telón de fondo para el control automático de los motores ( a través de una forma compacta y altamente controlable del sistema de accionamiento) en base a las comunicaciones limitadas entre juguetes, especialmente muñecos. En particular, el documento US 6,149,490 el juguete incluye unos sensores, por ejemplo unos transmisores de IR y unos receptores de ir, para posibilitar la comunicación entre los juguetes. Por ejemplo, si varios de los juguetes son situados en íntima proximidad, y se detecta una entrada sensorial que el controlador interpreta como unas instrucciones para que el juguete baile, por ejemplo cuatro sonidos sucesivos altos, agudos, el motor del juguete será activado para que la leva de la porción de los pies sea rotada por el árbol de control para provocar la basculación repetitiva de la porción de los pies, esto es, el baile del juguete. Este juguete, a continuación, señalará a los juguetes próximos, a través del enlace de IR, que empiecen a bailar.
En el artículo “Interfaces Tangibles para la Manipulación y Exploración de la Topografía de Información Digital” [“Tangible Interfaces for Manipulation and Exploration of Digital Information Topography”] de Gorbet et al., publicado en las Actas de CHI 98, 18 a 23 de abril de 1998, ACM, Los Ángeles, California, EE.UU (en lo sucesivo “Gorbet”), el autor describe un sistema en el cual unas imágenes permanentes son presentadas en cada llamado “Triángulo” ( o “Mosaicos”) para una entera aplicación. En efecto, las imágenes son siempre específicas de una historia o específicas de una aplicación. Así mismo, en Gorbet, la salida procedente de sus “Triángulos” no se produce a través del Triángulo mismo, sino que más bien se produce a través de una computadora conectada que interpreta las asociaciones formadas entre los Triángulos conectados, esto es, a través del “Triángulo madre”. En concreto, estos triángulos madre difieren de otros Triángulos en el hecho de que el Triángulo madre incorpora un cable que proporciona alimentación así mismo y a otros triángulos, así como una comunicación en serie con una computadora central. La salida en Gorbet, por consiguiente, no se obtiene en el dispositivo ni se obtiene (así mismo) en el generador de respuesta de un dispositivo manipulable similar, sino que, por el contrario, la salida del Gorbet emana directamente de un PC conectado.
El artículo de Laerhoven et al., titulado “Utilización de un Cubo Autónomo para una Entrada de Navegación Básica” [“Using an Autonomous Cube for Basic Navigation Input”] (Actas de la 5ª Conferencia Internacional sobre Interfaces Multimodales, ICMI ‘03, 5 a 7 de noviembre de 2003) se refiere a un sistema que permite la identificación de la orientación de un cubo mediante la utilización de una combinación de unos acelerómetros de eje doble y de un sensor capacitivo (para la medición de la proximidad). El cubo está dispuesto para generar de salida una información acerca de sí mismo hacia su entorno cuando su estado ha cambiado o cuando se ha llevado a cabo un determinado gesto. De manera similar a un cubo convencional, las caras del cubo están permanentemente etiquetadas. En funcionamiento, la orientación relativa del cubo es difundida cuando el cubo detecta que está siendo manipulado, mientras que la orientación final del cubo define una función que se lleva a cabo en un dispositivo remoto, como por ejemplo un sistema audio.
El artículo “El Alma del Cubo Activo -Implementación de una Interfaz Tangible Flexible, Multimodal, de Tres Dimensiones Espaciales” [“The Soul of Active Cube -Implementing a Flexible, Multimodal, Three Dimensional Spatial Tangible Interface”] de Watanabe et al., [publicada en ACM COMPUTERS IN ENTERTAINMENT, vol. 2, 4 de octubre de 2004, páginas 1 a 13, XP002238731] se refiere a una modelación en 3D. En particular, el sistema de Cubo Activo permite que los usuarios construyan e interactúen con un entorno en tres dimensiones (3D) utilizando cubos físicos equipados con dispositivos de entrada / salida. La uniformidad espacial, temporal y funcional se mantiene siempre entre el objeto físico y su correspondiente representación en la computadora. La base teórica que subyace a este sistema propuesto es que sería más fácil comprender lo que sucede en el entorno virtual porque el objeto construido actuaría como una réplica física de la estructura virtual. En este sentido, una computadora reconoce la estructura en 3D de los tubos conectados en tiempo real, de manera que la uniformidad se mantiene siempre entre el objeto físico y su representación correspondiente en la computadora.
La DS Datasheet de Nintendo (XP007915023) describe una consola para juegos que presenta unas pantallas dobles y la capacidad / modo inalámbrico de compartición de los juegos.
De acuerdo con un primer aspecto de la invención se proporciona un dispositivo manipulable de acuerdo con la reivindicación 1.
En un segundo aspecto de la invención se proporciona un conjunto de al menos dos dispositivos manipulables de acuerdo con la reivindicación 18.
Aspectos adicionales de la invención se comprenden mediante la lectura del aparato de la reivindicación 27 y del aparato de juegos de la reivindicación 28.
La caracterización puede comprender un material de representación visual o un material de salida de audio, y variará dependiendo de la aplicación concreta o de la finalidad del dispositivo o dispositivos. Por ejemplo, el material de representación visual puede comprender una letra o un grupo de letras (por ejemplo un fonema) o una palabra o palabras, y la respuesta sensorial puede comprender la voz correspondiente a una palabra o a una frase o a una sentencia separada por letras o palabras. En otra aplicación, el material de representación visual puede comprender una pluralidad de símbolos matemáticos, y la respuesta sensorial puede comprender una voz relacionada con las propiedades matemáticas de los números dispuestos sobre los dispositivos. En otra aplicación adicional, el material de representación visual puede comprender un símbolo musical y la respuesta sensorial puede comprender una respuesta musical audio. En un ejemplo, en el que la caracterización comprende un material de salida audio, este puede comprender el equivalente audio de cualquiera de los ejemplos del material de representación visual ofrecidos supra. En formas de realización preferentes de la invención, la respuesta sensorial comprende una respuesta audio que puede ser generada por uno o más dispositivos, y cada dispositivo incorpora así un generador audio para proporcionar la respuesta audio. Sin embargo, en otros ejemplos de la invención, la respuesta sensorial comprende una respuesta visual generada por uno o más dispositivos.
Cada dispositivo incorpora una unidad de representación visual que muestra un material de representación visual y / o es capaz de generar una respuesta sensorial visual, la cual puede ser una representación visual estática o animada. De modo preferente, cada dispositivo es programable para posibilitar que el material de representación visual y que la respuesta sensorial sean programadas para adecuarse a las diferentes aplicaciones, por ejemplo, para acomodar letras o palabras o números o símbolos musicales de acuerdo con lo descrito con anterioridad, o cualquier otro material de representación visual, y para generar las correspondientes respuestas visuales o de audio.
Por consiguiente, un dispositivo de acuerdo con la presente invención es, de modo preferente, un dispositivo multifuncional, completamente programable, el cual puede ser adaptado para su uso como una ayuda de aprendizaje en relación con el lenguaje, las matemáticas, la música u otros temas. Dicho dispositivo pude ser fácilmente adaptado para ser empleado en la forma de un aparato educacional multicomponente conocido, como por ejemplo regletas Cusinaire (utilizadas para enseñar aritmética), dominós y rompecabezas, estando cada componente (la barra, el dominó o la pieza del rompecabezas) incorporado en forma de dispositivo de acuerdo con la invención, el cual puede entonces responder de forma visual o audible para potenciar la experiencia del usuario del aparato.
La unidad de comunicación incorporada en el dispositivo está adaptada para comunicar con dispositivos similares en los cuales es utilizada para coordinar la respuesta sensorial apropiada a un conjunto de dispositivos múltiples. Cada dispositivo comunica la información relevante acerca de sí mismo correspondiente a su caracterización y puede ser un simple código de identidad. La respuesta sensorial se hace evidente por medio de uno o más de los dispositivos y podría incluir un generador de respuesta separado.
La comunicación de una respuesta sensorial con cualquier dispositivo se produce a través de la unidad de comunicaciones.
De modo preferente, la unidad de comunicaciones es un dispositivo inalámbrico que puede ser implementado utilizando la técnica de la telefonía móvil u otra técnica similar. Cada dispositivo está provisto de un sensor de proximidad o de múltiples sensores de proximidad, adaptados para detectar la proximidad de un dispositivo similar en una cualquiera de las posiciones adyacentes múltiples, como por ejemplo, adyacentes a cada uno de los múltiples bordes del dispositivo. Cada dispositivo está, de modo preferente adaptado también para identificar un dispositivo adyacente y para comunicar información tanto de la identidad como de la posición de un dispositivo adyacente a otros dispositivos o a la unidad de control central por medio de dicha unidad de comunicación para que pueda ser generada una respuesta conveniente.
El sensor de proximidad puede comprender un dispositivo magnético o eléctrico, y puede requerir el contacto físico entre dispositivos adyacentes para que sea operativo.
De modo preferente, un dispositivo manipulable de acuerdo con la invención está construido de acuerdo con una carcasa exterior robusta apropiada para su manipulación por un niño de 3 años o mayor.
De modo preferente, un dispositivo manipulable de acuerdo con la invención presenta unas peculiaridades distintivas de alineación, como por ejemplo unos salientes y unas indentaciones, en la superficie exterior que permiten que el dispositivo sea situado en alineación con otros dispositivos del mismo tipo. De modo preferente, el proceso de alineación proporciona una guía visual durante el proceso de alineación. Las peculiaridades características de alineación pueden interbloquear los dispositivos manipulables situados en posición adyacente de acuerdo con la invención. En una forma de realización, un dispositivo manipulable de acuerdo con la invención está dispuesto para proporcionar una indicación cuando se consiga la alineación con otro dispositivo del mismo tipo. La indicación puede ser de naturaleza audible o visible.
Los bordes de contacto adyacentes de los dispositivos pueden estar adaptados para acoplarse o interbloquearse solo cuando estén correctamente orientados para que ambos muestren dicho material de representación visual con la misma posición hacia arriba (esto es, de arriba abajo). Un dispositivo conformado de forma rectangular puede estar adaptado para que esté orientado con un dispositivo similar adyacente a cada uno de sus cuatro bordes laterales y el sensor de proximidad es, a continuación, adaptado para detectar cada dispositivo adyacente.
En una forma de realización alternativa de la invención, los dispositivos son utilizados en combinación con un cuadro, bandeja o base sobre la cual son situados y que es capaz de identificar la localización y la identidad de cada dispositivo y comunicar estas circunstancias a una unidad de control de central o a uno o más de los dispositivos para que generen la respuesta sensorial. El cuadro mismo puede consistir en una pantalla que pueda generar una representación apropiada para la aplicación específica y / o generar una respuesta sensoria. En esta forma de realización alternativa de la presente invención, los dispositivos individuales pueden no requerir la incorporación del sensor de proximidad, debido a la capacidad de detección de la localización del cuadro.
En la forma de realización alternativa anterior, el cuadro puede ser adaptado para que pueda recargar dispositivos individuales cuando sean situados en contacto con él. Así mismo, esta peculiaridad distintiva de recarga puede incorporarse en un cuadro que no presente la capacidad de localización del dispositivo.
Un dispositivo de acuerdo con la invención puede, así mismo, incorporar una cámara que permita que una imagen sea captada, siendo utilizada esta imagen como dicho material de representación visual sobre una unidad de representación visual también incorporada al dispositivo, o la imagen puede ser utilizada en una respuesta sensorial visual.
Un dispositivo de acuerdo con la invención puede, así mismo, incorporar un micrófono para hacer posible que el sonido sea captado y utilizado en una respuesta sensorial audio.
Un dispositivo de acuerdo con la invención puede, así mismo, incorporar unos medios de entrada de datos existentes en un dispositivo de reconocimiento de escritura para introducir palabras, letras, símbolos o números para su uso en la caracterización del dispositivo o en la programación de una respuesta sensorial que va a ser producida por el dispositivo.
Debe apreciarse que una respuesta sensorial audio, como por ejemplo la incorporada en algunas de las formas de realización descritas con anterioridad, puede adoptar la forma de una respuesta direccional o de estéreo / audio disponiendo que dos o más dispositivos sean controlados de manera simultánea o especial para generar unos sonidos apropiados.
La programación de cada dispositivo puede conseguirse mediante múltiples procedimientos diferentes incluyendo la conexión con unos medios de memoria, como por ejemplo tarjetas inteligentes o tarjetas de memoria (“memory sticks”); a través de una computadora personal o de un dispositivo informático portátil o a través de dicha unidad de comunicaciones. En un ejemplo, cada dispositivo puede hacer uso de una unidad de comunicaciones para recibir información desde una emisora de televisión para que el dispositivo sea adaptado para su uso en combinación con el programa de televisión que está siendo emitido.
Un dispositivo de acuerdo con la invención está también, de forma preferente, adaptado para que incorpore un sensor de usuario sensible al tacto y / o al movimiento de forma que pueda activar una salida de caracterización cuando es manejado por un usuario. La salida de caracterización comprende una salida visual o tanto una salida visual como una salida audio.
Los sistemas técnicos específicos que pueden ser utilizados en formas de realización de la invención, incluyen pequeñas computadoras inteligentes distribuidas en red conocidas como Specks o Motes; sistemas microelectromecánicos MEMs, especialmente para componentes y sensores audio; y sistemas técnicos de comunicaciones de radio o similares ZigBee.
Un dispositivo manipulable de acuerdo con la invención es, en un aspecto, una unidad de informática y, en cuanto tal, puede ser diseñada para ser un cliente simple dentro de una relación de cliente -servidor con alguna otra entidad.
En una forma de realización, un dispositivo manipulable de acuerdo con la invención comprende una RISC de 32 bits (o más), una UPC, una memoria, un procesador de gráficos, un procesador audio, un procesador de comunicaciones, un almacenamiento de datos interno, una fuente de alimentación recargable y una unidad de representación audiovisual sensible al tacto. La UPC es capaz, de modo preferente, de procesar 200 Millones de Instrucciones por Segundo (MIPS) o más. La UPC puede, de modo preferente, abordar 16Mb (o más) de una memoria de acceso aleatorio. El procesador gráfico y la representación visual serán, de modo preferente, capaces de ofrecer unas resoluciones de pantalla de 160 x 160 píxeles (o más) en un color de 8 bits ( o más). Otras versiones serán capaces de procesar un vídeo de movimiento completo de 12,5 tramas por segundo (o más) con un color de 16 bits (o más) sincronizado con audio. Otras versiones ofrecerán vídeo en vivo o incluso captación de imágenes por medio de una cámara incorporada. El procesador audio será, de modo preferente, capaz de una reproducción de 4 bits, un monouadio de 4 kHz (o más) y tonos polifónicos. Versiones mejoradas ofrecerán una capacidad de registro audio. El almacenamiento interno puede proporcionarse mediante tarjetas Secure Digita (SD), Tarjetas Multimedia (MMC) o una disposición de disco duro. El procesador de comunicaciones incluirá, de modo preferente, un soporte destinado a los protocolos inalámbricos estándar de la industria incluyendo el Bluetooth y, en el futuro, soportará otros protocolos emergentes incluyendo el IEEE 802.15.4 y otros protocolos de comunicación de campo próximo. En la actualidad es preferente que un dispositivo manipulable de acuerdo con la invención incorpore un sistema operativo en tiempo real (RTOS).
El aparato de vídeo podría, por ejemplo, conllevar el uso de unas pantalla de 5 cm x 5 cm pero podrían, así mismo, ser aceptables pantallas de 8cm x 8cm. Las pantallas podrían, por ejemplo, comprender unas pantallas de transistor de película delgada, TFT, con una matriz activa de 5,58 cm (4.3) un delta de RGB con una resolución de 880 x 228, un tamaño de píxel de 56,5 x 64 HM, unos controladores de representación analógicos de una sola fase, completamente integrados, con un voltaje de entrada de señal de 3V, un controlador de frecuencias de 3 MHz,, un consumo de energía del controlador de 15 MW.
La fuente de alimentación es, de modo preferente, una batería recargable y podría comprender un generador fotovoltaico.
El sensor de usuario puede, así mismo, detectar la manipulación del dispositivo por un usuario, indicativa de un movimiento de colocación del dispositivo que requiere una valoración de su proximidad con respecto a dispositivos similares y a la necesidad de generar una respuesta sensorial correspondiente a una de dichas disposiciones de dispositivos.
De acuerdo con una peculiaridad distintiva adicional de la invención, cada uno de dichos dispositivos manipulables incorpora una unidad de representación visual para representar el material de representación visual, y dos o más de dichos dispositivos están adaptados para quedar dispuestos en fila para que dicho material de representación visual “lea” de una manera significativa a lo largo de dicha fila. Un dispositivo similar puede estar situado en posición adyacente a un lado de dicha fila de dispositivos, y de esta forma, desencadena un cambio en el material de representación visual sobre dicho dispositivo visual para que coincida con el de dicha fila de dispositivos. Por ejemplo, dicho dispositivo visual puede estar situado por debajo de dicha fila de dispositivos para adquirir una combinación de caracteres procedentes de la fila por encima de él. Este dispositivo que representa dicha combinación de caracteres puede, a continuación, volverse a utilizar en otra fila de dispositivos para crear una nueva combinación de caracteres.
Cada dispositivo puede incorporar un conmutador de ACTIVACIÓN / DESACTIVACIÓN para posibilitar que el dispositivo sea reajustado hasta una posición de arranque, por ejemplo, representando un material de representación visual inicial preprogramado.
Solo a modo de ejemplo, a continuación se describirán determinadas formas de realización de la invención con referencia a los dibujos que se acompañan, en los cuales:
La Figura 1 ilustra la constitución física externa de un bloque interactivo;
la Figura 2 ilustra, de forma conceptual, la constitución interna del bloque interactivo de la Figura 1;
la Figura 3 ilustra cómo los bloques del tipo ilustrado en la Figura 1 pueden ser conectados en alineación entre sí;
la Figura 4 ilustra cómo los bloques del tipo mostrado en la Figura 1 pueden ser utilizados en una actividad de aprendizaje.
la Figura 5 ilustra de forma esquemática un bloque interactivo; y
la Figura 6 ilustra de forma esquemática una bandeja o un cuadro el cual puede interactuar con los bloques del tipo mostrado en la Figura 5.
Una forma de realización de la invención consiste en un grupo de bloques, digamos 12 bloques, cada uno de forma rectangular y adaptado para quedar situado borde con borde con otros bloques del mismo lado (bloques del tipo del mismo lado designado como borde a mano izquierda y a mano derecha) a modo de pila, y el borde superior y el borde inferior a modo de columna. Cada bloque incorpora una pantalla de visualización sobre la mayoría de la superficie frontal exterior, la cual forma parte de una unidad de representación visual electrónica capaz de representar un material de representación visual de acuerdo con los datos de representación derivados de una base de datos. En esta forma de realización, el material de representación visual consiste en una letra minúscula del alfabeto que se representa sobre la pantalla cuando el bloque es activado por primera vez. Cada bloque puede incorporar un conmutador que permita que sea activado o desactivado, y el funcionamiento del conmutador inicia una situación de arranque en la cual se representa una letra preprogramada. La programación de los bloques puede disponerse de tal manera que las diferentes combinaciones de una fila puedan detallar letra por letra de quince a veinte diferentes palabras para enseñar a leer a un niño de pocos años.
Cada bloque incorpora un medio de representación de su orientación por lo que se refiere a sus partes superior e inferior, la cual puede suscitar la forma del bloque o un indicador representado en la pantalla de visualización.
Cada bloque incorpora, así mismo, un sensor de proximidad o un sensor adaptado para que pueda detectar la proximidad de otro bloque alineado borde con borde con él, implicando, de modo preferente, el contacto entre dichos bordes adyacentes, ya sea en el borde a mano izquierda o en el borde a mano derecha, en elborde superior o en el borde inferior. El sensor de proximidad, u otro sensor de ID independiente de aquél, está adaptado para detectar la identidad de cada bloque adyacente.
Cada bloque incorpora, así mismo, un sensor táctil y / o del movimiento.
Cada bloque incorpora, así mismo, una unidad de comunicaciones inalámbricas por medio de la cual comunica con otro bloque para transmitir una información relacionada con su propia identidad y con el material de representación visual y la con la identidad y la localización de los bloques adyacentes y para recibir información que determine que la unidad de representación visual identifica el material de la unidad de representación.
Cada bloque incorpora también, de modo preferente, un generador audio que está adaptado para producir una respuesta audio de acuerdo con una información de programación inicial recibida por medio de la unidad de comunicaciones inalámbricas.
Debe apreciarse que un bloque con la capacidad de las comunicaciones, de representación visual y de generador de audio descritas con anterioridad puede ser fácilmente implementado utilizando la técnica de la telefonía móvil. Los sensores de proximidad, los sensores de ID y los sensores táctiles y del movimiento pueden, así mismo, ser fácilmente implementados utilizando técnicas conocidas. Debe apreciarse que cada bloque incorpora su propia fuente de alimentación e incorpora un procesador o unos procesadores que incorporan la funcionalidad requerida.
Un conjunto de bloques está adaptado para que, por sí mismo, sea suficiente para suministrar la funcionalidad descrita más adelante con los procesadores que operan de acuerdo con las instrucciones preprogramadas y con las entradas procedentes de los sensores de cada uno para producir las respuestas visuales y audio de bloques.
La constitución de un ejemplo de los bloques se muestra en las Figuras 1, 2 y 5. La estructura interna de un bloque se muestra de forma conceptual en la Figura 2 y en forma de diagrama de bloques en la Figura 5. La Figura 3 muestra cómo los bloques de este tipo pueden ser situados en alineación mutua tanto en vertical como en horizontal.
La Figura 5 ilustra los componentes principales de un bloque. Debe, por supuesto, resultar evidente para la persona experta en la materia que este es un diagrama de alto nivel que ilustra solo los componentes clave del bloque. Tal y como se muestra en la Figura 5, un bloque 500 comprende un procesador 510, una memoria 512, un transceptor de RF 514, una pantalla 516, un altavoz 518, un conmutador magnético 520, un sensor táctil 522, un sensor de movimientos 524, un puerto de acoplamiento 526 y una batería 528. El transceptor de RF 514 hace posible que el bloque 500 comunique de forma inalámbrica con otros bloques, al menos similares, situados en las inmediaciones. La pantalla 516 y el altavoz 518 permiten que la información visual y audio sea presentada a un usuario del bloque
500. El conmutador magnético 520 es activado por la proximidad de al menos otro bloque similar. El sensor táctil 522 está dispuesto en el exterior del bloque 500 para detectar que un usuario está tocando al menos ese área del bloque 500. El conmutador de movimientos 524 detecta el movimiento del bloque 500 por parte de un usuario. El puerto de acoplamiento 526 está destinado a recibir una tarjeta de memoria para cargar software / datos en el bloque 500. El bloque 500 incluye, así mismo, una batería 528 que proporciona potencia para posibilitar que los diversos dispositivos situados dentro del bloque operen. El procesador 510 procesa, con la ayuda de la memoria 512, la información recibida del transceptor de RF 514, del conmutador 520, del sensor táctil 522, del sensor de movimientos 514 y del cuerpo de acoplamiento 526 para provocar, cuando sea oportuno, que el transceptor de RF 524 comunique con otros bloques y / o provoque que la pantalla 516 y / o el altavoz 518 presenten información a un usuario del bloque 500.
La Figura 6 muestra una bandeja 600 para su uso en los bloques, por ejemplo con los bloques 610 a 616 del tipo descrito con anterioridad con respecto a las Figuras 1, 2 y 5. El cuadro 600 comprende un detector 618 para determinar la localización y la identidad de los bloques situados sobre el cuadro. El cuadro 600 incluye, así mismo, un cargador para recargar las baterías de los bloques que están situados sobre el cuadro. El cuadro incluye, así mismo, una pantalla 622 y están configurado para presentar información a un usuario a través de la pantalla en respuesta a las interacciones del usuario con los bloques situados sobre el cuadro.
A continuación se describirán ejemplos de cómo el conjunto de bloques puede ser utilizado como bloques alfabéticos.
Sam es una niña de cuatro años y medio. Acaba de empezar su primer año de parvulario en la escuela en la que está aprendiendo a leer y a escribir. Sus padres tienen gran interés en ayudarle a aprender en casa y le compran un conjunto de bloques con un cierto software de lectura precargado acorde para su edad.
Sam abre la caja y saca los bloques.
Los padres están mirando atentos con la curiosidad de saber cómo funcionan.
Cada uno de ellos representa una letra minúscula diferente. Sam va a coger uno y la unidad emite el sonido de la letra que representa. Por ejemplo, “/c /”. Moviendo cada uno de los bloques la niña comprende que todos hacen lo mismo.
En una opción alternativa, si hay 15 segundos de inactividad, un bloque podría decir “Intenta deletrear una palabra ¿Que te parece cat? [gato]. Como alternativa, presionando sobre un bloque podría decir “c suena como /c/. /c/ es para cat. ¿Componer los bloques para deletrear cat?.
Sam pone dos de los bloques uno junto a otro. Empezando con el de la derecha los bloques leen por turno las letras que representan, por ejemplo “/d/, /o/”. Entonces leen el sonido combinado. Para este ejemplo los bloques dirían “do” [hacer].
Cuando la niña pone tres letras “al azar” juntas (“/c/, /f/, /g/”), no emiten ningún sonido.
La niña juega con algunas combinaciones diferentes hasta que la palabra es deletreada. Por ejemplo, “/c/, /a/, /t/. “Has deletreado cat [gato]. Bien hecho”. En este punto un gato salta sobre la pantalla, se mueve por ella, y maulla.
En una opción alternativa, los bloques estimulan a la niña a que efectúe un siguiente paso. Por ejemplo “ahora puedes copiar la palabra que has hecho sobre su propio bloque, situando uno debajo. O puedes intentar deletrear otra palabra.
Cuando Sam sitúa otro bloque por debajo de la palabra que ha deletreado, la palabra salta hacia abajo sobre ese único bloque. Dice “cat” , cuando lo aprieta.
Los tres bloques que originariamente deletrearon la palabra quedan ahora libres para ser utilizados en otra palabra.
De acuerdo con lo descrito con anterioridad, cada bloque es individualmente sensible al tacto o al movimiento y reacciona audible y visualmente dependiendo de lo que represente.
Si cada bloque sensible tanto al intercambio como al desplazamiento por separado, entonces cada uno puede ofrecer una segunda respuesta, como por ejemplo ofrecer un ejemplo de uso.
Si una letra representa, por ejemplo, “c”, el bloque emite el sonido de la letra como se dice en el alfabeto y fonéticamente. Por ejemplo, “C. C suena como /c/ para cat”. Unos dibujos animados pueden ofrecer una representación sobre la pantalla relacionada con la letra y un ejemplo dado. Una segunda respuesta podría sugerir lo que la usuaria puede hacer a continuación. Por ejemplo, “¿Puedes deletrear Cat?” .
Si una palabra es representada, por ejemplo, “cat”, el bloque emite el sonido de las letras fonéticas de la palabra. Por ejemplo, “/c/, /a/, /t/ deletrea cat”. Unos dibujos animados relativos a la palabra se representan en la pantalla. Una segunda respuesta podría sugerir el deletreo de otra palabra a partir de las letras disponibles, si ello es posible.
Si se representa un sonido fonético, por ejemplo, “ch”, el bloque emite el sonido fonético combinado “/ch/ como en lunch” [“almuerzo”]. La pantalla representa unos dibujos animados de algún elemento en situación de ser comido.
Cuando los bloques son situados en posición contigua unos respecto de otros reaccionan dependiendo de lo que figura sobre cada uno de ellos. Ello podría ser un sonido fonético, por ejemplo, “/ch/”, una palabra, por ejemplo “cat”
o unas letras al azar, por ejemplo “/k/, /r/, /f/”.
Si la usuaria sitúa bloques individuales a lo largo unos respecto de otros, entonces dichos bloques responden de acuerdo con la combinación de las letras que representan.
Si se crea un sonido fonético “ch”, los bloques emiten el sonido combinado “/ch/”. Podrían así mismo, ofrecer un ejemplo corto de uso “/ch/” como en lunch, yum, yum, yum” [ñam, ñam, ñam].
Si se crea una palabra “cat” los bloques emiten el sonido de las letras individuales seguidos por la palabra. Por ejemplo, “/c/, /a/, /t/, deletrea cat. Bien hecho, has deletreado cat”. La pantalla muestra unos dibujos animados breves. En este ejemplo, una imagen del gato corriendo entre los dos bloques. Esto sucede siempre que uno de los bloques unidos es presionado.
Si se crea una nueva palabra (un plural o una palabra completamente nueva) mediante la adición de una letra o unas letras a una palabra actual de un sonido fonético, la respuesta podría ser, “/c/, /a/, /r/ /t/ deletrea cart [carreta]. ¿Vienes a dar un paseo?” o “/c/, /a/, /t/, /s/ deletrea cats, ¡Ahí vienen! “. La pantalla ofrece un dibujo de acuerdo con la palabra deletreada si la palabra presenta un dibujo animado asociado en la base de datos. De manera que, en los ejemplos referidos, un caballo y una carreta podrían entrar y salir de las pantallas o varios gatos podrían empezar a jugar dentro de ella.
Si un conjunto aleatorio de letras es situado de forma adyacente, por ejemplo “/d/, /f/, /r/, /g/” no se genera ningún sonido y no se representa ningún dibujo animado.
La animación y el sonido únicamente estarán disponibles para algunas de las palabras que pueden ser creadas utilizando los bloques, de acuerdo con lo establecido en una base de datos de respuestas relacionadas mantenidas en uno o en cada bloque o en una unidad de control central
Si un/una usuario/a sitúa un bloque en posición adyacente al borde superior de otro, el bloque inferior hereda la propiedad del bloque superior. La colocación de múltiples bloques por encima o por debajo provocará, así mismo, una reacción entre los bloques. Por ejemplo, si el o la usuaria coloca un bloque por encima de otro, y el bloque superior muestra “/b/” y el bloque inferior muestra “”b/”, el bloque inferior se convertirá también en una “/b/”.
Un/una usuario/a puede situar una palabra desperdigada por varios bloques sobre un bloque mediante la colocación de un bloque por debajo. Esto podría, así mismo ser utilizado para unir un “/c/” y un “/h/” en un solo bloque “/ch/”.
Si un/una usuario/a ha deletreado una palabra o un sonido fonético utilizando tres bloques individuales, por ejemplo, “/c/”, “/a/” y “/t/” deletreando “cat”, el usuario puede entonces situar un cuarto bloque en cualquier parte por debajo de los tres bloques de letras y la palabra “cat” se desplaza sobre un único bloque. Sin embargo, si un / una usuario/a intenta copiar dos letras al azar sobre un único bloque no funcionará. Por ejemplo “/g/” y “/f/” no pueden ser unidas en un solo bloque “/gf/”.
Así mismo, si el / la usuario/a tiene dos bloques de palabras que no componen una tercera palabra, no pueden ser copiadas sobre un único bloque. Por ejemplo, “cat” y “sat” [“sentado /a / os / as”] no pueden ser unidas para efectuar un bloque “catsat”.
Si un / una usuario /a tiene la palabra “cat” sobre un único bloque y quiere dividirlo en tres letras separadas, necesita situar tres bloques por debajo del bloque de palabras. Cada una de las tres letras se aloja en su propio bloque debajo por orden de derecha a izquierda.
Un ejemplo de uso de un conjunto de bloques alfabéticos que operan de acuerdo con los principios expuestos se ilustra en la Figura 4, en una pluralidad de etapas 1 a 6.
1.
Los bloques son sacados de la caja y colocados en el suelo.
2.
El / la usuario /a sitúa “/c/” y “/h/” juntos, los bloques emiten el sonido “/ch/”. Ponen “/g/” por debajo y copian “ /ch/ ” sobre él. El intento de copiar “/t/” “/m/” sobre “/g/” no funciona.
3.
“/a/” y “/t/” se unen para formar “at” [“en”] y son copiados sobre un único bloque.
4.
“/m/” es situado delante de “at” para formar “mat” [“felpudo”]. Los bloques individuales “/a/” y “/t/” siguen unidos en la parte superior de “at”, pero no tienen efecto directo sobre el “/m/” en cuanto no están directamente por encima sino sobre un lado. “/u/” es situado por debajo del “/m/” de “mat” y “mat” es copiado sobre el único bloque, el cual es a continuación retirado (no se ilustra).
5.
Un bloque “/s/” es situado delante de los bloques “/a/” y “/t/” para deletrear “sat”. Cuando el “/m/” de “mat” está por debajo del bloque de “/s/” la palabra “sat” es copiada sobre él. “sat” es, así mismo, copiado sobre el bloque “at”. Los dos bloques “sat” no interactúan entre sí dado que no ha sido creada ninguna palabra o sonido. Así mismo, cuando un bloque “r” es situado por debajo de uno cualquiera de los bloques “sat” no hay nada que se copie.
6.
La utilización de los bloques en la presente memoria es una cadena de varias palabras que pueden ser creadas siguiendo los principios descritos en las especificaciones funcionales.
La invención es aplicable a diversas áreas, las cuales incluyen, pero no se limitan a, el juego, el entretenimiento, el embellecimiento y la creación, el medioambiente, la industria y el aprendizaje (de, por ejemplo, lenguas, matemáticas y las dotes / conocimientos musicales).
Las aplicaciones en el juego pueden incluir una diversidad de juegos estimulantes utilizando los bloques y, de modo opcional, una bandeja tipo mencionada en la introducción. Estas aplicaciones incluyen juegos nuevos así como las mejoras de los típicos juegos existentes de cuadro y cartas con peculiaridades distintivas adicionales (en virtud del hecho de que las piezas “bloques” pueden modificar su imagen y emitir sonidos) y el cuadro (base interactiva) puede, así mismo, cambiar su imagen. Así mismo, nuevas formas de juguetes, como por ejemplo con animales de corral o de zoológico pueden ser creados y convertirse en elementos de animadas historias.
En relación con el embellecimiento y la decoración, en el contexto educativo, los bloques de IA pueden ser llevados como insignias que puedan permitir que los estudiantes interpreten sus diversas funciones (letras, sonidos, números) e interactúen con otros niños que lleven insignias para formar palabras, canciones y ecuaciones. Además de ello, los bloques de IA ofrecen unas posibilidades implícitas, emotivas, estéticas, interactivas y descriptivas. Los bloques en combinación pueden ser utilizados para desencadenar interacciones sociales y artísticas entre personas para crear instalaciones más complejas.
En escenarios de medioambientales y de la industria, variantes de los dispositivos pueden posibilitar la incorporación de datos / sistemas audio y visuales solos o en combinación (por ejemplo, para la medición y el control de la salud y la seguridad).

Claims (24)

  1. REIVINDICACIONES
    1.-Un dispositivo manipulable (500) que comprende: un procesador (510) dispuesto para controlar el funcionamiento del dispositivo (500); una fuente de alimentación (528) que proporciona alimentación al dispositivo (500); una unidad de representación visual (516) dispuesta para representar un material de representación visual; un generador de respuesta (516, 518) para generar una respuesta sensorial; una unidad de comunicaciones (514) configurada, en uso, para efectuar una comunicación con un dispositivo
    manipulable similar; y en el que el dispositivo (500) está configurado para presentar una caracterización individual modificable representada por la representación de un material de representación visual, y en el que el procesador (510) genera una respuesta sensorial en su generador de respuesta (516, 518) o una respuesta sensorial en un generador de respuesta de un dispositivo similar (610 -616), siendo la respuesta sensorial generada dependiente de al menos una
    de las caracterizaciones individuales presentadas por el mismo dispositivo (500) y una caracterización individual presentada por el dispositivo similar (610 -616), el dispositivo manipulable caracterizado porque: la respuesta sensorial generada de salida por el generador de respuesta, es continuación de la manipulación del
    dispositivo y de la interacción entre las caracterizaciones individuales modificables, dependiendo la interacción de la
    posición relativa entre el dispositivo y al menos un dispositivo de interacción situado en posición adyacente; incluyendo así mismo el dispositivo manipulable un sensor de proximidad (520) configurado para detectar dicha posición relativa; y en el que:
    la caracterización individual modificable del dispositivo manipulable representada por la representación del material de representación visual adopta una forma de al menos un elemento entre: una letra; un grupo de letras; una palabra; palabras; un número; un símbolo matemático, o un símbolo musical;
    la caracterización individual del dispositivo similar (610 -616) es representada visualmente como: una letra, un grupo
    de letras; una palabra; palabras; un número; un símbolo matemático; un símbolo musical y la caracterización individual del dispositivo manipulable (500) es controlada por el procesador (510) y siendo modificable de manera selectiva a lo largo del tiempo en base a:
    i) la detección próxima del dispositivo similar (610 -616); y ii) la caracterización individual representada sobre ese dispositivo similar (610 -616) en el momento de su detección. 2.-El dispositivo (500) de acuerdo con la reivindicación 1, en el que la respuesta sensorial incluye una animación
    visual relacionada.
  2. 3.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que el generador de respuesta (516, 518) comprende un generador audio (518) dispuesto para generar al menos un elemento entre: un fonema; una palabra, frase o sentencia; palabras relacionadas con las propiedades matemáticas de un número presentado
    visualmente; y una respuesta musical audio correspondiente a un símbolo musical. 4.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual es programable para determinar
    la caracterización individual y /o la respuesta sensorial que debe ser generada. 5.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que unidad de comunicaciones
    (514) está adaptada para comunicar con otros dispositivos similares (610 – 616) para identificarse a sí mismo y para generar una respuesta sensorial.
  3. 6.-El dispositivo (500) de acuerdo con la reivindicación 5, en el que unidad de comunicaciones (514) comprende un dispositivo inalámbrico.
  4. 7.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que la unidad de comunicaciones
    (514) está configurada para comunicar la proximidad de un dispositivo adyacente tal y como es detectado por el sensor de proximidad.
  5. 8.-El dispositivo (500) de acuerdo con la reivindicación 7, en el que la unidad de comunicaciones (514) está configurada para comunicar la identidad de dicho dispositivo adyacente.
  6. 9.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que los bordes del dispositivo
    (500) están adaptados para acoplarse entre sí o interblquearse con los de un dispositivo similar (610 -616) en una orientación predeterminada acorde con el material de representación visual existente en cada dispositivo.
  7. 10.-El dispositivo (500) de acuerdo con la reivindicación 1, el cual incluye una cámara que está adaptada para captar una imagen que va a ser mostrada sobre dicho dispositivo de representación visual (516).
  8. 11.-El dispositivo (500) de acuerdo con la reivindicación 3, el cual incluye un micrófono que está adaptado para captar el sonido que va a ser reproducido por dicho generador audio (518).
  9. 12.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual incluye un medio de entrada de datos (512) para introducir datos para su uso en la caracterización individual del dispositivo (500) o en la programación de una respuesta sensorial.
  10. 13.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual incluye un sensor de usuario
    (522) sensible al tacto y adaptado para desencadenar una salida sensorial.
  11. 14.-El dispositivo (500) de acuerdo con la reivindicación 13, en el que la salida sensorial desencadenada por el sensor de usuario (522) produce una salida procedente de uno o más dispositivos distintos.
  12. 15.-El dispositivo (500) de acuerdo con la reivindicación 13, en el que la salida sensorial desencadenada por el usuario comprende una salida de caracterización.
  13. 16.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual incluye un sensor de movimiento
    (524) adaptado para detectar el movimiento del dispositivo para desencadenar una respuesta sensorial.
  14. 17.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, adaptado así mismo para identificar un dispositivo adyacente y para comunicar información tanto de la identidad como de la posición del dispositivo adyacente a otros dispositivos a través de dicha unidad de comunicaciones (514) para que pueda ser generada una respuesta sensorial apropiada.
  15. 18.-Un conjunto de al menos dos dispositivos manipulables manualmente (610 – 616), cada dispositivo de acuerdo con cualquiera de las reivindicaciones 1 a 17 y, por tanto, adaptado para presentar una caracterización individual modificable representada por la modificación de un material de representación visual que adopta la forma de un elemento entre: una letra; un grupo de letras; una palabra; palabras; un número; un símbolo matemático; un símbolo musical, siendo cada uno de los dispositivos manipulables (610 -616) localizables con respecto a otros dispositivos del tipo indicado en múltiples disposiciones diferentes,
    en el que los dispositivos (500) generan una respuesta sensorial coordinada a través de al menos uno de dichos generadores de respuesta (516, 518) de dichos al menos dos dispositivos manipulables del conjunto (610 -616), estando la respuesta coordinada de acuerdo con la estructura de los dispositivos, dependiendo la respuesta sensorial de al menos una caracterización ya sea de la caracterización individual presentada por un primero de los al menos dos dispositivos (610 -616) ya sea de una combinación de caracterizaciones individuales de al menos dos de dichos al menos dos dispositivos.
  16. 19.-El conjunto de dispositivos (610 – 616) de acuerdo con la reivindicación 18, en el que la respuesta sensorial comprende una representación visual generada sobre la pantalla visual (516) de uno o más de dichos dispositivos.
  17. 20.-El conjunto de dispositivos (610 – 616) de acuerdo con cualquiera de las reivindicaciones 18 o 19, en el que el generador de respuesta comprende un generador audio (518) dispuesto para generar al menos un elemento entre:
    un fonema;
    una palabra, frase o sentencia;
    palabras relacionadas con las propiedades matemáticas de un número presentado visualmente; y una respuesta musical audio correspondiente a un símbolo musical.
  18. 21.-El conjunto de dispositivos (610 – 616) de acuerdo con cualquiera de las reivindicaciones 18 a 20, y un cuadro
    (600) en el cual los dispositivos (610 -616) van a ser situados en dichas disposiciones múltiples diferentes, y el cual es capaz de identificar (618) la localización e identidad de cada dispositivo.
  19. 22.-El conjunto de dispositivos (610 – 616) de acuerdo con la reivindicación 21, en el que el cuadro (600) incorpora una pantalla (622) configurado para generar una representación visual.
  20. 23.-El conjunto de dispositivos (610 – 616) de acuerdo con las reivindicaciones 21 o 22, en el que el cuadro (600) incorpora unos medios (620) para recargar la fuente de alimentación (528) de cada dispositivo (610 -616) cuando 5 está situado sobre el cuadro (600).
  21. 24.-El conjunto de dispositivos (610 – 616) de acuerdo con cualquiera de las reivindicaciones 18 a 23, en el que la unidad de comunicaciones (514) de uno o más dispositivos está adaptada para recibir los datos de programación desde una emisora de televisión.
  22. 25.-El conjunto de dispositivos (610 – 616) de acuerdo con la reivindicación 18, en el que al menos dos de dichos
    10 dispositivos están configurados para quedar dispuestos en línea de forma que dicho material de representación visual lea de una manera significativa a lo largo de dicha línea, y un dispositivo similar puede estar situado en posición adyacente a un lado de dicha línea de dispositivos y, por medio de lo cual, desencadena un cambio en el material de representación visual sobre dicho dispositivo similar para que coincida con el de dicha línea de dispositivos.
    15 26.-El conjunto de dispositivos (610 – 616) de acuerdo con una cualquiera de las reivindicaciones 18 a 25, el cual está configurado para comunicar, por medio de dichas unidades de comunicaciones (514), para formar una red informática inteligente la cual es capaz de responder de acuerdo con la disposición de los dispositivos y generar dicha respuesta sensorial.
  23. 27.-El aparato de aprendizaje que comprende uno o más dispositivos (500) de acuerdo con cualquiera de las 20 reivindicaciones 1 a 17.
  24. 28.-El aparato de juegos que comprende uno o más dispositivos (500) de acuerdo con cualquiera de las reivindicaciones 1 a 26.
ES06726517T 2005-03-24 2006-03-24 Dispositivos interactivos manipulables. Active ES2364956T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB0506159 2005-03-24
GB0506159A GB2424510A (en) 2005-03-24 2005-03-24 Interactive blocks.
US142955 2005-06-02
US11/142,955 US8057233B2 (en) 2005-03-24 2005-06-02 Manipulable interactive devices

Publications (1)

Publication Number Publication Date
ES2364956T3 true ES2364956T3 (es) 2011-09-19

Family

ID=34566497

Family Applications (1)

Application Number Title Priority Date Filing Date
ES06726517T Active ES2364956T3 (es) 2005-03-24 2006-03-24 Dispositivos interactivos manipulables.

Country Status (11)

Country Link
US (3) US8057233B2 (es)
EP (2) EP2363848A3 (es)
JP (1) JP5154399B2 (es)
CN (1) CN101185108B (es)
AT (1) ATE502371T1 (es)
DE (1) DE602006020726D1 (es)
DK (1) DK1899939T3 (es)
ES (1) ES2364956T3 (es)
GB (1) GB2424510A (es)
MX (1) MX2007011816A (es)
RU (1) RU2408933C2 (es)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2441564A (en) * 2006-09-11 2008-03-12 Tts Group Ltd Apparatus for teaching synthetic phonics
US20100003651A1 (en) * 2008-07-02 2010-01-07 Med Et Al, Inc. Communication blocks and associated method of conveying information based on their arrangement
US9128661B2 (en) * 2008-07-02 2015-09-08 Med Et Al, Inc. Communication blocks having multiple-planes of detection components and associated method of conveying information based on their arrangement
US20100092928A1 (en) * 2008-09-19 2010-04-15 Mira Stulberg-Halpert System and method for teaching
US8552396B2 (en) * 2009-02-26 2013-10-08 The University Of Vermont And State Agricultural College Distributive, non-destructive real-time system and method for snowpack monitoring
ITTV20090059A1 (it) * 2009-03-26 2010-09-27 Giovine Vincenzo Di Solido con sorgente luminosa led ed intelligenza artificiale attivabile nelle sue funzioni ottiche ed acustiche per contatto o prossimita' o movimento e gestito per mezzo di controllo remoto
US8742814B2 (en) 2009-07-15 2014-06-03 Yehuda Binder Sequentially operated modules
US8602833B2 (en) 2009-08-06 2013-12-10 May Patents Ltd. Puzzle with conductive path
KR101210280B1 (ko) * 2009-09-02 2012-12-10 한국전자통신연구원 센서 기반 조립형 교구
AU2010314794A1 (en) * 2009-11-06 2012-05-17 David Webster A portable electronic device
KR101632572B1 (ko) * 2009-11-25 2016-07-01 삼성전자 주식회사 비디오 월 디스플레이시스템
CN102136202B (zh) * 2010-01-25 2014-10-15 大块文化出版股份有限公司 互动式信息系统及互动式信息方法
US9213480B2 (en) * 2010-04-08 2015-12-15 Nokia Technologies Oy Method, apparatus and computer program product for joining the displays of multiple devices
US8639186B2 (en) 2010-10-28 2014-01-28 Sondex Wireline Limited Telemetry conveyed by pipe utilizing specks
WO2012128675A1 (en) * 2011-03-18 2012-09-27 Telefonaktiebolaget L M Ericsson (Publ) Indicating physical change in relation to an exterior of a network node module
US20140127965A1 (en) * 2011-07-29 2014-05-08 Deutsche Telekom Ag Construction toy comprising a plurality of interconnectable building elements, set of a plurality of interconnectable building elements, and method to control and/or monitor a construction toy
US9597607B2 (en) 2011-08-26 2017-03-21 Littlebits Electronics Inc. Modular electronic building systems with magnetic interconnections and methods of using the same
US9019718B2 (en) 2011-08-26 2015-04-28 Littlebits Electronics Inc. Modular electronic building systems with magnetic interconnections and methods of using the same
US11330714B2 (en) 2011-08-26 2022-05-10 Sphero, Inc. Modular electronic building systems with magnetic interconnections and methods of using the same
GB2496169B (en) * 2011-11-04 2014-03-12 Commotion Ltd Toy
US20130130589A1 (en) * 2011-11-18 2013-05-23 Jesse J. Cobb "Electronic Musical Puzzle"
DE102012004848A1 (de) * 2012-03-13 2013-09-19 Abb Technology Ag Simulationsgerät zur Demonstration oder zum Testen von Funktionen eines Schaltschrankes in einer Schaltanlage
JP2014078167A (ja) * 2012-10-11 2014-05-01 Casio Comput Co Ltd 電子データ処理装置およびプログラム
US20140168094A1 (en) * 2012-12-14 2014-06-19 Robin Duncan Milne Tangible alphanumeric interaction on multi-touch digital display
CN103000056A (zh) * 2012-12-21 2013-03-27 常州大学 教学用多媒体智能交互一体机
NL2013466B1 (en) * 2014-09-12 2016-09-28 Rnd By Us B V Shape-Shifting a Configuration of Reusable Elements.
US9956494B2 (en) 2013-03-15 2018-05-01 Rnd By Us B.V. Element comprising sensors for detecting grab motion or grab release motion for actuating inter-element holding or releasing
US10093488B2 (en) 2013-03-15 2018-10-09 Rnd By Us B.V. Shape-shifting a configuration of reusable elements
US9229629B2 (en) * 2013-03-18 2016-01-05 Transcend Information, Inc. Device identification method, communicative connection method between multiple devices, and interface controlling method
US10610768B2 (en) * 2013-05-07 2020-04-07 Carder Starr Digitial multilingual word building game
CN104461173A (zh) * 2013-09-23 2015-03-25 上海华师京城高新技术(集团)有限公司 一种多媒体互动一体机
CN103480159B (zh) * 2013-09-30 2015-12-02 广州视源电子科技股份有限公司 玩具构建系统
US20150099567A1 (en) * 2013-10-09 2015-04-09 Cherif Atia Algreatly Method of gaming
WO2015173246A1 (en) * 2014-05-15 2015-11-19 Lego A/S A toy construction system with function construction elements
US10825352B2 (en) * 2014-06-04 2020-11-03 Square Panda Inc. Letter manipulative identification board
US10607502B2 (en) 2014-06-04 2020-03-31 Square Panda Inc. Phonics exploration toy
CN104064068B (zh) * 2014-06-17 2016-04-13 王岳雄 一种亲子互动学习方法及实现该方法的装置
US20160184724A1 (en) 2014-08-31 2016-06-30 Andrew Butler Dynamic App Programming Environment with Physical Object Interaction
CN104383697A (zh) * 2014-11-25 2015-03-04 上海电机学院 电子积木以及电子积木组
WO2016165024A1 (en) * 2015-04-16 2016-10-20 Andrade James Braille instruction system and method
US10413808B2 (en) * 2015-10-04 2019-09-17 Shari Spiridigliozzi Electronic word game
US10088280B2 (en) 2015-11-21 2018-10-02 Norma Zell Control module for autonomous target system
CN105641946B (zh) * 2016-03-10 2017-11-17 深圳市翰童科技有限公司 无线电子积木
CN105727571B (zh) * 2016-04-01 2017-10-31 深圳市翰童科技有限公司 电子积木
TWI619101B (zh) * 2016-05-13 2018-03-21 國立臺灣師範大學 Puzzle learning system
US10847046B2 (en) 2017-01-23 2020-11-24 International Business Machines Corporation Learning with smart blocks
KR102366617B1 (ko) * 2017-03-28 2022-02-23 삼성전자주식회사 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
US20190073915A1 (en) * 2017-09-06 2019-03-07 International Business Machines Corporation Interactive and instructional interface for learning
JP6795534B2 (ja) * 2018-02-27 2020-12-02 振名 畢 物理的物体と計算機とを組み合わせた出題システム
US11017129B2 (en) 2018-04-17 2021-05-25 International Business Machines Corporation Template selector
WO2020156719A1 (en) * 2019-01-31 2020-08-06 Lego A/S A modular toy system with electronic toy modules
US11616844B2 (en) 2019-03-14 2023-03-28 Sphero, Inc. Modular electronic and digital building systems and methods of using the same

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3654706A (en) * 1970-06-23 1972-04-11 Donald J Perrella Educational device
US4342904A (en) * 1980-10-27 1982-08-03 Minnesota Mining And Manufacturing Company Lightweight ferromagnetic marker for the detection of objects having markers secured thereto
US4703573A (en) * 1985-02-04 1987-11-03 Montgomery John W Visual and audible activated work and method of forming same
US5119077A (en) * 1988-01-15 1992-06-02 Giorgio Paul J Interactive ballistic tracking apparatus
US5013245A (en) * 1988-04-29 1991-05-07 Benedict Morgan D Information shapes
US4936780A (en) * 1989-01-31 1990-06-26 Cogliano Mary A Touch sensor alpha-numeric blocks
US5072414A (en) * 1989-07-31 1991-12-10 Accuweb, Inc. Ultrasonic web edge detection method and apparatus
US5183398A (en) * 1990-06-01 1993-02-02 The Software Toolworks Apparatus and method for interactive instruction of a student
US5188533B1 (en) * 1990-06-01 1997-09-09 Leapfrog Rbt Llc Speech synthesizing indicia for interactive learning
US5228859A (en) * 1990-09-17 1993-07-20 Interactive Training Technologies Interactive educational and training system with concurrent digitized sound and video output
US5396265A (en) * 1990-09-17 1995-03-07 Massachusetts Institute Of Technology Three-dimensional tactile computer input device
US5146566A (en) * 1991-05-29 1992-09-08 Ibm Corporation Input/output system for computer user interface using magnetic levitation
JPH06259021A (ja) * 1993-03-05 1994-09-16 Nippon Steel Corp 組合せ式表示装置
US5328373A (en) * 1993-03-30 1994-07-12 Regna Lee Wood Method and apparatus for teaching reading
US5320358A (en) * 1993-04-27 1994-06-14 Rpb, Inc. Shooting game having programmable targets and course for use therewith
US5364272A (en) * 1993-08-09 1994-11-15 Texas Instruments Incorporated Apparatus and method for teaching
US5511980A (en) * 1994-02-23 1996-04-30 Leapfrog Rbt, L.L.C. Talking phonics interactive learning device
US5860653A (en) * 1995-05-15 1999-01-19 Jacobs; Robert Method and apparatus for playing a word game
US5823782A (en) * 1995-12-29 1998-10-20 Tinkers & Chance Character recognition educational system
US5991693A (en) * 1996-02-23 1999-11-23 Mindcraft Technologies, Inc. Wireless I/O apparatus and method of computer-assisted instruction
JPH1063176A (ja) * 1996-08-13 1998-03-06 Inter Group:Kk 外国語学習装置およびその記録媒体
JPH10272255A (ja) * 1997-04-01 1998-10-13 Ee D K:Kk 通信機能を備えた携帯ゲーム機及びその通信方法
CA2225060A1 (en) * 1997-04-09 1998-10-09 Peter Suilun Fong Interactive talking dolls
JP4143158B2 (ja) * 1997-04-16 2008-09-03 聯華電子股▲ふん▼有限公司 データキャリア
CA2290527A1 (en) * 1997-05-19 1998-11-26 Creator Ltd. Programmable assembly toy
US6271453B1 (en) * 1997-05-21 2001-08-07 L Leonard Hacker Musical blocks and clocks
JPH11341121A (ja) * 1998-05-28 1999-12-10 Nec Corp 移動無線機
US20020160340A1 (en) * 1998-07-31 2002-10-31 Marcus Brian I. Character recognition educational system
US6469689B1 (en) * 1998-08-07 2002-10-22 Hewlett-Packard Company Appliance and method of using same having a capability to graphically associate and disassociate data with and from one another
US6473070B2 (en) * 1998-11-03 2002-10-29 Intel Corporation Wireless tracking system
RU2136342C1 (ru) 1998-12-09 1999-09-10 Григорьев Сергей Валерьевич Игра со звуками, преимущественно музыкальными, и устройство для ее осуществления
US6149490A (en) * 1998-12-15 2000-11-21 Tiger Electronics, Ltd. Interactive toy
US6685479B1 (en) * 1999-02-22 2004-02-03 Nabil N. Ghaly Personal hand held device
JP3540187B2 (ja) * 1999-02-25 2004-07-07 シャープ株式会社 表示装置
US7170499B1 (en) * 1999-05-25 2007-01-30 Silverbrook Research Pty Ltd Handwritten text capture via interface surface
US6462264B1 (en) * 1999-07-26 2002-10-08 Carl Elam Method and apparatus for audio broadcast of enhanced musical instrument digital interface (MIDI) data formats for control of a sound generator to create music, lyrics, and speech
US6514085B2 (en) * 1999-07-30 2003-02-04 Element K Online Llc Methods and apparatus for computer based training relating to devices
US6330427B1 (en) * 1999-09-08 2001-12-11 Joel B. Tabachnik Talking novelty device with book
US6652457B1 (en) * 1999-09-27 2003-11-25 Gary L. Skiba Stimulus-response conditioning process
US6654748B1 (en) * 1999-12-07 2003-11-25 Rwd Technologies, Inc. Dynamic application browser and database for use therewith
US6620024B2 (en) * 2000-02-02 2003-09-16 Silverlit Toys Manufactory, Ltd. Computerized toy
US20020058235A1 (en) * 2000-02-29 2002-05-16 Dinnerstein Mitchell Elliot Jack switch talking block
US6353168B1 (en) * 2000-03-03 2002-03-05 Neurosmith, Llc Educational music instrument for children
US6491523B1 (en) * 2000-04-28 2002-12-10 Janice Altman Sign language instruction system and method
US20020061701A1 (en) * 2000-04-28 2002-05-23 Chan Albert Wai Multiple part toy coding and recognition system
US6443796B1 (en) * 2000-06-19 2002-09-03 Judith Ann Shackelford Smart blocks
US6551165B2 (en) * 2000-07-01 2003-04-22 Alexander V Smirnov Interacting toys
US6685477B1 (en) * 2000-09-28 2004-02-03 Eta/Cuisenaire, A Division Of A. Daigger & Company Method and apparatus for teaching and learning reading
JP4731008B2 (ja) * 2000-12-05 2011-07-20 株式会社バンダイナムコゲームス 情報提供システムおよび情報記憶媒体
US7170468B2 (en) * 2001-02-21 2007-01-30 International Business Machines Corporation Collaborative tablet computer
US6682392B2 (en) * 2001-04-19 2004-01-27 Thinking Technology, Inc. Physically interactive electronic toys
GB2376192A (en) 2001-05-25 2002-12-11 Tronji Ltd Cartridge based electronic display system.
US6679751B1 (en) * 2001-11-13 2004-01-20 Mattel, Inc. Stackable articles toy for children
US7347760B2 (en) * 2002-01-05 2008-03-25 Leapfrog Enterprises, Inc. Interactive toy
US7184718B2 (en) * 2002-07-30 2007-02-27 Nokia Corporation Transformable mobile station
US7003598B2 (en) * 2002-09-18 2006-02-21 Bright Entertainment Limited Remote control for providing interactive DVD navigation based on user response
US20040063078A1 (en) * 2002-09-30 2004-04-01 Marcus Brian I. Electronic educational toy appliance
EP1486237A1 (en) * 2003-06-13 2004-12-15 Hausemann en Hötte BV Puzzle system
JP4073885B2 (ja) * 2003-06-17 2008-04-09 任天堂株式会社 ゲームシステム、ゲーム装置およびゲームプログラム
KR100528476B1 (ko) * 2003-07-22 2005-11-15 삼성전자주식회사 컴퓨터 시스템의 인터럽트 처리 장치
US7316567B2 (en) * 2003-08-01 2008-01-08 Jennifer Chia-Jen Hsieh Physical programming toy
US7336256B2 (en) * 2004-01-30 2008-02-26 International Business Machines Corporation Conveying the importance of display screen data using audible indicators
JP4241429B2 (ja) * 2004-02-25 2009-03-18 奈津 川北 表示装置
US7242369B2 (en) * 2004-10-26 2007-07-10 Benq Corporation Method of displaying text on multiple display devices
US7238026B2 (en) * 2004-11-04 2007-07-03 Mattel, Inc. Activity device
EP1693091A3 (en) * 2005-01-10 2008-02-27 Radica Games Ltd. Multiply interconnectable environmentally interactive character simulation module method and system

Also Published As

Publication number Publication date
JP5154399B2 (ja) 2013-02-27
EP2369563A3 (en) 2011-12-14
US20120007870A1 (en) 2012-01-12
GB2424510A (en) 2006-09-27
EP2369563A2 (en) 2011-09-28
DE602006020726D1 (de) 2011-04-28
EP2363848A2 (en) 2011-09-07
US20060215476A1 (en) 2006-09-28
CN101185108B (zh) 2012-11-21
MX2007011816A (es) 2008-01-16
EP2363848A3 (en) 2011-12-14
DK1899939T3 (da) 2011-06-20
ATE502371T1 (de) 2011-04-15
US8057233B2 (en) 2011-11-15
RU2408933C2 (ru) 2011-01-10
CN101185108A (zh) 2008-05-21
GB0506159D0 (en) 2005-05-04
RU2007139277A (ru) 2009-04-27
US20120007840A1 (en) 2012-01-12
JP2008534996A (ja) 2008-08-28

Similar Documents

Publication Publication Date Title
ES2364956T3 (es) Dispositivos interactivos manipulables.
EP1899939B1 (en) Manipulable interactive devices
Özgür et al. Cellulo: Versatile handheld robots for education
Tollervey Programming with MicroPython: embedded programming with microcontrollers and Python
CN103657087B (zh) 身临其境式叙事环境
RU2673275C2 (ru) Способ воспроизведения информации, способ ввода/вывода информации, устройство воспроизведения информации, портативное устройство ввода/вывода информации и электронная игрушка, в которой использован точечный растр
US20130302763A1 (en) Interactive system and method of modifying user interaction therein
Antonelli Talk to me: design and the communication between people and objects
US20170136380A1 (en) Smart Toys
Marco et al. Bringing tabletop technologies to kindergarten children
US7607962B2 (en) Electronic toy with alterable features
WO2015075713A1 (en) A modular connected game board system and methods of use
US20160184724A1 (en) Dynamic App Programming Environment with Physical Object Interaction
EP3597278A1 (en) Learning toy, mobile body for learning toy, panel for learning toy, and portable information processing terminal for learning toy
Krestanova et al. Development and technical design of tangible user interfaces in wide-field areas of application
Bushnell Relationships between fun and the computer business
RU2473966C2 (ru) Способ воспроизведения информации, способ ввода/вывода информации, устройство воспроизведения информации, портативное устройство ввода/вывода информации и электронная игрушка, в которой использован точечный растр
de Albuquerque Wheler et al. IoT4Fun rapid prototyping tools for Toy User Interfaces
Blumberg et al. Serious games for health: Features, challenges, next steps
US20160253911A1 (en) Playground system
Hanning Tinkering with ScratchBit: Explorations in blended making
Montemayor Physical programming: tools for kindergarten children to author physical interactive environments
Her et al. Meaningful Engagement: Computer-Based Interactive Media Art in Public Space
WO2013024471A1 (en) Connected interactive book system and method of use
Bräne User Experience Design for Children: Developing and Testing a UX Framework