ES2364956T3 - Dispositivos interactivos manipulables. - Google Patents
Dispositivos interactivos manipulables. Download PDFInfo
- Publication number
- ES2364956T3 ES2364956T3 ES06726517T ES06726517T ES2364956T3 ES 2364956 T3 ES2364956 T3 ES 2364956T3 ES 06726517 T ES06726517 T ES 06726517T ES 06726517 T ES06726517 T ES 06726517T ES 2364956 T3 ES2364956 T3 ES 2364956T3
- Authority
- ES
- Spain
- Prior art keywords
- devices
- response
- visual representation
- sensory
- manipulable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B1/00—Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
- G09B1/32—Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support
- G09B1/36—Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support the elements being connectible by corresponding projections and recesses
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B1/00—Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
- G09B1/32—Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support
- G09B1/34—Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways comprising elements to be used without a special support the elements to be placed loosely in adjacent relationship
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
- A63F3/04—Geographical or like games ; Educational games
- A63F3/0423—Word games, e.g. scrabble
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F9/00—Games not otherwise provided for
- A63F9/28—Chain-reaction games with toppling pieces; Dispensers or positioning devices therefor
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
- Radar Systems Or Details Thereof (AREA)
- Massaging Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Biological Depolymerization Polymers (AREA)
- Toys (AREA)
- Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Separation By Low-Temperature Treatments (AREA)
- Selective Calling Equipment (AREA)
- Preparation Of Compounds By Using Micro-Organisms (AREA)
- Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
- Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
- Details Of Television Systems (AREA)
Abstract
Un dispositivo manipulable (500) que comprende: un procesador (510) dispuesto para controlar el funcionamiento del dispositivo (500); una fuente de alimentacion (528) que proporciona alimentacion al dispositivo (500); una unidad de representacion visual (516) dispuesta para representar un material de representacion visual; un generador de respuesta (516, 518) para generar una respuesta sensorial; una unidad de comunicaciones (514) configurada, en uso, para efectuar una comunicacion con un dispositivo manipulable similar; y en el que el dispositivo (500) esta configurado para presentar una caracterizacion individual modificable representada por la representacion de un material de representacion visual, y en el que el procesador (510) genera una respuesta sensorial en su generador de respuesta (516, 518) o una respuesta sensorial en un generador de respuesta de un dispositivo similar (610 - 616), siendo la respuesta sensorial generada dependiente de al menos una de las caracterizaciones individuales presentadas por el mismo dispositivo (500) y una caracterizacion individual presentada por el dispositivo similar (610 - 616), el dispositivo manipulable caracterizado porque: la respuesta sensorial generada de salida por el generador de respuesta, es continuacion de la manipulacion del dispositivo y de la interaccion entre las caracterizaciones individuales modificables, dependiendo la interaccion de la posicion relativa entre el dispositivo y al menos un dispositivo de interaccion situado en posicion adyacente; incluyendo asi mismo el dispositivo manipulable un sensor de proximidad (520) configurado para detectar dicha posicion relativa; y en el que: la caracterizacion individual modificable del dispositivo manipulable representada por la representacion del material de representacion visual adopta una forma de al menos un elemento entre: una letra; un grupo de letras; una palabra; palabras; un numero; un simbolo matematico, o un simbolo musical; la caracterizacion individual del dispositivo similar (610 - 616) es representada visualmente como: una letra, un grupo de letras; una palabra; palabras; un numero; un simbolo matematico; un simbolo musical y la caracterizacion individual del dispositivo manipulable (500) es controlada por el procesador (510) y siendo modificable de manera selectiva a lo largo del tiempo en base a: i) la deteccion proxima del dispositivo similar (610 - 616); y ii) la caracterizacion individual representada sobre ese dispositivo similar (610 - 616) en el momento de su deteccion.
Description
La invención se refiere a un dispositivo manipulable, especialmente a un dispositivo adaptado para interactuar con un dispositivo o dispositivos similares de acuerdo con sus vocalizaciones relativas para producir una respuesta sensorial de un usuario, estando dicho dispositivo especialmente indicado para fines educativos o de entretenimiento.
En el artículo “iClouds: Información de Par a par que Comparte Entornos Móviles” [“iClouds-: Peer-to-peer information Sharing in Mobile Environments” ] de Andreas Heinemann et al., se propone un sistema informático ubicuo, en el cual la información se pone a disposición de un grupo entero de gente y en el cual la información distribuida se basa en las contribuciones de los usuarios individuales por medio de comunicaciones de par a par y de intercambio de datos. En resumen, iClouds proporciona un fichero selectivo que comparte el entorno existente entre grupos de usuarios afiliados, cada uno de los cuales tiene un PDA personal. Cada PDA habilitado por el sistema iClouds periódicamente escanea las inmediaciones locales para identificar dispositivos (o nodos) afiliados, y cada dispositivo proporciona una indicación de sus necesidades de datos (o “iWish”) y su contribución a los datos disponibles (o “iHave”). La definición de las necesidades de los datos del PDA permite al PDA controlar el acceso mediante la disposición de una barrera de control para las descargas de datos no solicitados procedentes de un dispositivo de una tercera parte, mientras que la lista iHave permite que unos datos seleccionados sean difundidos o suministrados de forma selectiva a otro PDA interesado habilitado por el iClouds que ofrece una exigencia de datos iWish coincidente.
En el Proemio “Una Plataforma Informática de Par a Par para unas Redes Móviles Ad Hoc” [“A Peer-to-Peer Computing Platform for Mobile Ad Hoc Networks”] de Korteum (relacionado con el Proyecto iClouds y detallado en URL:http: // web archive.org / web / 20050306065830 / http: // icloud.tk.i.nformatik.tu -darmstadt.de / iCLouds / Publications.html se explica que los PDAs y otros dispositivos celulares pueden utilizar una diversidad de sistemas técnicos, incluyendo el Bluetooth para establecer una conectividad en red de dispositivos para compartir (mediante su transmisión) información. Dichos dispositivos simplemente duplican los datos que permiten que un usuario del dispositivo modifique los datos en base a la acción en cuestión del usuario. Los PDAs descritos por Korteum no son lo suficientemente inteligentes para evaluar la red de dispositivo circundante y asimilar la información para producir un resultado enteramente nuevo que se represente en el dispositivo, sino simplemente permite el compartimiento de datos.
El documento EP-A-1486237 se refiere al uso de dos objetos poliédricos, correctamente orientados y yuxtapuestos, que interactúan para proporcionar un estímulo que recompensa la correcta yuxtaposición de objetos poliédricos correctos. En particular, cuando la imagen de un cubo es situada en posición adyacente a la misma imagen sobre otro cubo, estando situadas ambas imágenes con la correcta posición hacia arriba, esto es detectado y se emite el sonido asociado. Las imágenes de cada cara que incorpora la imagen se fijan de modo permanente y no cambian en base a ningún bloque circundante. En efecto, los sistemas de emisión de sonidos están dispuestos para emitir un sonido secundario solo tras detectar que el primero y el segundo objetos poliédricos han sido yuxtapuestos con otra cara del primer objeto poliédrico encarada hacia otra cara del segundo objeto poliédrico y siendo la imagen situada sobre la primera cara de soporte de imagen del primer objeto poliédrico observarble en posición adyacente a una imagen de una segunda cara de soporte de la imagen del segundo objeto poliédrico cuando se aprecia en una dirección sustancialmente paralela en las otras caras enfrentadas. El documento EP-A-1486237 permite, por consiguiente, la construcción de una storyboard (esquema audiovisual del argumento) que refuerza el aprendizaje mediante la provisión de una historia que se despliega, constituyendo una imagen de una cara que incorpora la imagen una trama de una secuencia una trama de una secuencia que representa la historia. Las imágenes de los objetos poliédricos se refieren a la historia que va a ser contada y , por tanto, están fijados de manera permanente.
El documento US 4,936,780 de Cogliano describe simplemente un bloque con unas marcas aplicadas a solo una superficie y un sensor que desencadena un sonido a través de un altavoz cuando el sensor es activado. De nuevo aquí, como en el documento EP-A-1486237, hay una relación permanente entre la imagen aplicada y sus respectivas superficies. No se deriva ningún cambio en los datos de salida procedentes de la detección de cualquier bloque vecino.
En el documento US 5,823,782 de Marcus, se nos da a conocer una “plataforma de trabajo” o un cuadro de lectura que identifica de manera exclusiva la representación del carácter sobre el bloque y se prevé la colocación del bloque con respecto a otros bloques. Sin embargo, hay una relación permanentemente fijada entre los caracteres existentes en cada cara asignada de cada bloque, esto es, los bloques pueden incluir entre uno y seis caracteres sobre sus superficies respectivas … el bloque incluirá seis sistemas de transmisión diferentes, disponiéndose cada par de sistemas de caracteres / transmisión próximos a las superficies opuestas entre sí. En efecto, la plataforma de trabajo identifica no solo la información de los caracteres sino también la localización de un bloque con respecto a otros bloques para posibilitar la identificación de todas las palabras, frases y / o resultados matemáticos. Por consiguiente, la plataforma de trabajo incluye una cuadrícula de lectores.
El documento US 5,320,358 describe el uso de formas diferentes de activación de sensor, mientras el documento US 6,149,490 de Hampton proporciona un fondo proporciona un telón de fondo para el control automático de los motores ( a través de una forma compacta y altamente controlable del sistema de accionamiento) en base a las comunicaciones limitadas entre juguetes, especialmente muñecos. En particular, el documento US 6,149,490 el juguete incluye unos sensores, por ejemplo unos transmisores de IR y unos receptores de ir, para posibilitar la comunicación entre los juguetes. Por ejemplo, si varios de los juguetes son situados en íntima proximidad, y se detecta una entrada sensorial que el controlador interpreta como unas instrucciones para que el juguete baile, por ejemplo cuatro sonidos sucesivos altos, agudos, el motor del juguete será activado para que la leva de la porción de los pies sea rotada por el árbol de control para provocar la basculación repetitiva de la porción de los pies, esto es, el baile del juguete. Este juguete, a continuación, señalará a los juguetes próximos, a través del enlace de IR, que empiecen a bailar.
En el artículo “Interfaces Tangibles para la Manipulación y Exploración de la Topografía de Información Digital” [“Tangible Interfaces for Manipulation and Exploration of Digital Information Topography”] de Gorbet et al., publicado en las Actas de CHI 98, 18 a 23 de abril de 1998, ACM, Los Ángeles, California, EE.UU (en lo sucesivo “Gorbet”), el autor describe un sistema en el cual unas imágenes permanentes son presentadas en cada llamado “Triángulo” ( o “Mosaicos”) para una entera aplicación. En efecto, las imágenes son siempre específicas de una historia o específicas de una aplicación. Así mismo, en Gorbet, la salida procedente de sus “Triángulos” no se produce a través del Triángulo mismo, sino que más bien se produce a través de una computadora conectada que interpreta las asociaciones formadas entre los Triángulos conectados, esto es, a través del “Triángulo madre”. En concreto, estos triángulos madre difieren de otros Triángulos en el hecho de que el Triángulo madre incorpora un cable que proporciona alimentación así mismo y a otros triángulos, así como una comunicación en serie con una computadora central. La salida en Gorbet, por consiguiente, no se obtiene en el dispositivo ni se obtiene (así mismo) en el generador de respuesta de un dispositivo manipulable similar, sino que, por el contrario, la salida del Gorbet emana directamente de un PC conectado.
El artículo de Laerhoven et al., titulado “Utilización de un Cubo Autónomo para una Entrada de Navegación Básica” [“Using an Autonomous Cube for Basic Navigation Input”] (Actas de la 5ª Conferencia Internacional sobre Interfaces Multimodales, ICMI ‘03, 5 a 7 de noviembre de 2003) se refiere a un sistema que permite la identificación de la orientación de un cubo mediante la utilización de una combinación de unos acelerómetros de eje doble y de un sensor capacitivo (para la medición de la proximidad). El cubo está dispuesto para generar de salida una información acerca de sí mismo hacia su entorno cuando su estado ha cambiado o cuando se ha llevado a cabo un determinado gesto. De manera similar a un cubo convencional, las caras del cubo están permanentemente etiquetadas. En funcionamiento, la orientación relativa del cubo es difundida cuando el cubo detecta que está siendo manipulado, mientras que la orientación final del cubo define una función que se lleva a cabo en un dispositivo remoto, como por ejemplo un sistema audio.
El artículo “El Alma del Cubo Activo -Implementación de una Interfaz Tangible Flexible, Multimodal, de Tres Dimensiones Espaciales” [“The Soul of Active Cube -Implementing a Flexible, Multimodal, Three Dimensional Spatial Tangible Interface”] de Watanabe et al., [publicada en ACM COMPUTERS IN ENTERTAINMENT, vol. 2, 4 de octubre de 2004, páginas 1 a 13, XP002238731] se refiere a una modelación en 3D. En particular, el sistema de Cubo Activo permite que los usuarios construyan e interactúen con un entorno en tres dimensiones (3D) utilizando cubos físicos equipados con dispositivos de entrada / salida. La uniformidad espacial, temporal y funcional se mantiene siempre entre el objeto físico y su correspondiente representación en la computadora. La base teórica que subyace a este sistema propuesto es que sería más fácil comprender lo que sucede en el entorno virtual porque el objeto construido actuaría como una réplica física de la estructura virtual. En este sentido, una computadora reconoce la estructura en 3D de los tubos conectados en tiempo real, de manera que la uniformidad se mantiene siempre entre el objeto físico y su representación correspondiente en la computadora.
La DS Datasheet de Nintendo (XP007915023) describe una consola para juegos que presenta unas pantallas dobles y la capacidad / modo inalámbrico de compartición de los juegos.
De acuerdo con un primer aspecto de la invención se proporciona un dispositivo manipulable de acuerdo con la reivindicación 1.
En un segundo aspecto de la invención se proporciona un conjunto de al menos dos dispositivos manipulables de acuerdo con la reivindicación 18.
Aspectos adicionales de la invención se comprenden mediante la lectura del aparato de la reivindicación 27 y del aparato de juegos de la reivindicación 28.
La caracterización puede comprender un material de representación visual o un material de salida de audio, y variará dependiendo de la aplicación concreta o de la finalidad del dispositivo o dispositivos. Por ejemplo, el material de representación visual puede comprender una letra o un grupo de letras (por ejemplo un fonema) o una palabra o palabras, y la respuesta sensorial puede comprender la voz correspondiente a una palabra o a una frase o a una sentencia separada por letras o palabras. En otra aplicación, el material de representación visual puede comprender una pluralidad de símbolos matemáticos, y la respuesta sensorial puede comprender una voz relacionada con las propiedades matemáticas de los números dispuestos sobre los dispositivos. En otra aplicación adicional, el material de representación visual puede comprender un símbolo musical y la respuesta sensorial puede comprender una respuesta musical audio. En un ejemplo, en el que la caracterización comprende un material de salida audio, este puede comprender el equivalente audio de cualquiera de los ejemplos del material de representación visual ofrecidos supra. En formas de realización preferentes de la invención, la respuesta sensorial comprende una respuesta audio que puede ser generada por uno o más dispositivos, y cada dispositivo incorpora así un generador audio para proporcionar la respuesta audio. Sin embargo, en otros ejemplos de la invención, la respuesta sensorial comprende una respuesta visual generada por uno o más dispositivos.
Cada dispositivo incorpora una unidad de representación visual que muestra un material de representación visual y / o es capaz de generar una respuesta sensorial visual, la cual puede ser una representación visual estática o animada. De modo preferente, cada dispositivo es programable para posibilitar que el material de representación visual y que la respuesta sensorial sean programadas para adecuarse a las diferentes aplicaciones, por ejemplo, para acomodar letras o palabras o números o símbolos musicales de acuerdo con lo descrito con anterioridad, o cualquier otro material de representación visual, y para generar las correspondientes respuestas visuales o de audio.
Por consiguiente, un dispositivo de acuerdo con la presente invención es, de modo preferente, un dispositivo multifuncional, completamente programable, el cual puede ser adaptado para su uso como una ayuda de aprendizaje en relación con el lenguaje, las matemáticas, la música u otros temas. Dicho dispositivo pude ser fácilmente adaptado para ser empleado en la forma de un aparato educacional multicomponente conocido, como por ejemplo regletas Cusinaire (utilizadas para enseñar aritmética), dominós y rompecabezas, estando cada componente (la barra, el dominó o la pieza del rompecabezas) incorporado en forma de dispositivo de acuerdo con la invención, el cual puede entonces responder de forma visual o audible para potenciar la experiencia del usuario del aparato.
La unidad de comunicación incorporada en el dispositivo está adaptada para comunicar con dispositivos similares en los cuales es utilizada para coordinar la respuesta sensorial apropiada a un conjunto de dispositivos múltiples. Cada dispositivo comunica la información relevante acerca de sí mismo correspondiente a su caracterización y puede ser un simple código de identidad. La respuesta sensorial se hace evidente por medio de uno o más de los dispositivos y podría incluir un generador de respuesta separado.
La comunicación de una respuesta sensorial con cualquier dispositivo se produce a través de la unidad de comunicaciones.
De modo preferente, la unidad de comunicaciones es un dispositivo inalámbrico que puede ser implementado utilizando la técnica de la telefonía móvil u otra técnica similar. Cada dispositivo está provisto de un sensor de proximidad o de múltiples sensores de proximidad, adaptados para detectar la proximidad de un dispositivo similar en una cualquiera de las posiciones adyacentes múltiples, como por ejemplo, adyacentes a cada uno de los múltiples bordes del dispositivo. Cada dispositivo está, de modo preferente adaptado también para identificar un dispositivo adyacente y para comunicar información tanto de la identidad como de la posición de un dispositivo adyacente a otros dispositivos o a la unidad de control central por medio de dicha unidad de comunicación para que pueda ser generada una respuesta conveniente.
El sensor de proximidad puede comprender un dispositivo magnético o eléctrico, y puede requerir el contacto físico entre dispositivos adyacentes para que sea operativo.
De modo preferente, un dispositivo manipulable de acuerdo con la invención está construido de acuerdo con una carcasa exterior robusta apropiada para su manipulación por un niño de 3 años o mayor.
De modo preferente, un dispositivo manipulable de acuerdo con la invención presenta unas peculiaridades distintivas de alineación, como por ejemplo unos salientes y unas indentaciones, en la superficie exterior que permiten que el dispositivo sea situado en alineación con otros dispositivos del mismo tipo. De modo preferente, el proceso de alineación proporciona una guía visual durante el proceso de alineación. Las peculiaridades características de alineación pueden interbloquear los dispositivos manipulables situados en posición adyacente de acuerdo con la invención. En una forma de realización, un dispositivo manipulable de acuerdo con la invención está dispuesto para proporcionar una indicación cuando se consiga la alineación con otro dispositivo del mismo tipo. La indicación puede ser de naturaleza audible o visible.
Los bordes de contacto adyacentes de los dispositivos pueden estar adaptados para acoplarse o interbloquearse solo cuando estén correctamente orientados para que ambos muestren dicho material de representación visual con la misma posición hacia arriba (esto es, de arriba abajo). Un dispositivo conformado de forma rectangular puede estar adaptado para que esté orientado con un dispositivo similar adyacente a cada uno de sus cuatro bordes laterales y el sensor de proximidad es, a continuación, adaptado para detectar cada dispositivo adyacente.
En una forma de realización alternativa de la invención, los dispositivos son utilizados en combinación con un cuadro, bandeja o base sobre la cual son situados y que es capaz de identificar la localización y la identidad de cada dispositivo y comunicar estas circunstancias a una unidad de control de central o a uno o más de los dispositivos para que generen la respuesta sensorial. El cuadro mismo puede consistir en una pantalla que pueda generar una representación apropiada para la aplicación específica y / o generar una respuesta sensoria. En esta forma de realización alternativa de la presente invención, los dispositivos individuales pueden no requerir la incorporación del sensor de proximidad, debido a la capacidad de detección de la localización del cuadro.
En la forma de realización alternativa anterior, el cuadro puede ser adaptado para que pueda recargar dispositivos individuales cuando sean situados en contacto con él. Así mismo, esta peculiaridad distintiva de recarga puede incorporarse en un cuadro que no presente la capacidad de localización del dispositivo.
Un dispositivo de acuerdo con la invención puede, así mismo, incorporar una cámara que permita que una imagen sea captada, siendo utilizada esta imagen como dicho material de representación visual sobre una unidad de representación visual también incorporada al dispositivo, o la imagen puede ser utilizada en una respuesta sensorial visual.
Un dispositivo de acuerdo con la invención puede, así mismo, incorporar un micrófono para hacer posible que el sonido sea captado y utilizado en una respuesta sensorial audio.
Un dispositivo de acuerdo con la invención puede, así mismo, incorporar unos medios de entrada de datos existentes en un dispositivo de reconocimiento de escritura para introducir palabras, letras, símbolos o números para su uso en la caracterización del dispositivo o en la programación de una respuesta sensorial que va a ser producida por el dispositivo.
Debe apreciarse que una respuesta sensorial audio, como por ejemplo la incorporada en algunas de las formas de realización descritas con anterioridad, puede adoptar la forma de una respuesta direccional o de estéreo / audio disponiendo que dos o más dispositivos sean controlados de manera simultánea o especial para generar unos sonidos apropiados.
La programación de cada dispositivo puede conseguirse mediante múltiples procedimientos diferentes incluyendo la conexión con unos medios de memoria, como por ejemplo tarjetas inteligentes o tarjetas de memoria (“memory sticks”); a través de una computadora personal o de un dispositivo informático portátil o a través de dicha unidad de comunicaciones. En un ejemplo, cada dispositivo puede hacer uso de una unidad de comunicaciones para recibir información desde una emisora de televisión para que el dispositivo sea adaptado para su uso en combinación con el programa de televisión que está siendo emitido.
Un dispositivo de acuerdo con la invención está también, de forma preferente, adaptado para que incorpore un sensor de usuario sensible al tacto y / o al movimiento de forma que pueda activar una salida de caracterización cuando es manejado por un usuario. La salida de caracterización comprende una salida visual o tanto una salida visual como una salida audio.
Los sistemas técnicos específicos que pueden ser utilizados en formas de realización de la invención, incluyen pequeñas computadoras inteligentes distribuidas en red conocidas como Specks o Motes; sistemas microelectromecánicos MEMs, especialmente para componentes y sensores audio; y sistemas técnicos de comunicaciones de radio o similares ZigBee.
Un dispositivo manipulable de acuerdo con la invención es, en un aspecto, una unidad de informática y, en cuanto tal, puede ser diseñada para ser un cliente simple dentro de una relación de cliente -servidor con alguna otra entidad.
En una forma de realización, un dispositivo manipulable de acuerdo con la invención comprende una RISC de 32 bits (o más), una UPC, una memoria, un procesador de gráficos, un procesador audio, un procesador de comunicaciones, un almacenamiento de datos interno, una fuente de alimentación recargable y una unidad de representación audiovisual sensible al tacto. La UPC es capaz, de modo preferente, de procesar 200 Millones de Instrucciones por Segundo (MIPS) o más. La UPC puede, de modo preferente, abordar 16Mb (o más) de una memoria de acceso aleatorio. El procesador gráfico y la representación visual serán, de modo preferente, capaces de ofrecer unas resoluciones de pantalla de 160 x 160 píxeles (o más) en un color de 8 bits ( o más). Otras versiones serán capaces de procesar un vídeo de movimiento completo de 12,5 tramas por segundo (o más) con un color de 16 bits (o más) sincronizado con audio. Otras versiones ofrecerán vídeo en vivo o incluso captación de imágenes por medio de una cámara incorporada. El procesador audio será, de modo preferente, capaz de una reproducción de 4 bits, un monouadio de 4 kHz (o más) y tonos polifónicos. Versiones mejoradas ofrecerán una capacidad de registro audio. El almacenamiento interno puede proporcionarse mediante tarjetas Secure Digita (SD), Tarjetas Multimedia (MMC) o una disposición de disco duro. El procesador de comunicaciones incluirá, de modo preferente, un soporte destinado a los protocolos inalámbricos estándar de la industria incluyendo el Bluetooth y, en el futuro, soportará otros protocolos emergentes incluyendo el IEEE 802.15.4 y otros protocolos de comunicación de campo próximo. En la actualidad es preferente que un dispositivo manipulable de acuerdo con la invención incorpore un sistema operativo en tiempo real (RTOS).
El aparato de vídeo podría, por ejemplo, conllevar el uso de unas pantalla de 5 cm x 5 cm pero podrían, así mismo, ser aceptables pantallas de 8cm x 8cm. Las pantallas podrían, por ejemplo, comprender unas pantallas de transistor de película delgada, TFT, con una matriz activa de 5,58 cm (4.3) un delta de RGB con una resolución de 880 x 228, un tamaño de píxel de 56,5 x 64 HM, unos controladores de representación analógicos de una sola fase, completamente integrados, con un voltaje de entrada de señal de 3V, un controlador de frecuencias de 3 MHz,, un consumo de energía del controlador de 15 MW.
La fuente de alimentación es, de modo preferente, una batería recargable y podría comprender un generador fotovoltaico.
El sensor de usuario puede, así mismo, detectar la manipulación del dispositivo por un usuario, indicativa de un movimiento de colocación del dispositivo que requiere una valoración de su proximidad con respecto a dispositivos similares y a la necesidad de generar una respuesta sensorial correspondiente a una de dichas disposiciones de dispositivos.
De acuerdo con una peculiaridad distintiva adicional de la invención, cada uno de dichos dispositivos manipulables incorpora una unidad de representación visual para representar el material de representación visual, y dos o más de dichos dispositivos están adaptados para quedar dispuestos en fila para que dicho material de representación visual “lea” de una manera significativa a lo largo de dicha fila. Un dispositivo similar puede estar situado en posición adyacente a un lado de dicha fila de dispositivos, y de esta forma, desencadena un cambio en el material de representación visual sobre dicho dispositivo visual para que coincida con el de dicha fila de dispositivos. Por ejemplo, dicho dispositivo visual puede estar situado por debajo de dicha fila de dispositivos para adquirir una combinación de caracteres procedentes de la fila por encima de él. Este dispositivo que representa dicha combinación de caracteres puede, a continuación, volverse a utilizar en otra fila de dispositivos para crear una nueva combinación de caracteres.
Cada dispositivo puede incorporar un conmutador de ACTIVACIÓN / DESACTIVACIÓN para posibilitar que el dispositivo sea reajustado hasta una posición de arranque, por ejemplo, representando un material de representación visual inicial preprogramado.
Solo a modo de ejemplo, a continuación se describirán determinadas formas de realización de la invención con referencia a los dibujos que se acompañan, en los cuales:
La Figura 1 ilustra la constitución física externa de un bloque interactivo;
la Figura 2 ilustra, de forma conceptual, la constitución interna del bloque interactivo de la Figura 1;
la Figura 3 ilustra cómo los bloques del tipo ilustrado en la Figura 1 pueden ser conectados en alineación entre sí;
la Figura 4 ilustra cómo los bloques del tipo mostrado en la Figura 1 pueden ser utilizados en una actividad de aprendizaje.
la Figura 5 ilustra de forma esquemática un bloque interactivo; y
la Figura 6 ilustra de forma esquemática una bandeja o un cuadro el cual puede interactuar con los bloques del tipo mostrado en la Figura 5.
Una forma de realización de la invención consiste en un grupo de bloques, digamos 12 bloques, cada uno de forma rectangular y adaptado para quedar situado borde con borde con otros bloques del mismo lado (bloques del tipo del mismo lado designado como borde a mano izquierda y a mano derecha) a modo de pila, y el borde superior y el borde inferior a modo de columna. Cada bloque incorpora una pantalla de visualización sobre la mayoría de la superficie frontal exterior, la cual forma parte de una unidad de representación visual electrónica capaz de representar un material de representación visual de acuerdo con los datos de representación derivados de una base de datos. En esta forma de realización, el material de representación visual consiste en una letra minúscula del alfabeto que se representa sobre la pantalla cuando el bloque es activado por primera vez. Cada bloque puede incorporar un conmutador que permita que sea activado o desactivado, y el funcionamiento del conmutador inicia una situación de arranque en la cual se representa una letra preprogramada. La programación de los bloques puede disponerse de tal manera que las diferentes combinaciones de una fila puedan detallar letra por letra de quince a veinte diferentes palabras para enseñar a leer a un niño de pocos años.
Cada bloque incorpora un medio de representación de su orientación por lo que se refiere a sus partes superior e inferior, la cual puede suscitar la forma del bloque o un indicador representado en la pantalla de visualización.
Cada bloque incorpora, así mismo, un sensor de proximidad o un sensor adaptado para que pueda detectar la proximidad de otro bloque alineado borde con borde con él, implicando, de modo preferente, el contacto entre dichos bordes adyacentes, ya sea en el borde a mano izquierda o en el borde a mano derecha, en elborde superior o en el borde inferior. El sensor de proximidad, u otro sensor de ID independiente de aquél, está adaptado para detectar la identidad de cada bloque adyacente.
Cada bloque incorpora, así mismo, un sensor táctil y / o del movimiento.
Cada bloque incorpora, así mismo, una unidad de comunicaciones inalámbricas por medio de la cual comunica con otro bloque para transmitir una información relacionada con su propia identidad y con el material de representación visual y la con la identidad y la localización de los bloques adyacentes y para recibir información que determine que la unidad de representación visual identifica el material de la unidad de representación.
Cada bloque incorpora también, de modo preferente, un generador audio que está adaptado para producir una respuesta audio de acuerdo con una información de programación inicial recibida por medio de la unidad de comunicaciones inalámbricas.
Debe apreciarse que un bloque con la capacidad de las comunicaciones, de representación visual y de generador de audio descritas con anterioridad puede ser fácilmente implementado utilizando la técnica de la telefonía móvil. Los sensores de proximidad, los sensores de ID y los sensores táctiles y del movimiento pueden, así mismo, ser fácilmente implementados utilizando técnicas conocidas. Debe apreciarse que cada bloque incorpora su propia fuente de alimentación e incorpora un procesador o unos procesadores que incorporan la funcionalidad requerida.
Un conjunto de bloques está adaptado para que, por sí mismo, sea suficiente para suministrar la funcionalidad descrita más adelante con los procesadores que operan de acuerdo con las instrucciones preprogramadas y con las entradas procedentes de los sensores de cada uno para producir las respuestas visuales y audio de bloques.
La constitución de un ejemplo de los bloques se muestra en las Figuras 1, 2 y 5. La estructura interna de un bloque se muestra de forma conceptual en la Figura 2 y en forma de diagrama de bloques en la Figura 5. La Figura 3 muestra cómo los bloques de este tipo pueden ser situados en alineación mutua tanto en vertical como en horizontal.
La Figura 5 ilustra los componentes principales de un bloque. Debe, por supuesto, resultar evidente para la persona experta en la materia que este es un diagrama de alto nivel que ilustra solo los componentes clave del bloque. Tal y como se muestra en la Figura 5, un bloque 500 comprende un procesador 510, una memoria 512, un transceptor de RF 514, una pantalla 516, un altavoz 518, un conmutador magnético 520, un sensor táctil 522, un sensor de movimientos 524, un puerto de acoplamiento 526 y una batería 528. El transceptor de RF 514 hace posible que el bloque 500 comunique de forma inalámbrica con otros bloques, al menos similares, situados en las inmediaciones. La pantalla 516 y el altavoz 518 permiten que la información visual y audio sea presentada a un usuario del bloque
500. El conmutador magnético 520 es activado por la proximidad de al menos otro bloque similar. El sensor táctil 522 está dispuesto en el exterior del bloque 500 para detectar que un usuario está tocando al menos ese área del bloque 500. El conmutador de movimientos 524 detecta el movimiento del bloque 500 por parte de un usuario. El puerto de acoplamiento 526 está destinado a recibir una tarjeta de memoria para cargar software / datos en el bloque 500. El bloque 500 incluye, así mismo, una batería 528 que proporciona potencia para posibilitar que los diversos dispositivos situados dentro del bloque operen. El procesador 510 procesa, con la ayuda de la memoria 512, la información recibida del transceptor de RF 514, del conmutador 520, del sensor táctil 522, del sensor de movimientos 514 y del cuerpo de acoplamiento 526 para provocar, cuando sea oportuno, que el transceptor de RF 524 comunique con otros bloques y / o provoque que la pantalla 516 y / o el altavoz 518 presenten información a un usuario del bloque 500.
La Figura 6 muestra una bandeja 600 para su uso en los bloques, por ejemplo con los bloques 610 a 616 del tipo descrito con anterioridad con respecto a las Figuras 1, 2 y 5. El cuadro 600 comprende un detector 618 para determinar la localización y la identidad de los bloques situados sobre el cuadro. El cuadro 600 incluye, así mismo, un cargador para recargar las baterías de los bloques que están situados sobre el cuadro. El cuadro incluye, así mismo, una pantalla 622 y están configurado para presentar información a un usuario a través de la pantalla en respuesta a las interacciones del usuario con los bloques situados sobre el cuadro.
A continuación se describirán ejemplos de cómo el conjunto de bloques puede ser utilizado como bloques alfabéticos.
Sam es una niña de cuatro años y medio. Acaba de empezar su primer año de parvulario en la escuela en la que está aprendiendo a leer y a escribir. Sus padres tienen gran interés en ayudarle a aprender en casa y le compran un conjunto de bloques con un cierto software de lectura precargado acorde para su edad.
Sam abre la caja y saca los bloques.
Los padres están mirando atentos con la curiosidad de saber cómo funcionan.
Cada uno de ellos representa una letra minúscula diferente. Sam va a coger uno y la unidad emite el sonido de la letra que representa. Por ejemplo, “/c /”. Moviendo cada uno de los bloques la niña comprende que todos hacen lo mismo.
En una opción alternativa, si hay 15 segundos de inactividad, un bloque podría decir “Intenta deletrear una palabra ¿Que te parece cat? [gato]. Como alternativa, presionando sobre un bloque podría decir “c suena como /c/. /c/ es para cat. ¿Componer los bloques para deletrear cat?.
Sam pone dos de los bloques uno junto a otro. Empezando con el de la derecha los bloques leen por turno las letras que representan, por ejemplo “/d/, /o/”. Entonces leen el sonido combinado. Para este ejemplo los bloques dirían “do” [hacer].
Cuando la niña pone tres letras “al azar” juntas (“/c/, /f/, /g/”), no emiten ningún sonido.
La niña juega con algunas combinaciones diferentes hasta que la palabra es deletreada. Por ejemplo, “/c/, /a/, /t/. “Has deletreado cat [gato]. Bien hecho”. En este punto un gato salta sobre la pantalla, se mueve por ella, y maulla.
En una opción alternativa, los bloques estimulan a la niña a que efectúe un siguiente paso. Por ejemplo “ahora puedes copiar la palabra que has hecho sobre su propio bloque, situando uno debajo. O puedes intentar deletrear otra palabra.
Cuando Sam sitúa otro bloque por debajo de la palabra que ha deletreado, la palabra salta hacia abajo sobre ese único bloque. Dice “cat” , cuando lo aprieta.
Los tres bloques que originariamente deletrearon la palabra quedan ahora libres para ser utilizados en otra palabra.
De acuerdo con lo descrito con anterioridad, cada bloque es individualmente sensible al tacto o al movimiento y reacciona audible y visualmente dependiendo de lo que represente.
Si cada bloque sensible tanto al intercambio como al desplazamiento por separado, entonces cada uno puede ofrecer una segunda respuesta, como por ejemplo ofrecer un ejemplo de uso.
Si una letra representa, por ejemplo, “c”, el bloque emite el sonido de la letra como se dice en el alfabeto y fonéticamente. Por ejemplo, “C. C suena como /c/ para cat”. Unos dibujos animados pueden ofrecer una representación sobre la pantalla relacionada con la letra y un ejemplo dado. Una segunda respuesta podría sugerir lo que la usuaria puede hacer a continuación. Por ejemplo, “¿Puedes deletrear Cat?” .
Si una palabra es representada, por ejemplo, “cat”, el bloque emite el sonido de las letras fonéticas de la palabra. Por ejemplo, “/c/, /a/, /t/ deletrea cat”. Unos dibujos animados relativos a la palabra se representan en la pantalla. Una segunda respuesta podría sugerir el deletreo de otra palabra a partir de las letras disponibles, si ello es posible.
Si se representa un sonido fonético, por ejemplo, “ch”, el bloque emite el sonido fonético combinado “/ch/ como en lunch” [“almuerzo”]. La pantalla representa unos dibujos animados de algún elemento en situación de ser comido.
Cuando los bloques son situados en posición contigua unos respecto de otros reaccionan dependiendo de lo que figura sobre cada uno de ellos. Ello podría ser un sonido fonético, por ejemplo, “/ch/”, una palabra, por ejemplo “cat”
o unas letras al azar, por ejemplo “/k/, /r/, /f/”.
Si la usuaria sitúa bloques individuales a lo largo unos respecto de otros, entonces dichos bloques responden de acuerdo con la combinación de las letras que representan.
Si se crea un sonido fonético “ch”, los bloques emiten el sonido combinado “/ch/”. Podrían así mismo, ofrecer un ejemplo corto de uso “/ch/” como en lunch, yum, yum, yum” [ñam, ñam, ñam].
Si se crea una palabra “cat” los bloques emiten el sonido de las letras individuales seguidos por la palabra. Por ejemplo, “/c/, /a/, /t/, deletrea cat. Bien hecho, has deletreado cat”. La pantalla muestra unos dibujos animados breves. En este ejemplo, una imagen del gato corriendo entre los dos bloques. Esto sucede siempre que uno de los bloques unidos es presionado.
Si se crea una nueva palabra (un plural o una palabra completamente nueva) mediante la adición de una letra o unas letras a una palabra actual de un sonido fonético, la respuesta podría ser, “/c/, /a/, /r/ /t/ deletrea cart [carreta]. ¿Vienes a dar un paseo?” o “/c/, /a/, /t/, /s/ deletrea cats, ¡Ahí vienen! “. La pantalla ofrece un dibujo de acuerdo con la palabra deletreada si la palabra presenta un dibujo animado asociado en la base de datos. De manera que, en los ejemplos referidos, un caballo y una carreta podrían entrar y salir de las pantallas o varios gatos podrían empezar a jugar dentro de ella.
Si un conjunto aleatorio de letras es situado de forma adyacente, por ejemplo “/d/, /f/, /r/, /g/” no se genera ningún sonido y no se representa ningún dibujo animado.
La animación y el sonido únicamente estarán disponibles para algunas de las palabras que pueden ser creadas utilizando los bloques, de acuerdo con lo establecido en una base de datos de respuestas relacionadas mantenidas en uno o en cada bloque o en una unidad de control central
Si un/una usuario/a sitúa un bloque en posición adyacente al borde superior de otro, el bloque inferior hereda la propiedad del bloque superior. La colocación de múltiples bloques por encima o por debajo provocará, así mismo, una reacción entre los bloques. Por ejemplo, si el o la usuaria coloca un bloque por encima de otro, y el bloque superior muestra “/b/” y el bloque inferior muestra “”b/”, el bloque inferior se convertirá también en una “/b/”.
Un/una usuario/a puede situar una palabra desperdigada por varios bloques sobre un bloque mediante la colocación de un bloque por debajo. Esto podría, así mismo ser utilizado para unir un “/c/” y un “/h/” en un solo bloque “/ch/”.
Si un/una usuario/a ha deletreado una palabra o un sonido fonético utilizando tres bloques individuales, por ejemplo, “/c/”, “/a/” y “/t/” deletreando “cat”, el usuario puede entonces situar un cuarto bloque en cualquier parte por debajo de los tres bloques de letras y la palabra “cat” se desplaza sobre un único bloque. Sin embargo, si un / una usuario/a intenta copiar dos letras al azar sobre un único bloque no funcionará. Por ejemplo “/g/” y “/f/” no pueden ser unidas en un solo bloque “/gf/”.
Así mismo, si el / la usuario/a tiene dos bloques de palabras que no componen una tercera palabra, no pueden ser copiadas sobre un único bloque. Por ejemplo, “cat” y “sat” [“sentado /a / os / as”] no pueden ser unidas para efectuar un bloque “catsat”.
Si un / una usuario /a tiene la palabra “cat” sobre un único bloque y quiere dividirlo en tres letras separadas, necesita situar tres bloques por debajo del bloque de palabras. Cada una de las tres letras se aloja en su propio bloque debajo por orden de derecha a izquierda.
Un ejemplo de uso de un conjunto de bloques alfabéticos que operan de acuerdo con los principios expuestos se ilustra en la Figura 4, en una pluralidad de etapas 1 a 6.
- 1.
- Los bloques son sacados de la caja y colocados en el suelo.
- 2.
- El / la usuario /a sitúa “/c/” y “/h/” juntos, los bloques emiten el sonido “/ch/”. Ponen “/g/” por debajo y copian “ /ch/ ” sobre él. El intento de copiar “/t/” “/m/” sobre “/g/” no funciona.
- 3.
- “/a/” y “/t/” se unen para formar “at” [“en”] y son copiados sobre un único bloque.
- 4.
- “/m/” es situado delante de “at” para formar “mat” [“felpudo”]. Los bloques individuales “/a/” y “/t/” siguen unidos en la parte superior de “at”, pero no tienen efecto directo sobre el “/m/” en cuanto no están directamente por encima sino sobre un lado. “/u/” es situado por debajo del “/m/” de “mat” y “mat” es copiado sobre el único bloque, el cual es a continuación retirado (no se ilustra).
- 5.
- Un bloque “/s/” es situado delante de los bloques “/a/” y “/t/” para deletrear “sat”. Cuando el “/m/” de “mat” está por debajo del bloque de “/s/” la palabra “sat” es copiada sobre él. “sat” es, así mismo, copiado sobre el bloque “at”. Los dos bloques “sat” no interactúan entre sí dado que no ha sido creada ninguna palabra o sonido. Así mismo, cuando un bloque “r” es situado por debajo de uno cualquiera de los bloques “sat” no hay nada que se copie.
- 6.
- La utilización de los bloques en la presente memoria es una cadena de varias palabras que pueden ser creadas siguiendo los principios descritos en las especificaciones funcionales.
La invención es aplicable a diversas áreas, las cuales incluyen, pero no se limitan a, el juego, el entretenimiento, el embellecimiento y la creación, el medioambiente, la industria y el aprendizaje (de, por ejemplo, lenguas, matemáticas y las dotes / conocimientos musicales).
Las aplicaciones en el juego pueden incluir una diversidad de juegos estimulantes utilizando los bloques y, de modo opcional, una bandeja tipo mencionada en la introducción. Estas aplicaciones incluyen juegos nuevos así como las mejoras de los típicos juegos existentes de cuadro y cartas con peculiaridades distintivas adicionales (en virtud del hecho de que las piezas “bloques” pueden modificar su imagen y emitir sonidos) y el cuadro (base interactiva) puede, así mismo, cambiar su imagen. Así mismo, nuevas formas de juguetes, como por ejemplo con animales de corral o de zoológico pueden ser creados y convertirse en elementos de animadas historias.
En relación con el embellecimiento y la decoración, en el contexto educativo, los bloques de IA pueden ser llevados como insignias que puedan permitir que los estudiantes interpreten sus diversas funciones (letras, sonidos, números) e interactúen con otros niños que lleven insignias para formar palabras, canciones y ecuaciones. Además de ello, los bloques de IA ofrecen unas posibilidades implícitas, emotivas, estéticas, interactivas y descriptivas. Los bloques en combinación pueden ser utilizados para desencadenar interacciones sociales y artísticas entre personas para crear instalaciones más complejas.
En escenarios de medioambientales y de la industria, variantes de los dispositivos pueden posibilitar la incorporación de datos / sistemas audio y visuales solos o en combinación (por ejemplo, para la medición y el control de la salud y la seguridad).
Claims (24)
- REIVINDICACIONES1.-Un dispositivo manipulable (500) que comprende: un procesador (510) dispuesto para controlar el funcionamiento del dispositivo (500); una fuente de alimentación (528) que proporciona alimentación al dispositivo (500); una unidad de representación visual (516) dispuesta para representar un material de representación visual; un generador de respuesta (516, 518) para generar una respuesta sensorial; una unidad de comunicaciones (514) configurada, en uso, para efectuar una comunicación con un dispositivomanipulable similar; y en el que el dispositivo (500) está configurado para presentar una caracterización individual modificable representada por la representación de un material de representación visual, y en el que el procesador (510) genera una respuesta sensorial en su generador de respuesta (516, 518) o una respuesta sensorial en un generador de respuesta de un dispositivo similar (610 -616), siendo la respuesta sensorial generada dependiente de al menos unade las caracterizaciones individuales presentadas por el mismo dispositivo (500) y una caracterización individual presentada por el dispositivo similar (610 -616), el dispositivo manipulable caracterizado porque: la respuesta sensorial generada de salida por el generador de respuesta, es continuación de la manipulación deldispositivo y de la interacción entre las caracterizaciones individuales modificables, dependiendo la interacción de laposición relativa entre el dispositivo y al menos un dispositivo de interacción situado en posición adyacente; incluyendo así mismo el dispositivo manipulable un sensor de proximidad (520) configurado para detectar dicha posición relativa; y en el que:la caracterización individual modificable del dispositivo manipulable representada por la representación del material de representación visual adopta una forma de al menos un elemento entre: una letra; un grupo de letras; una palabra; palabras; un número; un símbolo matemático, o un símbolo musical;la caracterización individual del dispositivo similar (610 -616) es representada visualmente como: una letra, un grupode letras; una palabra; palabras; un número; un símbolo matemático; un símbolo musical y la caracterización individual del dispositivo manipulable (500) es controlada por el procesador (510) y siendo modificable de manera selectiva a lo largo del tiempo en base a:i) la detección próxima del dispositivo similar (610 -616); y ii) la caracterización individual representada sobre ese dispositivo similar (610 -616) en el momento de su detección. 2.-El dispositivo (500) de acuerdo con la reivindicación 1, en el que la respuesta sensorial incluye una animaciónvisual relacionada.
- 3.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que el generador de respuesta (516, 518) comprende un generador audio (518) dispuesto para generar al menos un elemento entre: un fonema; una palabra, frase o sentencia; palabras relacionadas con las propiedades matemáticas de un número presentadovisualmente; y una respuesta musical audio correspondiente a un símbolo musical. 4.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual es programable para determinarla caracterización individual y /o la respuesta sensorial que debe ser generada. 5.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que unidad de comunicaciones(514) está adaptada para comunicar con otros dispositivos similares (610 – 616) para identificarse a sí mismo y para generar una respuesta sensorial.
- 6.-El dispositivo (500) de acuerdo con la reivindicación 5, en el que unidad de comunicaciones (514) comprende un dispositivo inalámbrico.
- 7.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que la unidad de comunicaciones(514) está configurada para comunicar la proximidad de un dispositivo adyacente tal y como es detectado por el sensor de proximidad.
- 8.-El dispositivo (500) de acuerdo con la reivindicación 7, en el que la unidad de comunicaciones (514) está configurada para comunicar la identidad de dicho dispositivo adyacente.
- 9.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, en el que los bordes del dispositivo(500) están adaptados para acoplarse entre sí o interblquearse con los de un dispositivo similar (610 -616) en una orientación predeterminada acorde con el material de representación visual existente en cada dispositivo.
- 10.-El dispositivo (500) de acuerdo con la reivindicación 1, el cual incluye una cámara que está adaptada para captar una imagen que va a ser mostrada sobre dicho dispositivo de representación visual (516).
- 11.-El dispositivo (500) de acuerdo con la reivindicación 3, el cual incluye un micrófono que está adaptado para captar el sonido que va a ser reproducido por dicho generador audio (518).
- 12.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual incluye un medio de entrada de datos (512) para introducir datos para su uso en la caracterización individual del dispositivo (500) o en la programación de una respuesta sensorial.
- 13.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual incluye un sensor de usuario(522) sensible al tacto y adaptado para desencadenar una salida sensorial.
- 14.-El dispositivo (500) de acuerdo con la reivindicación 13, en el que la salida sensorial desencadenada por el sensor de usuario (522) produce una salida procedente de uno o más dispositivos distintos.
- 15.-El dispositivo (500) de acuerdo con la reivindicación 13, en el que la salida sensorial desencadenada por el usuario comprende una salida de caracterización.
- 16.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, el cual incluye un sensor de movimiento(524) adaptado para detectar el movimiento del dispositivo para desencadenar una respuesta sensorial.
- 17.-El dispositivo (500) de acuerdo con cualquier reivindicación precedente, adaptado así mismo para identificar un dispositivo adyacente y para comunicar información tanto de la identidad como de la posición del dispositivo adyacente a otros dispositivos a través de dicha unidad de comunicaciones (514) para que pueda ser generada una respuesta sensorial apropiada.
- 18.-Un conjunto de al menos dos dispositivos manipulables manualmente (610 – 616), cada dispositivo de acuerdo con cualquiera de las reivindicaciones 1 a 17 y, por tanto, adaptado para presentar una caracterización individual modificable representada por la modificación de un material de representación visual que adopta la forma de un elemento entre: una letra; un grupo de letras; una palabra; palabras; un número; un símbolo matemático; un símbolo musical, siendo cada uno de los dispositivos manipulables (610 -616) localizables con respecto a otros dispositivos del tipo indicado en múltiples disposiciones diferentes,en el que los dispositivos (500) generan una respuesta sensorial coordinada a través de al menos uno de dichos generadores de respuesta (516, 518) de dichos al menos dos dispositivos manipulables del conjunto (610 -616), estando la respuesta coordinada de acuerdo con la estructura de los dispositivos, dependiendo la respuesta sensorial de al menos una caracterización ya sea de la caracterización individual presentada por un primero de los al menos dos dispositivos (610 -616) ya sea de una combinación de caracterizaciones individuales de al menos dos de dichos al menos dos dispositivos.
- 19.-El conjunto de dispositivos (610 – 616) de acuerdo con la reivindicación 18, en el que la respuesta sensorial comprende una representación visual generada sobre la pantalla visual (516) de uno o más de dichos dispositivos.
- 20.-El conjunto de dispositivos (610 – 616) de acuerdo con cualquiera de las reivindicaciones 18 o 19, en el que el generador de respuesta comprende un generador audio (518) dispuesto para generar al menos un elemento entre:un fonema;una palabra, frase o sentencia;palabras relacionadas con las propiedades matemáticas de un número presentado visualmente; y una respuesta musical audio correspondiente a un símbolo musical.
- 21.-El conjunto de dispositivos (610 – 616) de acuerdo con cualquiera de las reivindicaciones 18 a 20, y un cuadro(600) en el cual los dispositivos (610 -616) van a ser situados en dichas disposiciones múltiples diferentes, y el cual es capaz de identificar (618) la localización e identidad de cada dispositivo.
- 22.-El conjunto de dispositivos (610 – 616) de acuerdo con la reivindicación 21, en el que el cuadro (600) incorpora una pantalla (622) configurado para generar una representación visual.
- 23.-El conjunto de dispositivos (610 – 616) de acuerdo con las reivindicaciones 21 o 22, en el que el cuadro (600) incorpora unos medios (620) para recargar la fuente de alimentación (528) de cada dispositivo (610 -616) cuando 5 está situado sobre el cuadro (600).
- 24.-El conjunto de dispositivos (610 – 616) de acuerdo con cualquiera de las reivindicaciones 18 a 23, en el que la unidad de comunicaciones (514) de uno o más dispositivos está adaptada para recibir los datos de programación desde una emisora de televisión.
- 25.-El conjunto de dispositivos (610 – 616) de acuerdo con la reivindicación 18, en el que al menos dos de dichos10 dispositivos están configurados para quedar dispuestos en línea de forma que dicho material de representación visual lea de una manera significativa a lo largo de dicha línea, y un dispositivo similar puede estar situado en posición adyacente a un lado de dicha línea de dispositivos y, por medio de lo cual, desencadena un cambio en el material de representación visual sobre dicho dispositivo similar para que coincida con el de dicha línea de dispositivos.15 26.-El conjunto de dispositivos (610 – 616) de acuerdo con una cualquiera de las reivindicaciones 18 a 25, el cual está configurado para comunicar, por medio de dichas unidades de comunicaciones (514), para formar una red informática inteligente la cual es capaz de responder de acuerdo con la disposición de los dispositivos y generar dicha respuesta sensorial.
- 27.-El aparato de aprendizaje que comprende uno o más dispositivos (500) de acuerdo con cualquiera de las 20 reivindicaciones 1 a 17.
- 28.-El aparato de juegos que comprende uno o más dispositivos (500) de acuerdo con cualquiera de las reivindicaciones 1 a 26.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0506159 | 2005-03-24 | ||
GB0506159A GB2424510A (en) | 2005-03-24 | 2005-03-24 | Interactive blocks. |
US142955 | 2005-06-02 | ||
US11/142,955 US8057233B2 (en) | 2005-03-24 | 2005-06-02 | Manipulable interactive devices |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2364956T3 true ES2364956T3 (es) | 2011-09-19 |
Family
ID=34566497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES06726517T Active ES2364956T3 (es) | 2005-03-24 | 2006-03-24 | Dispositivos interactivos manipulables. |
Country Status (11)
Country | Link |
---|---|
US (3) | US8057233B2 (es) |
EP (2) | EP2363848A3 (es) |
JP (1) | JP5154399B2 (es) |
CN (1) | CN101185108B (es) |
AT (1) | ATE502371T1 (es) |
DE (1) | DE602006020726D1 (es) |
DK (1) | DK1899939T3 (es) |
ES (1) | ES2364956T3 (es) |
GB (1) | GB2424510A (es) |
MX (1) | MX2007011816A (es) |
RU (1) | RU2408933C2 (es) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2441564A (en) * | 2006-09-11 | 2008-03-12 | Tts Group Ltd | Apparatus for teaching synthetic phonics |
US20100003651A1 (en) * | 2008-07-02 | 2010-01-07 | Med Et Al, Inc. | Communication blocks and associated method of conveying information based on their arrangement |
US9128661B2 (en) * | 2008-07-02 | 2015-09-08 | Med Et Al, Inc. | Communication blocks having multiple-planes of detection components and associated method of conveying information based on their arrangement |
US20100092928A1 (en) * | 2008-09-19 | 2010-04-15 | Mira Stulberg-Halpert | System and method for teaching |
US8552396B2 (en) * | 2009-02-26 | 2013-10-08 | The University Of Vermont And State Agricultural College | Distributive, non-destructive real-time system and method for snowpack monitoring |
ITTV20090059A1 (it) * | 2009-03-26 | 2010-09-27 | Giovine Vincenzo Di | Solido con sorgente luminosa led ed intelligenza artificiale attivabile nelle sue funzioni ottiche ed acustiche per contatto o prossimita' o movimento e gestito per mezzo di controllo remoto |
US8742814B2 (en) | 2009-07-15 | 2014-06-03 | Yehuda Binder | Sequentially operated modules |
US8602833B2 (en) | 2009-08-06 | 2013-12-10 | May Patents Ltd. | Puzzle with conductive path |
KR101210280B1 (ko) * | 2009-09-02 | 2012-12-10 | 한국전자통신연구원 | 센서 기반 조립형 교구 |
AU2010314794A1 (en) * | 2009-11-06 | 2012-05-17 | David Webster | A portable electronic device |
KR101632572B1 (ko) * | 2009-11-25 | 2016-07-01 | 삼성전자 주식회사 | 비디오 월 디스플레이시스템 |
CN102136202B (zh) * | 2010-01-25 | 2014-10-15 | 大块文化出版股份有限公司 | 互动式信息系统及互动式信息方法 |
US9213480B2 (en) * | 2010-04-08 | 2015-12-15 | Nokia Technologies Oy | Method, apparatus and computer program product for joining the displays of multiple devices |
US8639186B2 (en) | 2010-10-28 | 2014-01-28 | Sondex Wireline Limited | Telemetry conveyed by pipe utilizing specks |
WO2012128675A1 (en) * | 2011-03-18 | 2012-09-27 | Telefonaktiebolaget L M Ericsson (Publ) | Indicating physical change in relation to an exterior of a network node module |
US20140127965A1 (en) * | 2011-07-29 | 2014-05-08 | Deutsche Telekom Ag | Construction toy comprising a plurality of interconnectable building elements, set of a plurality of interconnectable building elements, and method to control and/or monitor a construction toy |
US9597607B2 (en) | 2011-08-26 | 2017-03-21 | Littlebits Electronics Inc. | Modular electronic building systems with magnetic interconnections and methods of using the same |
US9019718B2 (en) | 2011-08-26 | 2015-04-28 | Littlebits Electronics Inc. | Modular electronic building systems with magnetic interconnections and methods of using the same |
US11330714B2 (en) | 2011-08-26 | 2022-05-10 | Sphero, Inc. | Modular electronic building systems with magnetic interconnections and methods of using the same |
GB2496169B (en) * | 2011-11-04 | 2014-03-12 | Commotion Ltd | Toy |
US20130130589A1 (en) * | 2011-11-18 | 2013-05-23 | Jesse J. Cobb | "Electronic Musical Puzzle" |
DE102012004848A1 (de) * | 2012-03-13 | 2013-09-19 | Abb Technology Ag | Simulationsgerät zur Demonstration oder zum Testen von Funktionen eines Schaltschrankes in einer Schaltanlage |
JP2014078167A (ja) * | 2012-10-11 | 2014-05-01 | Casio Comput Co Ltd | 電子データ処理装置およびプログラム |
US20140168094A1 (en) * | 2012-12-14 | 2014-06-19 | Robin Duncan Milne | Tangible alphanumeric interaction on multi-touch digital display |
CN103000056A (zh) * | 2012-12-21 | 2013-03-27 | 常州大学 | 教学用多媒体智能交互一体机 |
NL2013466B1 (en) * | 2014-09-12 | 2016-09-28 | Rnd By Us B V | Shape-Shifting a Configuration of Reusable Elements. |
US9956494B2 (en) | 2013-03-15 | 2018-05-01 | Rnd By Us B.V. | Element comprising sensors for detecting grab motion or grab release motion for actuating inter-element holding or releasing |
US10093488B2 (en) | 2013-03-15 | 2018-10-09 | Rnd By Us B.V. | Shape-shifting a configuration of reusable elements |
US9229629B2 (en) * | 2013-03-18 | 2016-01-05 | Transcend Information, Inc. | Device identification method, communicative connection method between multiple devices, and interface controlling method |
US10610768B2 (en) * | 2013-05-07 | 2020-04-07 | Carder Starr | Digitial multilingual word building game |
CN104461173A (zh) * | 2013-09-23 | 2015-03-25 | 上海华师京城高新技术(集团)有限公司 | 一种多媒体互动一体机 |
CN103480159B (zh) * | 2013-09-30 | 2015-12-02 | 广州视源电子科技股份有限公司 | 玩具构建系统 |
US20150099567A1 (en) * | 2013-10-09 | 2015-04-09 | Cherif Atia Algreatly | Method of gaming |
WO2015173246A1 (en) * | 2014-05-15 | 2015-11-19 | Lego A/S | A toy construction system with function construction elements |
US10825352B2 (en) * | 2014-06-04 | 2020-11-03 | Square Panda Inc. | Letter manipulative identification board |
US10607502B2 (en) | 2014-06-04 | 2020-03-31 | Square Panda Inc. | Phonics exploration toy |
CN104064068B (zh) * | 2014-06-17 | 2016-04-13 | 王岳雄 | 一种亲子互动学习方法及实现该方法的装置 |
US20160184724A1 (en) | 2014-08-31 | 2016-06-30 | Andrew Butler | Dynamic App Programming Environment with Physical Object Interaction |
CN104383697A (zh) * | 2014-11-25 | 2015-03-04 | 上海电机学院 | 电子积木以及电子积木组 |
WO2016165024A1 (en) * | 2015-04-16 | 2016-10-20 | Andrade James | Braille instruction system and method |
US10413808B2 (en) * | 2015-10-04 | 2019-09-17 | Shari Spiridigliozzi | Electronic word game |
US10088280B2 (en) | 2015-11-21 | 2018-10-02 | Norma Zell | Control module for autonomous target system |
CN105641946B (zh) * | 2016-03-10 | 2017-11-17 | 深圳市翰童科技有限公司 | 无线电子积木 |
CN105727571B (zh) * | 2016-04-01 | 2017-10-31 | 深圳市翰童科技有限公司 | 电子积木 |
TWI619101B (zh) * | 2016-05-13 | 2018-03-21 | 國立臺灣師範大學 | Puzzle learning system |
US10847046B2 (en) | 2017-01-23 | 2020-11-24 | International Business Machines Corporation | Learning with smart blocks |
KR102366617B1 (ko) * | 2017-03-28 | 2022-02-23 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
US20190073915A1 (en) * | 2017-09-06 | 2019-03-07 | International Business Machines Corporation | Interactive and instructional interface for learning |
JP6795534B2 (ja) * | 2018-02-27 | 2020-12-02 | 振名 畢 | 物理的物体と計算機とを組み合わせた出題システム |
US11017129B2 (en) | 2018-04-17 | 2021-05-25 | International Business Machines Corporation | Template selector |
WO2020156719A1 (en) * | 2019-01-31 | 2020-08-06 | Lego A/S | A modular toy system with electronic toy modules |
US11616844B2 (en) | 2019-03-14 | 2023-03-28 | Sphero, Inc. | Modular electronic and digital building systems and methods of using the same |
Family Cites Families (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3654706A (en) * | 1970-06-23 | 1972-04-11 | Donald J Perrella | Educational device |
US4342904A (en) * | 1980-10-27 | 1982-08-03 | Minnesota Mining And Manufacturing Company | Lightweight ferromagnetic marker for the detection of objects having markers secured thereto |
US4703573A (en) * | 1985-02-04 | 1987-11-03 | Montgomery John W | Visual and audible activated work and method of forming same |
US5119077A (en) * | 1988-01-15 | 1992-06-02 | Giorgio Paul J | Interactive ballistic tracking apparatus |
US5013245A (en) * | 1988-04-29 | 1991-05-07 | Benedict Morgan D | Information shapes |
US4936780A (en) * | 1989-01-31 | 1990-06-26 | Cogliano Mary A | Touch sensor alpha-numeric blocks |
US5072414A (en) * | 1989-07-31 | 1991-12-10 | Accuweb, Inc. | Ultrasonic web edge detection method and apparatus |
US5183398A (en) * | 1990-06-01 | 1993-02-02 | The Software Toolworks | Apparatus and method for interactive instruction of a student |
US5188533B1 (en) * | 1990-06-01 | 1997-09-09 | Leapfrog Rbt Llc | Speech synthesizing indicia for interactive learning |
US5228859A (en) * | 1990-09-17 | 1993-07-20 | Interactive Training Technologies | Interactive educational and training system with concurrent digitized sound and video output |
US5396265A (en) * | 1990-09-17 | 1995-03-07 | Massachusetts Institute Of Technology | Three-dimensional tactile computer input device |
US5146566A (en) * | 1991-05-29 | 1992-09-08 | Ibm Corporation | Input/output system for computer user interface using magnetic levitation |
JPH06259021A (ja) * | 1993-03-05 | 1994-09-16 | Nippon Steel Corp | 組合せ式表示装置 |
US5328373A (en) * | 1993-03-30 | 1994-07-12 | Regna Lee Wood | Method and apparatus for teaching reading |
US5320358A (en) * | 1993-04-27 | 1994-06-14 | Rpb, Inc. | Shooting game having programmable targets and course for use therewith |
US5364272A (en) * | 1993-08-09 | 1994-11-15 | Texas Instruments Incorporated | Apparatus and method for teaching |
US5511980A (en) * | 1994-02-23 | 1996-04-30 | Leapfrog Rbt, L.L.C. | Talking phonics interactive learning device |
US5860653A (en) * | 1995-05-15 | 1999-01-19 | Jacobs; Robert | Method and apparatus for playing a word game |
US5823782A (en) * | 1995-12-29 | 1998-10-20 | Tinkers & Chance | Character recognition educational system |
US5991693A (en) * | 1996-02-23 | 1999-11-23 | Mindcraft Technologies, Inc. | Wireless I/O apparatus and method of computer-assisted instruction |
JPH1063176A (ja) * | 1996-08-13 | 1998-03-06 | Inter Group:Kk | 外国語学習装置およびその記録媒体 |
JPH10272255A (ja) * | 1997-04-01 | 1998-10-13 | Ee D K:Kk | 通信機能を備えた携帯ゲーム機及びその通信方法 |
CA2225060A1 (en) * | 1997-04-09 | 1998-10-09 | Peter Suilun Fong | Interactive talking dolls |
JP4143158B2 (ja) * | 1997-04-16 | 2008-09-03 | 聯華電子股▲ふん▼有限公司 | データキャリア |
CA2290527A1 (en) * | 1997-05-19 | 1998-11-26 | Creator Ltd. | Programmable assembly toy |
US6271453B1 (en) * | 1997-05-21 | 2001-08-07 | L Leonard Hacker | Musical blocks and clocks |
JPH11341121A (ja) * | 1998-05-28 | 1999-12-10 | Nec Corp | 移動無線機 |
US20020160340A1 (en) * | 1998-07-31 | 2002-10-31 | Marcus Brian I. | Character recognition educational system |
US6469689B1 (en) * | 1998-08-07 | 2002-10-22 | Hewlett-Packard Company | Appliance and method of using same having a capability to graphically associate and disassociate data with and from one another |
US6473070B2 (en) * | 1998-11-03 | 2002-10-29 | Intel Corporation | Wireless tracking system |
RU2136342C1 (ru) | 1998-12-09 | 1999-09-10 | Григорьев Сергей Валерьевич | Игра со звуками, преимущественно музыкальными, и устройство для ее осуществления |
US6149490A (en) * | 1998-12-15 | 2000-11-21 | Tiger Electronics, Ltd. | Interactive toy |
US6685479B1 (en) * | 1999-02-22 | 2004-02-03 | Nabil N. Ghaly | Personal hand held device |
JP3540187B2 (ja) * | 1999-02-25 | 2004-07-07 | シャープ株式会社 | 表示装置 |
US7170499B1 (en) * | 1999-05-25 | 2007-01-30 | Silverbrook Research Pty Ltd | Handwritten text capture via interface surface |
US6462264B1 (en) * | 1999-07-26 | 2002-10-08 | Carl Elam | Method and apparatus for audio broadcast of enhanced musical instrument digital interface (MIDI) data formats for control of a sound generator to create music, lyrics, and speech |
US6514085B2 (en) * | 1999-07-30 | 2003-02-04 | Element K Online Llc | Methods and apparatus for computer based training relating to devices |
US6330427B1 (en) * | 1999-09-08 | 2001-12-11 | Joel B. Tabachnik | Talking novelty device with book |
US6652457B1 (en) * | 1999-09-27 | 2003-11-25 | Gary L. Skiba | Stimulus-response conditioning process |
US6654748B1 (en) * | 1999-12-07 | 2003-11-25 | Rwd Technologies, Inc. | Dynamic application browser and database for use therewith |
US6620024B2 (en) * | 2000-02-02 | 2003-09-16 | Silverlit Toys Manufactory, Ltd. | Computerized toy |
US20020058235A1 (en) * | 2000-02-29 | 2002-05-16 | Dinnerstein Mitchell Elliot | Jack switch talking block |
US6353168B1 (en) * | 2000-03-03 | 2002-03-05 | Neurosmith, Llc | Educational music instrument for children |
US6491523B1 (en) * | 2000-04-28 | 2002-12-10 | Janice Altman | Sign language instruction system and method |
US20020061701A1 (en) * | 2000-04-28 | 2002-05-23 | Chan Albert Wai | Multiple part toy coding and recognition system |
US6443796B1 (en) * | 2000-06-19 | 2002-09-03 | Judith Ann Shackelford | Smart blocks |
US6551165B2 (en) * | 2000-07-01 | 2003-04-22 | Alexander V Smirnov | Interacting toys |
US6685477B1 (en) * | 2000-09-28 | 2004-02-03 | Eta/Cuisenaire, A Division Of A. Daigger & Company | Method and apparatus for teaching and learning reading |
JP4731008B2 (ja) * | 2000-12-05 | 2011-07-20 | 株式会社バンダイナムコゲームス | 情報提供システムおよび情報記憶媒体 |
US7170468B2 (en) * | 2001-02-21 | 2007-01-30 | International Business Machines Corporation | Collaborative tablet computer |
US6682392B2 (en) * | 2001-04-19 | 2004-01-27 | Thinking Technology, Inc. | Physically interactive electronic toys |
GB2376192A (en) | 2001-05-25 | 2002-12-11 | Tronji Ltd | Cartridge based electronic display system. |
US6679751B1 (en) * | 2001-11-13 | 2004-01-20 | Mattel, Inc. | Stackable articles toy for children |
US7347760B2 (en) * | 2002-01-05 | 2008-03-25 | Leapfrog Enterprises, Inc. | Interactive toy |
US7184718B2 (en) * | 2002-07-30 | 2007-02-27 | Nokia Corporation | Transformable mobile station |
US7003598B2 (en) * | 2002-09-18 | 2006-02-21 | Bright Entertainment Limited | Remote control for providing interactive DVD navigation based on user response |
US20040063078A1 (en) * | 2002-09-30 | 2004-04-01 | Marcus Brian I. | Electronic educational toy appliance |
EP1486237A1 (en) * | 2003-06-13 | 2004-12-15 | Hausemann en Hötte BV | Puzzle system |
JP4073885B2 (ja) * | 2003-06-17 | 2008-04-09 | 任天堂株式会社 | ゲームシステム、ゲーム装置およびゲームプログラム |
KR100528476B1 (ko) * | 2003-07-22 | 2005-11-15 | 삼성전자주식회사 | 컴퓨터 시스템의 인터럽트 처리 장치 |
US7316567B2 (en) * | 2003-08-01 | 2008-01-08 | Jennifer Chia-Jen Hsieh | Physical programming toy |
US7336256B2 (en) * | 2004-01-30 | 2008-02-26 | International Business Machines Corporation | Conveying the importance of display screen data using audible indicators |
JP4241429B2 (ja) * | 2004-02-25 | 2009-03-18 | 奈津 川北 | 表示装置 |
US7242369B2 (en) * | 2004-10-26 | 2007-07-10 | Benq Corporation | Method of displaying text on multiple display devices |
US7238026B2 (en) * | 2004-11-04 | 2007-07-03 | Mattel, Inc. | Activity device |
EP1693091A3 (en) * | 2005-01-10 | 2008-02-27 | Radica Games Ltd. | Multiply interconnectable environmentally interactive character simulation module method and system |
-
2005
- 2005-03-24 GB GB0506159A patent/GB2424510A/en not_active Withdrawn
- 2005-06-02 US US11/142,955 patent/US8057233B2/en not_active Expired - Fee Related
-
2006
- 2006-03-24 DE DE602006020726T patent/DE602006020726D1/de active Active
- 2006-03-24 JP JP2008502489A patent/JP5154399B2/ja not_active Expired - Fee Related
- 2006-03-24 AT AT06726517T patent/ATE502371T1/de active
- 2006-03-24 RU RU2007139277/12A patent/RU2408933C2/ru not_active IP Right Cessation
- 2006-03-24 EP EP11156237A patent/EP2363848A3/en not_active Withdrawn
- 2006-03-24 MX MX2007011816A patent/MX2007011816A/es active IP Right Grant
- 2006-03-24 ES ES06726517T patent/ES2364956T3/es active Active
- 2006-03-24 DK DK06726517.3T patent/DK1899939T3/da active
- 2006-03-24 EP EP11156291A patent/EP2369563A3/en not_active Withdrawn
- 2006-03-24 CN CN2006800182499A patent/CN101185108B/zh not_active Expired - Fee Related
-
2011
- 2011-09-19 US US13/236,528 patent/US20120007840A1/en not_active Abandoned
- 2011-09-19 US US13/236,516 patent/US20120007870A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP5154399B2 (ja) | 2013-02-27 |
EP2369563A3 (en) | 2011-12-14 |
US20120007870A1 (en) | 2012-01-12 |
GB2424510A (en) | 2006-09-27 |
EP2369563A2 (en) | 2011-09-28 |
DE602006020726D1 (de) | 2011-04-28 |
EP2363848A2 (en) | 2011-09-07 |
US20060215476A1 (en) | 2006-09-28 |
CN101185108B (zh) | 2012-11-21 |
MX2007011816A (es) | 2008-01-16 |
EP2363848A3 (en) | 2011-12-14 |
DK1899939T3 (da) | 2011-06-20 |
ATE502371T1 (de) | 2011-04-15 |
US8057233B2 (en) | 2011-11-15 |
RU2408933C2 (ru) | 2011-01-10 |
CN101185108A (zh) | 2008-05-21 |
GB0506159D0 (en) | 2005-05-04 |
RU2007139277A (ru) | 2009-04-27 |
US20120007840A1 (en) | 2012-01-12 |
JP2008534996A (ja) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2364956T3 (es) | Dispositivos interactivos manipulables. | |
EP1899939B1 (en) | Manipulable interactive devices | |
Özgür et al. | Cellulo: Versatile handheld robots for education | |
Tollervey | Programming with MicroPython: embedded programming with microcontrollers and Python | |
CN103657087B (zh) | 身临其境式叙事环境 | |
RU2673275C2 (ru) | Способ воспроизведения информации, способ ввода/вывода информации, устройство воспроизведения информации, портативное устройство ввода/вывода информации и электронная игрушка, в которой использован точечный растр | |
US20130302763A1 (en) | Interactive system and method of modifying user interaction therein | |
Antonelli | Talk to me: design and the communication between people and objects | |
US20170136380A1 (en) | Smart Toys | |
Marco et al. | Bringing tabletop technologies to kindergarten children | |
US7607962B2 (en) | Electronic toy with alterable features | |
WO2015075713A1 (en) | A modular connected game board system and methods of use | |
US20160184724A1 (en) | Dynamic App Programming Environment with Physical Object Interaction | |
EP3597278A1 (en) | Learning toy, mobile body for learning toy, panel for learning toy, and portable information processing terminal for learning toy | |
Krestanova et al. | Development and technical design of tangible user interfaces in wide-field areas of application | |
Bushnell | Relationships between fun and the computer business | |
RU2473966C2 (ru) | Способ воспроизведения информации, способ ввода/вывода информации, устройство воспроизведения информации, портативное устройство ввода/вывода информации и электронная игрушка, в которой использован точечный растр | |
de Albuquerque Wheler et al. | IoT4Fun rapid prototyping tools for Toy User Interfaces | |
Blumberg et al. | Serious games for health: Features, challenges, next steps | |
US20160253911A1 (en) | Playground system | |
Hanning | Tinkering with ScratchBit: Explorations in blended making | |
Montemayor | Physical programming: tools for kindergarten children to author physical interactive environments | |
Her et al. | Meaningful Engagement: Computer-Based Interactive Media Art in Public Space | |
WO2013024471A1 (en) | Connected interactive book system and method of use | |
Bräne | User Experience Design for Children: Developing and Testing a UX Framework |