KR20030016405A - 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스 - Google Patents

콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스 Download PDF

Info

Publication number
KR20030016405A
KR20030016405A KR10-2003-7000547A KR20037000547A KR20030016405A KR 20030016405 A KR20030016405 A KR 20030016405A KR 20037000547 A KR20037000547 A KR 20037000547A KR 20030016405 A KR20030016405 A KR 20030016405A
Authority
KR
South Korea
Prior art keywords
content
user
sound
streams
movement
Prior art date
Application number
KR10-2003-7000547A
Other languages
English (en)
Other versions
KR100987650B1 (ko
Inventor
마셀르 에이. 스텐스트라
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20030016405A publication Critical patent/KR20030016405A/ko
Application granted granted Critical
Publication of KR100987650B1 publication Critical patent/KR100987650B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8047Music games
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/341Floor sensors, e.g. platform or groundsheet with sensors to detect foot position, balance or pressure, steps, stepping rhythm, dancing movements or jumping
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/405Beam sensing or control, i.e. input interfaces involving substantially immaterial beams, radiation, or fields of any nature, used, e.g. as a switch as in a light barrier, or as a control device, e.g. using the theremin electric field sensing principle
    • G10H2220/411Light beams
    • G10H2220/415Infrared beams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Systems (AREA)

Abstract

콘텐트의 실시간 스트림들을 출력 프레젠테이션으로 변환하는 최종 사용자 시스템(10)은 사용자가 스트림들과 상호 작용하도록 허용하는 사용자 인터페이스(30)를 포함한다. 사용자 인터페이스(30)는, 상호 작용 영역(36)을 모니터링하여 사용자에 의해 만들어진 이동들 및/또는 사운드들을 검출하는 센서들(32a 내지 32f)을 포함한다. 센서들(32a 내지 32f)은 사용자 인터페이스(30)가, 상기 검출된 이동 또는 사운드가 발생한 상호 작용 영역(36)내에서 3차원 위치를 결정할 수 있도록, 상호 작용 영역(36) 사이에 분배된다. 서로 다른 콘텐트의 스트림들은 결정된 위치뿐만 아니라 검출된 이동 또는 사운드의 유형에 기초하여 프레젠테이션에서 활성화될 수 있다. 본 발명은 사용자가 단지 관객이 되는 대신, 그/그녀 자신의 선호들에 따라 프레젠테이션을 적응시키도록 허용한다.

Description

콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스{Device for interacting with real-time streams of content}
이야기하는 것(storytelling) 및 다른 표현 형태들의 나레이션(narration)은 항상 오락 및 교육의 대중적인 표현 형태이다. 그들 중 l가장 오래된 표현 형태들은 구술 나레이션(oral narration), 노래, 문자 전달(written communication), 극장 및 프린트된 공보들이다. 19세기 및 20세기의 과학 기술의 발달의 결과로서, 현재, 이야기들은 서로 다른 위치의 다수의 사람들에게 전달될 수 있다. 라디오 및 텔레비전과 같은 방송 매체로 인하여, 이야기하는 사람들은 콘텐트의 스트림 또는 데이터를 동시에 디바이스들임━스트림을 오디오 및/또는 시각적인 출력으로 변환하는 최종-사용자 디바이스들━에 전달함으로써 청취자들에 그들의 사상을 표현할수 있다.
그와 같은 방송 매체는 콘텐트의 단일 스트림을 최종-사용자 디바이스들에 전송하는 것에 제한되고, 그로 인해, 미리 결정된 시퀀스로부터 벗어날 수 없는 이야기를 전달한다. 그들 디바이스의 사용자들은 단순히 관객들이고, 이야기의 결과에 영향을 줄 수 없다. 사용자가 텔레비전 또는 라디오를 통해 방송되는 콘텐트의 실시간 스트림들에 대해서 할 수 있는 유일한 상호 작용은 예를 들어, 채널을 변경시킴으로써, 콘텐트의 스트림들 사이를 스위칭하는 것이다. 사용자들에게 이야기 프로세스들과 더 많은 상호 작용을 제공하여, 사용자들이 창조적이고, 그들 선호도에 따라 줄거리가 어떻게 전개되는지를 결정하는데 도움을 주도록 허용하여, 그로 인해, 경험을 보다 유익하게 하는 것이 바람직하다.
현재, 컴퓨터들은 사용자들이 콘텐트의 실시간 스트림들과 상호 작용하기 위한 매체를 제공한다. 예를 들어, 컴퓨터 게임들은 동굴 또는 성곽과 같은 가상 환경에 위치한 캐릭터의 액션들을 사용자가 제어할 수 있도록 만들어진다. 플레이어는 다른 캐릭터들과 상호 작용하고, 장애물을 빠져나가고, 가상 환경 내에서 취하는 경로를 선택하도록 그/그녀의 캐릭터를 제어해야 한다. 온-라인 컴퓨터 게임들에 있어서, 콘텐트의 실시간 스트림들은, 다수의 플레이어들이 동일한 캐릭터들, 장애물들 및 환경과 상호 작용할 수 있도록, 네트워크를 통해 서버로부터 다수의 개인용 컴퓨터들에 방송된다. 그러한 컴퓨터 게임들은 사용자들에게 이야기가 어떻게 전개(예를 들어, 캐릭터에 발생하는 것)되는지를 결정하는 약간의 특권을 부여하지만, 캐릭터는 동일한 액션들(예를 들어, 총을 쏘는 것)을 반복하도록 요구되고, 그로 인해, 대부분의 게임의 지속 기간 동안에 동일한 효과들이 발생되기 때문에, 이야기는 매우 반복적이고 극적인 가치가 떨어지는 경향이 있다.
또한, 어린이들이 컴퓨터상의 이야기하는 환경(storytelling environment)과 상호 작용할 수 있는 어린이들의 교육 소프트웨어의 여러 형태들이 개발되었다. 예를 들어, LivingBooks은, 이야기를 여러 장면들로 분할하여, 어린이로 하여금 짧은 애니메이션 또는 개그들(gags)을 즐기기 위해 장면내의 여러 요소들을 조작할 수 있도록 하는 "상호 작용의 서적(interactive book)"의 형태로 개발되었다. 다른 형태의 소프트웨어는 어린이들에게 그들 자신의 이야기들을 창작하여 그들 자신의 느낌들 및 감정들을 표현하는 수단들을 제공한다. 오락의 가치를 갖는 것과 더불어, 상호 작용의 이야기는 경험이 없는 어린이들의 언어, 사회성 및 지적 능력(cognitive skills)을 개발하기 위한 강력한 수단이 되는 것으로 입증되었다.
그러나, 그와 같은 소프트웨어와 연관된 하나의 문제는 어린이들에게 상호 작용을 위하여 키보드 또는 마우스 중 하나를 이용하는 것이 통상 요구된다. 그와 같은 입력 디바이스들은 특정한 방식으로 유지되어야 하고, 소정량의 손-눈 조정(hand-eye coordination)을 필요로 하고, 그로 인해, 경험이 없는 어린이들이 사용하기에 너무 어렵게 될 수 있다. 더욱이, 어린이들의 조기 지적 개발의 가장 중요한 부분은 물리적인 환경을 다루는 것이다. 어린이들을 격려하여 "플레잉(playing)"에 의해 상호 작용하도록 하는 인터페이스는 종래의 키보드 및 마우스 인터페이스가 유리한데, 그 이유는 교육적인 시각에서 보다 유익하고, 보다 직관적(intuitive)이면서 이용하기 편리하고, 플레잉은 학습 프로세스에 참여하는어린이들에 큰 동기를 부여하기 때문이다. 또한, 플레이 영역(즉, 어린이들이 상호 작용할 수 있는 영역)을 확장할 뿐만 아니라, 어린이들이 정상적으로 플레이하는 오브젝트들과 상호 작용하도록 할 수 있는 인터페이스는 보다 유익한 상호 작용을 격려할 수 있다.
ActiMatesTMBarneyTM은 움직이는 멋있는 인형에 삽입된 소형 컴퓨터로 구성된 Microsoft Corp.에 의해 만들어진 상호 작용의 학습 제품이다. 이 제품의 보다 상세한 설명은, E. Strommen에 의한 문헌, "When the Interface is a Talking Dinosaur: Learning Across Media with ActiMates Barney", Proceedings of CHI' 98, 288-295 페이지에 기재되어 있다. 어린이들은, 게임을 즐기기 위해 인형의 손을 잡고, 노래를 듣기 위해 인형의 발을 잡고, "아옹 놀이(peek-a-boo)"을 즐기기 위해 인형의 눈을 커버함으로써, 장난감과 상호 작용한다. 또한, ActiMatesBarney는 개인용 컴퓨터로부터 무선 신호들을 수신할 수 있고, ActiMates 소프트웨어에 의해 제공된 교육용 게임들을 즐기는 동안 어린이들을 지도할 수 있다. 이러한 특정 제품은 어린이들 사이에서 상호 작용을 조성하지만, 그러한 상호 작용은 다음 지시들을 포함하는 것에 지나지 않는다. 인형은, 어린이가 어떠한 액션도 제어할 수 없기 때문에, 개발 학습에 매우 중요한 창의성 또는 협동심(collaboration)을 가르칠 수 없다.
CARESS(Creating Aesthetically Resonant Environments in Sound)는 물리적인 행위들을 소리로 변환하는 컴퓨터 인터페이스를 이용함으로써 창의성 및 의사전달 기능을 개발하도록 어린이들에게 동기를 부여하는 도구들을 설계하기 위한 연구 과제이다. 인터페이스는 근육의 움직임을 검출하고 의도된 행동을 검출하기에 충분히 민감한 착용 가능한 센서들을 포함한다. 이들 센서는, 장애아들이 그들 자신을 표현하고 다른 어린이들과 의사 소통할 수 있도록 함으로써, 그들에게 학습 과정에 참여하도록 동기를 부여하는데 특히 유용하다. 그러나, CARESS 과제는 사용자로 하여금 콘텐트의 스트림들과 어떠한 형태의 상호 작용도 허용하는 인터페이스에 대해서 고려하지 않았다.
본 발명은 콘텐트의 실시간 스트림들을 수신 및 디스플레이하기 위한 시스템 및 방법에 관한 것이다. 특히, 본 발명은 사용자로 하여금 콘텐트 의 디스플레이된 실시간 스트림들과 상호 작용할 수 있도록 하고, 그 실시간 스트림들을 개인화할 수 있도록 한다.
도 1은 콘텐트의 실시간 스트림들을 프레젠테이션으로 변환하기 위한 시스템의 구성을 설명하는 블록 다이어그램.
도 2는 예시적 실시예에 따라 본 발명의 사용자 인터페이스를 도시한 도면.
도 3a 및 도 3b는 사용자 인터페이스의 상면도 및 측면도를 각각 도시한 도면.
도 4는 이야기로 변환될 수 있는 콘텐트의 실시간 스트림들의 방법을 도시한 흐름도.
본 발명의 목적은 사용자들로 하여금 최종-사용자 디바이스에 수신된 콘텐트의 실시간 스트림들과 상호 작용할 수 있도록 하는 것이다. 본 목적은 청구항1에 청구된 입력 디바이스의 본 발명에 따라 성취된다. 콘텐트의 실시간 스트림들은 텔레비전 또는 컴퓨터 디스플레이와 같은 출력 디바이스에 의해 사용자에게 출력되는 프레젠테이션으로 변환된다. 이러한 프레젠테이션은 콘텐트의 변환된 실시간 스트림들에 따라 줄거리가 전개되는 이야기를 전달할 수 있고, 콘텐트의 스트림들과의 사용자의 상호 작용은 콘텐트의 스트림들을 활성화 또는 비활성화하거나, 그들 스트림들에 전달된 정보를 변경함으로써, 이야기의 결과를 결정하는 것을 돕는다. 본 입력 디바이스는 사용자들로 하여금 간단하고, 직접적이면서, 직관적인 방식으로 콘텐트의 실시간 스트림들과 상호 작용할 수 있도록 한다. 사용자 인터페이스는 콘텐트의 실시간 스트림들과 상호 작용하는 동안 정신적 뿐만 아니라 육체적 시뮬레이션을 사용자들에게 제공한다.
본 발명의 한 실시예는, 콘텐트의 실시간 스트림들을 출력되는 프레젠테이션으로 변환하는 시스템, 및 사용자가 프레젠테이션 내에서 콘텐트의 스트림들을 활성화 또는 비활성화하는 사용자 인터페이스에 관한 것이다.
본 발명의 다른 실시예에 있어서, 사용자 인터페이스는 사용자에 의해 만들어진 이동들 또는 제스처들을 검출하는 적어도 하나의 움직임 검출기를 포함한다. 이러한 실시예에 있어서, 검출된 이동들은 어느 콘텐트의 스트림들이 활성화 또는 비활성화되는지를 결정한다.
다른 실시예에 있어서, 사용자 인터페이스는 3차원 공간내의 서로 다른 위치들에서 하나 또는 그 이상의 사용자들에 의해 만들어진 동작들을 검출 및 구별하도록 그러한 방식으로 위치되는 복수의 움직임 센서들을 포함한다.
본 발명의 다른 실시예에 있어서, 특정한 이동 또는 특정한 이동들의 조합은 특정한 콘텐트의 스트림에 상관된다. 사용자 인터페이스의 움직임 센서들이 사용자에 의해 만들어진 특정 이동 또는 이동들의 조합을 검출할 때, 대응하는 콘텐트의 스트림은 활성화되거나 비활성화된다.
본 발명의 다른 실시예에 있어서, 사용자 인터페이스는 사운드들을 검출하는 복수의 센서들을 포함한다. 이러한 실시예에 있어서, 검출된 사운드들은 어느 콘텐트의 스트림들이 활성화 또는 비활성화되는지를 결정한다.
본 발명의 다른 실시예에 있어서, 사용자 인터페이스는 3차원 공간내의 서로 다른 위치들에서 하나 또는 그 이상의 사용자들에 의해 만들어진 특정한 사운드들을 검출 및 구별하도록 그러한 방식으로 위치되는 복수의 사운드 검출 센서들을 포함한다.
다른 실시예에 있어서, 사용자 인터페이스는 움직임 센서들 및 사운드 검출 센서들의 조합을 포함한다. 이러한 실시예에 있어서, 콘텐트의 스트림들은 사용자에 의해 만들어진 검출된 이동 또는 사운드, 또는 검출된 이동들 및 사운드들의 조합에 따라 활성화된다.
본 발명의 상기 및 다른 실시예들은 첨부된 도면과 함께 고려된 다음의 상세한 설명을 참조하여 명백하게 될 것이다.
이들 도면은 단지 설명을 위해 설계된 것으로, 본 발명의 한정을 규정하기 위한 것이 아니며, 본 발명의 한정은 첨부된 청구범위를 참조하여 이루어진다.
도면들을 참조하면, 도 1은, 본 발명의 전형적인 실시예에 따라, 콘텐트의 실시간 스트림들을 프레젠테이션으로 변환하기 위한 시스템의 구성을 도시한 도면이다. 최종-사용자 디바이스(EUD)(10)는 데이터 또는 콘텐트의 실시간 스트림들을 수신하고, 그들 스트림을, 출력 디바이스(OUT)(15)상의 사용자에 출력하기 적당한 형태로 변환한다. 최종-사용자 디바이스(10)는 마이크로컴퓨터에 의해 실행되는 하드웨어, 소프트웨어 또는 그들 두 개의 조합으로서 구성될 수 있다. 본 발명의 최종-사용자 디바이스(10) 및 출력 디바이스(15)의 하나의 가능한 구현은 텔레비전 세트에 전송될 데이터의 스트림들을 디코딩하는 셋-톱 박스와 같다. 또한, 최종-사용자 디바이스(10)는 컴퓨터의 CRT 디스플레이 및 스피커들에 출력될 데이터 스트림들을 디코딩 및 프로세싱하기 위한 퍼스널 컴퓨터 시스템에서 구현될 수도 있다. 본 기술 분야에 숙련된 사람들에 의해 알 수 있듯이, 많은 다른 구성들이 있을 수 있다.
콘텐트의 실시간 스트림들은, 멀티미디어 데이터를 압축 및 전송하는데 적당한 표준, 예를 들어, Moving Picture Experts Group(MPEG) 계열 표준들 중 하나에 따라 엔코딩된 데이터 스트림이 될 수 있다. 그러나, 콘텐트의 실시간 스트림들은 어떤 특정한 데이터 포맷 또는 엔코딩 설계에 제한을 두지 않는다. 도 1에 도시된 것처럼, 콘텐트의 실시간 스트림들은, 텔레비전 방송국(BCAST)(50) 또는 컴퓨터 네트워크 서버와 같은 여러 다른 외부 소스들 중 하나로부터, 유선 또는 무선 네트워크를 통해 최종-사용자 디바이스에 전송될 수 있다. 대안으로, 데이터의 실시간 스트림들은, 최종-사용자 디바이스에 접속되어 있는, 예를 들어 CD-ROM, 플로피-디스크, 또는 디지털 다용도 디스크(Digital Versatile Disc)와 같은 데이터 저장 디바이스(STOR)(70)로부터 검색될 수 있다.
상술한 것처럼, 콘텐트의 실시간 스트림들은 출력 디바이스(15)를 통해 사용자에게 전달될 프레젠테이션으로 변환된다. 본 발명의 예시적 실시예에 있어서, 프레젠테이션은 스토리 또는 이야기를 사용자에게 전달한다. 콘텐트의 실시간 스트림들에 의해 줄거리가 예정되는 이야기를 단지 전달하는 종래 기술의 시스템들과는 달리, 본 발명은 사용자가 프레젠테이션과 연관된 콘텐트의 스트림들을 활성화 또는 비활성화함으로써 이야기 프레젠테이션과 상호 작용하고 그 결과를 결정하도록 도울 것을 허용하는 사용자 인터페이스(30)를 포함한다. 예를 들면, 콘텐트의 각 스트림은 이야기가 특정 이야기 라인(storyline)을 따르게 할 수 있고, 사용자는 특정 스트림 또는 이야기 라인을 활성화함으로써 줄거리가 어떻게 전개되는지를 결정한다. 따라서, 본 발명은 사용자가 창조성을 발휘하고 그/그녀 자신의 희망들에 따라 이야기를 개인화하도록 허용한다. 그러나, 본 발명은 콘텐트의 실시간 스트림들을 사용자에게 제공될 이야기로 변환하는데 한정하지 않는다. 본 발명의 다른 예시적 실시예들에 따라, 실시간 스트림들은 노래들, 시들, 뮤지컬 악곡들, 게임들, 가상 환경들, 적응 가능한 이미지들, 또는 사용자가 그/그녀 개인의 희망들에 따라 적응할 수 있는 콘텐트의 임의의 다른 유형들을 사용자에게 전달하는데 사용될 수 있다.
상기 언급한 바와 같이, 도 2는 예시적 실시예에 따라 사용자인터페이스(30)를 자세히 도시한 것이며, 이것은 사용자가 상호 작용하는 3차원 영역 사이에 분배되는 복수의 센서들(32)을 포함한다. 상호 작용 영역(36)은 통상적으로 출력 디바이스(15)에 아주 근접해 있다. 예시적 실시예에 있어서, 각 센서(32)는 사용자 이동들 또는 제스처들을 검출하는 움직임 센서(34), 사용자에 의해 만들어진 사운드들을 검출하는 사운드 검출 센서(33)(예를 들면 마이크로폰), 또는 움직임 센서(34) 및 사운드 검출 센서(33)(도 2는 그러한 조합을 포함하는 센서들(32)을 도시한 것이다) 둘 다의 조합 중에서 어느 하나를 포함한다.
움직임 센서(34)는 에너지를 환경으로 주입하여 움직임에 의해 야기된 변화를 검출하는 활성 센서(active sensor)를 포함할 수 있다. 활성 움직임 센서의 한 예는 광 센서에 의해 감지되는 광 빔을 포함한다. 광 센서는 가로질러 이동하는 사람 또는 오브젝트를 검출할 수 있고, 그에 의해 감지되는 광의 양에서의 변화를 검출함으로써 광 빔을 인터럽팅한다. 다른 유형의 활성 움직임 센서는 레이더의 형태를 사용한다. 이러한 유형의 센서는 마이크로파 에너지의 버스트를 송신해 내고 뒤로 튀어오는 반사된 에너지를 기다린다. 사람이 마이크로파 에너지의 영역으로 들어올 때, 센서는 반사된 에너지의 양에서의 변화를 검출하거나 반사가 도착하는데 걸리는 시간에서의 변화를 검출한다. 다른 활성 움직임 센서들은 움직임을 검출하는데 반사된 초음파 사운드를 유사하게 사용한다.
대안적으로, 움직임 센서(34)는 사용자로부터 방사되는 적외선 에너지를 검출하는 수동 센서를 포함할 수 있다. 그러한 디바이스들은 PIR 검출기들(Passive InfraRed detectors)로서 알려져 있으며 9와 10마이크로미터들 사이의 파장을 가진적외선 에너지를 검출하도록 설계되어 있다. 파장의 이러한 범위는 인간에 의해 방사되는 적외선 에너지에 대응한다. 검출의 지대에 들어가거나 존재하는 사람에 의해 야기되는, 감지된 적외선 에너지에서의 변화에 따라 이동이 검출된다. PIR 선서들은 전형적으로 검출의 매우 넓은 각(175도까지, 및 초과하여)을 가진다.
물론, 다른 유형들의 움직임 센서들이 착용할 수 있는 움직임 센서들 및 비디오 움직임 검출기들을 포함하는 사용자 인터페이스(30)에서 사용될 수 있다. 착용할 수 있는 움직임 센서들은 가상 현실 글로브들(virtual reality gloves), 근육들에서 전기 활동(electrical activity)을 검출하는 센서들, 및 몸 관절의 이동을 검출하는 센서들을 포함할 수 있다. 비디오 움직임 검출기는 비디오 카메라에 의해 잡힌 이미지들에서의 이동을 검출한다. 한 유형의 비디오 움직임 검출기는 이미지들의 선택된 영역의 밝은 레벨에서 갑작스런 변화를 검출하여 이동을 검출한다. 보다 세련된 비디오 움직임 검출기들은 컴퓨터 실행 이미지 분석 소프트웨어를 사용한다. 그러한 소프트웨어는 사용자에 의해 만들어진 서로 다른 얼굴 표정들 또는 손 제스처들을 구별할 수 있다.
사용자 인터페이스(30)는 본 기술 분야에 알려진, 이동을 검출하는 임의의 다른 유형의 센서뿐만 아니라, 상기 기술한 하나 또는 그 이상의 움직임 센서들을 포함한다.
사운드 검출 센서(33)는 사운드파들(sound waves)을 전기 신호(마이크로폰과 같은)로 변환하는 임의의 유형의 변환기를 포함할 수 있다. 사운드 센서들에 의해 픽업된 전기 신호들은 문턱값 신호들과 비교되어 사용자 및 환경적 노이즈에 의해만들어진 사운드들을 구별할 수 있다. 또한, 신호들은 아날로그 디바이스에 의해 또는 컴퓨터에서 실행된 소프트웨어에 의해 증폭 및 처리되어 특정한 주파수 패턴을 갖는 사운드들을 검출할 수 있다. 따라서, 사운드 검출 센서(34)는 발 구르기 및 손뼉치기와 같은 서로 다른 유형들의 사운드들을 구별할 수 있다.
사운드 검출 센서(33)는 사용자에 의해 말해진 어떤 단어들을 인식하는 음성 인식 시스템을 포함할 수 있다. 사운드파들은 한정된 어휘의 단어들을 인식할 수 있는 아날로그 음성 인식 시스템에 의해 처리되는 증폭된 전기 신호들로 변환될 수 있으며, 그밖에 변환된 전기 신호들은 더 많은 어휘의 단어들을 인식할 수 있는 음성 인식 소프트웨어에 의해 디지털화되어 처리될 수 있다.
사운드 검출 센서(33)는 본 기술 분야의 숙련자에게 잘 알려진 바와 같이, 다양한 실시예들 및 변형들 중 하나를 포함할 수 있다. 예시적 실시예에 따라, 사용자 인터페이스(30)는 하나 또는 그 이상의 서로 다른 실시예들에서 취한 하나 또는 그 이상의 사운드 검출 센서들(34)을 포함할 수 있다.
도 3a 및 도 3b는 사용자가 상호 작용하는 상호 작용 영역(36) 주위에 복수의 센서들(32a 내지 32f)이 위치된 사용자 인터페이스(30)의 예시적 실시예를 도시한 것이다. 센서들(32a 내지 32f)은 상호 작용 영역(36)내에서 사용자에 의해 이동 또는 사운드가 만들어졌는지의 여부를 검출할 뿐만 아니라, 상호 작용 영역(36)에서 이동 또는 사운드가 만들어진 특정한 위치를 결정한다. 도 3a 및 도 3b에 도시된 바와 같이, 상호 작용 영역(36)은 3차원들에서 복수의 영역들로 나누어질 수 있다. 특히, 도 3a는 사용자 인터페이스(30)의 상면도를 도시한 것이며, 상호 작용영역(36)의 2차원 평면이 4분면들(36a 내지 36d)로 나누어져 있다. 도 3b는 사용자 인터페이스(30)의 측면도를 도시한 것이며, 상호 작용 영역은 3 차원(수직)에 따라 영역들(36U 및 36L)로 더 나누어진다. 도 3a 및 3b에 도시된 실시예에 있어서, 상호 작용 영역(36)은 8개의 3차원 영역들(36a, 36U), (36a, 36L), (36b, 36U), (36b, 36L), (36c, 36U), (36c, 36L), (36d, 36U), 및 (36d, 36L)으로 나누어 질 수 있다.
이러한 실시예에 따라, 사용자 인터페이스(30)는 다중 센서들(32a 내지 32f)이 상호 작용 영역(36) 주위에 위치되어 있기 때문에, 이동 또는 사운드가 검출되는 3차원 위치를 결정할 수 있다. 도 32a는 4분면들(36a 또는 36c)에서 만들어진 이동 또는 사운드가 센서들(32c, 32d, 및 32e)보다 센서들(32a, 32b, 및 32f)에서 더 강한 검출 신호가 생성되게 센서들(32a 내지 32f)이 위치되는 것을 도시한 것이다. 마찬가지로, 4분면들(36c 또는 36d)에서 만들어진 사운드 또는 이동은 센서들(32b 및 32c)보다 센서들(32f 및 32e)에서 더 강한 검출 신호가 생성될 것이다.
도 3b는 센서들(32a 내지 32f)이 다양한 높이들에 위치한 것을 또한 도시한 것이다. 예를 들면, 센서들(32b, 32f, 및 32d)은 센서들(32a, 32c, 및 32e)보다 땅에 가깝게 만들어진 이동 또는 노이즈를 더 세게 검출할 것이다.
따라서, 사용자 인터페이스(30)는 센서에 의해 생성된 세기 신호뿐만 아니라 각 센서들의 위치에 기초하여 어느 3차원 영역에서 이동 또는 사운드가 만들어졌는지를 결정할 수 있다. 예를 들면, 센서들(32a 내지 32f)이 PIR 센서를 각각 포함하는 실시예는 도 3a 및 3b와 관련하여 하기에 기술될 것이다.
사용자가 위치(36b, 36U)에서 그의 손을 흔들 때, 센서들(32a 내지 32f)의 각 PIR 센서(34)는 감지된 적외선 에너지에서 어떤 양의 변화를 검출할 수 있다. 그러나 센서(32c)의 PIR 센서는 이동의 근접으로 인해 가장 큰 양의 변화를 감지할 것이다. 따라서, 센서(32c)는 가장 센 검출 신호를 출력할 것이고, 사용자 인터페이스는 어느 3차원 위치가 센서(32c)에 가장 가까운지를 결정함으로써, 이동이 만들어진 3차원 위치를 결정할 수 있다.
유사하게, 상호 작용 영역(36)에서 사용자들에 의해 만들어진 사운드들의 위치는 센서들(32a 내지 32f)에서 사운드 검출 센서들(33)에 의해 출력된 검출 신호들의 크기 및 각각의 위치들에 따라 결정될 수 있다.
도 3a 및 3b는 예시적 실시예를 도시한 것이며, 본 발명을 제한하는 것으로서 해석되어서는 안 된다. 다른 예시적 실시예에 따라, 사용자 인터페이스(30)는 상호 작용 영역(36)내에서 이동의 유형 및 위치를 결정하기 위해 비디오 이미지를 분석하는 이미지 처리 소프트웨어를 포함하는 비디오 움직임 검출기를 포함할 수 있다. 다른 예시적 실시예에 있어서, 사용자 인터페이스는, 사용자에 의해 만들어진 걸음들의 힘 및 위치를 감지하는 상호 작용 영역(36)의 바닥에 걸친 압전 케이블들의 격자를 또한 포함할 수 있다.
양호한 실시예에 있어서, 최종 사용자 디바이스(10)는 사용자 인터페이스(30)에 의해 검출된 이동들 및/또는 사운드들의 유형에 기초하여, 어느 콘텐트의 스트림들이 프레젠테이션에서 활성화 또는 비활성화되어야 하는지를 결정한다. 이러한 실시예에 있어서, 최종 사용자 디바이스에 의해 수신된 각 콘텐트의 스트림은 특정한 제스처 또는 이동으로 스트림을 링크시키는 제어 데이터를 포함할 수 있다. 예를 들면, 발 구르기는 이야기에서 캐릭터가 걷거나 달리기 시작하게 하는 콘텐트의 스트림에 링크될 수 있다. 유사하게, 디바이스 또는 도구(예를 들면, 삽을 사용하기 위해 퍼 올리는 움직임)의 사용을 모사하는 제스처는 캐릭터가 그 디바이스 또는 도구를 사용하게 하는 스트림에 링크될 수 있다.
또 다른 예시적 실시예에 있어서, 사용자는 스트림을 비활성화하기 위해, 특정한 활성화된 콘텐트의 스트림에 관련하여 출력되는 움직임 또는 사운드를 모사할 수 있다. 반대로, 사용자는 사용자에 의한 또 다른 조작을 위해 그 스트림을 선택하기 위하여 특정한 콘텐트의 스트림의 움직임 도는 사운드를 모사할 수 있다.
다른 예시적 실시예에 있어서, 특정한 콘텐트의 스트림은 하나 또는 그 이상의 사용자들에 의해 만들어진 사운드의 특정한 유형 또는 말해진 특정한 단어에 따라 활성화될 수 있다. 이전 기술된 실시예와 유사하게, 각 수신된 콘텐트의 스트림은 특정한 단어 또는 사운드에 그것을 링크시키기 위해 제어 데이터를 포함할 수 있다. 예를 들면, 행동(예를 들면, "달리기(run)")의 단어를 말함으로써, 사용자는 이야기의 캐릭터가 대응하는 행동을 실행하게 한다. 보통, 오브젝트와 연관된 사운드를 만듦으로써, 사용자는 그 오브젝트가 화면상에 나타나거나 캐릭터에 의해 사용되게 할 수 있다. 예를 들면, "돼지(pig)" 또는 "꿀꿀(oink)"를 말함으로써, 사용자는 돼지가 나타나게 할 수 있다.
다른 예시적 실시예에 있어서, 콘텐트의 스트림은 이동 또는 사운드가 만들어진 특정한 위치에 스트림을 링크시키는 제어 데이터를 포함할 수 있다. 예를 들면, 사용자가 특정한 위치에서 캐릭터가 사용하기를 원한다면, 사용자는 특정한 방향을 지적할 수 있다. 사용자 인터페이스(30)는 사용자가 그/그녀의 손을 이동한 위치를 결정하고, 대응하는 방향으로 캐릭터가 이동하게 하는 콘텐트의 스트림을 활성화하는 최종 사용자 디바이스(10)에 위치 정보를 송신할 것이다.
다른 예시적 실시예에 있어서, 콘텐트의 스트림은 특정한 이동 또는 사운드로 스트림을 링크시키기 위해 제어 데이터를 포함할 수 있고, 최종 사용자 디바이스(10)는 사용자가 이동 또는 사운드를 만드는 위치에 대응하는 화면 위치상에서 스트림이 디스플레이되게 할 수 있다. 예를 들면, 사용자가 댄스 스텝들을 연습할 때, 사용자에 의해 취해진 각 스텝은 상호 작용 영역 내에서 실제 스텝의 위치에 대응하여 화면 위치상에서 발 위치점(footpoint)이 디스플레이되게 할 수 있다.
다른 예시적 실시예에 따라, 사용자 인터페이스(30)는 사용자에 의해 만들어진 이동 또는 사운드의 유형뿐만 아니라 이동 또는 사운드가 만들어진 방식을 결정한다. 예를 들면, 사용자 인터페이스는 검출된 사운드파들의 크기를 분석함으로써 얼마나 크게 사용자가 구두 명령을 발령하는지를 결정할 수 있다. 또한, 사용자 인터페이스(30)는 사용자가 제스처를 만드는 힘 또는 속도의 양을 결정할 수 있다. 예를 들면, 반사된 에너지(예를 들면, 레이더)를 측정하는 활성 움직임 센서들은 이동의 속도를 검출할 수 있다. 그 외에도, 압전 케이블들의 격자와 같은 센서들에 기초된 압력은 어떤 이동들의 힘을 검출하는데 사용될 수 있다.
상기 실시예에 있어서, 콘텐트의 스트림이 출력되는 방식은 사용자가 스트림을 활성화하는 이동 또는 사운드를 만드는 방식에 의존한다. 예를 들면, 사용자의 노래 부르기의 큰 목소리는 얼마나 긴 스트림이 화면상에 보일 수 있게 남아 있는지를 결정하는데 사용될 수 있다. 마찬가지로, 사용자가 그의 발을 구르는 힘은 스트림이 얼마나 빨리 화면을 가로질러 이동하는지를 결정하는데 사용될 수 있다.
본 발명의 다른 예시적 실시예에서, 콘텐트의 스트림이 이동들 및/또는 사운드들의 시리즈 또는 조합에 따라 활성화 또는 비활성화된다. 이러한 실시예는 이동들 및/또는 사운드들의 그룹에 스트림을 링크시키는 수신된 스트림에 제어 데이터를 포함함으로써 구현될 수 있다. 이러한 실시예의 가능한 구현들은 센서들(32)이 특정한 시퀀스에서 또는 어떤 시간 지속 기간 내에서 이동들 및/또는 사운드의 세트를 검출할 때, 스트림을 활성화 또는 비활성화하는 것을 포함한다.
다른 예시적 실시예에 따라, 제어 데이터는, 어떤 콘텐트 스트림들을 자동적으로 활성화 또는 비활성화하는 최종 사용자 디바이스(10)에서 수신된 콘텐트의 실시간 스트림들에 제공될 수 있다. 이것은 어떤 콘텐트의 스트림들이 활성화되고 비활성화되는지를 대해 실시간 스트림들의 생성자(들)가 어떤 제어를 가지도록 허용한다. 이러한 실시예들에 있어서, 이야기의 작가(들)는 전송된 콘텐트의 실시간 스트림들 내에서 제어 데이터에 따라 어떤 콘텐트의 스트림들을 활성화 또는 비활성화함으로써 어떻게 줄거리가 전개되는지에 대해 어떤 상당량의 제어를 가진다.
본 발명의 다른 예시적 실시예에 있어서, 다중 사용자들이 동일한 시간에서 본 발명과 상호 작용하고 있을 때, 사용자 인터페이스(30)는 각 사용자에 의해 만들어진 사운드들 또는 이동들을 구별할 수 있다. 따라서, 각 사용자는 최종 사용자디바이스에 의해 서로 다른 콘텐트의 스트림들을 활성화 또는 비활성화하는 권한이 주어질 수 있다. 사운드 검출 센서들(33)은 사용자가 어떤 명령을 말하는 것을 결정하도록 인터페이스에게 허용하는 음성 인식 하드웨어 또는 소프트웨어로 장착될 수 있다. 사용자 인터페이스(30)는 각 사용자에게 상호 작용 영역(36)의 특정한 구역을 할당함으로써 서로 다른 사용자들의 이동들을 구별할 수 있다. 이동이 상호 작용 영역(36)의 어떤 위치에서 검출될 때마다, 사용자 인터페이스는 할당된 사용자의 이동이라고 생각한다. 또한 비디오 움직임 검출기들은, 특정 이동을 만드는 사용자를 식별할 수 있는 이미지 분석 소프트웨어를 포함할 수 있다.
상기 실시예에 있어서, 각 사용자는 상호 작용적 이야기 프레젠테이션에서 서로 다른 캐릭터를 제어할 수 있다. 콘텐트의 스트림내의 제어 데이터는 그것을 활성화 또는 비활성화할 수 있는 특정한 사용자에게 스트림을 링크시킬 수 있다. 따라서, 특정한 캐릭터를 제어하는 사용자만이 그 캐릭터에 관련한 콘텐트의 스트림들을 활성화 또는 비활성화할 수 있다.
다른 예시적 실시예에 있어서, 둘 또는 그 이상의 서로 다른 사용자에 의해 활성화된 둘 또는 그 이상의 콘텐트의 스트림들은 단일 콘텐트의 스트림으로 조합될 수 있다. 예를 들면, 각 사용자가 콘텐트의 스트림을 활성화한 후, 그들은 구두 명령(예를 들면 "조합(combine)")을 발령함으로써, 또는 특정한 이동(예를 들면, 서로를 향해 이동함)을 만듦으로써 활성화된 스트림들을 조합할 수 있다.
다른 예시적 실시예에 따라, 사용자 인터페이스(30)는 스트림을 활성화 또는 비활성화하기 위해 사용자(들)가 조작하는 하나 또는 그 이상의 오브젝트들을 포함할 수 있다. 이러한 실시예에 있어서, 사용자는 오브젝트가 이동하게 및/또는 특정한 사운드를 만들게 하고, 센서들(32)은 이러한 이동 및/또는 사운드를 검출한다. 예를 들면, 사용자는 볼을 차거나 던지도록 허용될 것이고, 사용자 인터페이스(30)는 거리, 방향, 및/또는 공이 움직여 간 속도를 결정할 것이다. 대안적으로, 사용자는 악기를 연주할 수 있고, 사용자 인터페이스는 사용자에 의해 연주될 노트들을 검출할 수 있을 것이다. 그러한 실시예는, 스포츠 시뮬레이션 게임에서 또는 악기를 연주하는 방법을 사용자에게 가르치는 프로그램에서 콘텐트의 스트림들을 활성화하는데 사용될 수 있다.
상기 기술된 바와 같이, 본 발명의 예시적 실시예는 콘텐트의 실시간 스트림들을 출력 디바이스(15)를 통해 사용자에게 제공되는 이야기로 변환하는 최종 사용자 디바이스에 관한 것이다. 이러한 실시예의 한 가능한 구현은 상호 작용적인 텔레비젼 시스템이다. 최종 사용자 디바이스(10)는 셋-톱 박스로서 구현될 수 있고, 출력 디바이스는 텔레비젼 세트이다. 사용자가 그러한 시스템과 상호 작용하기 위한 처리는 도 4의 흐름도(100)와 관련하여 하기에 기술된다.
단계(110)에 있어서, 최종-사용자 디바이스(10)는 이야기의 새로운 장면에 대응하는 데이터의 스트림을 수신하고, 그 데이터의 스트림을 바로 처리하여 장면 데이터를 추출한다. 이야기 프레젠테이션 각각은 일련의 장면들을 포함한다. 각각의 장면은 일부 형태의 액션이 발생하는 세팅을 포함한다. 또한, 각각의 장면은 그들과 관련된 콘텐트의 다중 스트림들을 갖고, 콘텐트 스트림 각각은 줄거리에 영향을 주는 요소를 도입한다.
예를 들면, 콘텐트의 스트림의 활성화는 캐릭터가 어떤 행동을 실행하거나(예를 들면, 왕자가 어떤 방향으로 걷기 시작한다), 이벤트가 설정에 영향을 미치도록 발생하게 하거나(예를 들면, 뇌우, 지진), 또는 새로운 캐릭터를 이야기에 도입할 수 있다(예를 들면, 개구리). 반대로, 콘텐트의 스트림의 비활성화는 캐릭터가 어떤 행동을 실행하는 것을 중단하게 하거나(예를 들면, 왕자가 걷기를 멈추다), 이벤트를 종료하거나(예를 들면, 뇌우 또는 지진이 종료하다), 또는 캐릭터가 이야기로부터 벗어나게 할 수 있다(예를 들면, 개구리가 깡충 뛰어나가다).
또한, 콘텐트의 스트림의 활성화 또는 비-활성화는 프레젠테이션내의 오브젝트의 내부적인 특성 또는 특징을 변경시킬 수 있다. 예를 들어, 특정 스트림의 활성화는 왕자와 같은 캐릭터의 분위기를 행복한 분위기에서 슬픈 분위기로 변경시킬 수 있다. 그러한 변화는 프레젠테이션에 즉시 나타낼 수 있거나(예를 들면, 왕자의 미소가 찌푸려지는), 나중까지 프레젠테이션에 나타내지 않을 수 있다. 그러한 내부 변화들은 캐릭터들에 한정하지 않으며, 변화될 수 있는 어떤 특성 또는 파라미터를 포함하는 프레젠테이션의 부분인 임의의 오브젝트에 적용하지 않을 수 있다.
단계(120)에서, 셋-톱 박스는 추출된 장면 데이터를 디코딩한다. 세팅은, 그/그녀가 사용자 인터페이스(30)와 상호 작용함으로써 이야기가 어떻게 나아가는지를 결정해야하는 사용자에게 어떤 지시(indication)와 함께 텔레비젼 화면상에 디스플레이된다. 결과적으로, 사용자는 단계(130)에서 도시된 바와 같이, 상호 작용 영역(36) 에서 특정한 이동 또는 사운드를 만든다.
단계(140)에서, 센서들(32)은 사용자에 의해 만들어진 이동(들) 또는사운드(들)를 검출하고, 만들어진 이동 또는 사운드의 유형에 대해 결정하게 한다. 이러한 단계는 상호 작용 영역(36)에 다중 사용자들이 존재할 때, 어떤 사용자가 사운드 또는 이동을 만드는지를 결정하는 것을 포함할 수 있다. 단계(150)에서, 셋-톱 박스는 어느 콘텐트의 스트림들이 검출된 이동 또는 사운드에 링크되는지를 결정한다. 이러한 단계는 검출된 이동 또는 사운드가 스트림에 링크되는지를 결정하도록 각 콘텐트의 스트림의 제어 데이터를 조사하는 것을 포함할 수 있다.
단계(160)에 있어서, 새로운 줄거리는 콘텐트의 활성화/비활성화된 스트림들에 따라 텔레비전상에 플레이될 수 있다. 이 특정 예에 있어서, 콘텐트의 스트림 각각은 활성화동안 텔레비전상에 플레이되는 MPEG 파일이다.
셋-톱 박스는 콘텐트의 활성화된 스트림들이 새로운 장면으로 줄거리를 반드시 진행시켜야 하는지의 여부를 단계(170)에서 결정한다. 새로운 장면으로 진행시켜야 한다면, 프로세스는 새로운 장면에 대응하는 콘텐트의 스트림들을 수신하는 단계(110)로 복귀된다. 그러나, 새로운 장면에 대해 줄거리가 반드시 필요치 않다면, 셋-톱 박스는 이야기가 적당한 종점에 도달했는지의 여부를 단계(180)에서 결정한다. 종점에 도달하지 않은 경우에, 사용자에게는 콘텐트의 스트림들을 활성화 또는 비활성화하여 이야기를 계속하기 위하여 사용자 인터페이스(30)를 이용하도록 지시된다. 도 7의 흐름도 및 이에 대응하는 상술한 설명은 전형적인 실시예를 설명하기 위한 의도이며, 결코 제한하기 위한 것이 아니다.
본 발명은 본 발명은 어린이들의 계발 교육에 많이 사용되는 시스템을 제공한다. 본 발명은 어린이들이 이야기와 같은 프레젠테이션과 상호 작용하고 적응시킴으로써 그들 자신을 표현하도록 허용함으로써 진전된 통신 기술들(communication skill) 및 창조성을 촉진시킨다. 본 발명은 보다 어린 어린이들이 사용하는데 어려울 수 있는, 키보드 및 마우스와 같은 사용자 인터페이스를 포함하지 않는다. 대신, 본 발명은 특정한 콘텐트들의 스트림에 링크되는 기본적이고 친숙한 사운드들 및 이동들을 허용하는 사용자 인터페이스(30)를 사용한다. 따라서, 어린이의 사용자 인터페이스(30)와의 상호 작용은 매우 "놀이 가득할(playful)" 수 있어서, 어린이들에게 상호 작용하도록 보다 많은 장려를 제공한다. 게다가, 콘텐트의 스트림들은 스트림에 대한 논리적 접속을 갖는 이동들 또는 사운드들과 링크되어, 어린이들에게 훨씬 더 직관적인 상호 작용을 할 수 있게 한다.
그러나, 본 발명의 입력 디바이스(30)는 어린이들이 사용하는데 한정되지도 않고, 교육 애플리케이션들에 한정되지도 않는 방식이다. 본 발명은 모든 연령들의 사용자들에게까지 많은 서로 다른 종류들의 프레젠테이션들과 상호 작용할 수 있도록 직관적이고 시뮬레이팅한 인터페이스를 제공한다.
사용자는 본 발명을 사용함으로써 프레젠테이션과의 상호 작용들의 다양한 서로 다른 유형들을 가질 수 있다. 상기 언급한 바와 같이, 사용자는 캐릭터들이 어떤 유형들의 행동들을 실행하도록 야기함으로써, 또는 자연 재해나 폭풍우 날씨와 같은, 캐릭터들 모두 및 설정에 영향을 미치는 어떤 이벤트들을 초기화함으로써 이야기의 결과에 영향을 미칠 수 있다. 사용자 인터페이스(30)는 건물의 색상 또는 숲의 나무들의 수를 변경하는 것과 같이, 설정 내의 세부 사항들을 단지 변경하는데 또한 사용될 수 있다. 그러나, 사용자는 속성에 의해 이야기되는 프레젠테이션들과 상호 작용하는데 한정되지 않는다. 사용자 인터페이스(30)는 노래 또는 시에 사용되는 서정시들을 결정하기 위해, 게임을 차례로 하기 위해, 컴퓨터 시뮬레이션과 상호 작용하기 위해, 또는 프레젠테이션 내에서 자기 표현(self-expression)을 허용하는 임의의 유형의 상호 작용을 실행하기 위해 도면에 도시된 요소들을 선택하는데 사용될 수 있다. 게다가, 프레젠테이션은, 신체적 기술들(예를 들면, 춤 또는 골프 클럽을 스윙하는 방법을 배운다)을 배우는 교본 프로그램(tutoring program)을 포함할 수 있으며, 사용자가 이들 기술들을 연습하고 프로그램으로부터 피드백을 수신할 수 있다.
그 외에도, 본 발명의 사용자 인터페이스(30)는 특정한 영역 내에서 에워싸서 이동들을 검출하는 움직임 및 사운드 검출 센서들(32)을 포함하는 실시예에 한정되지 않는다. 본 발명은 사용자 또는 오브젝트의 감지된 이동이 콘텐트의 스트림들의 활성화 또는 비활성화를 야기하는 임의의 유형의 사용자 인터페이스를 포함한다. 예를 들면, 사용자 인터페이스(30)는 임의의 이동의 유형 또는 오브젝트의 사용자 조작을 검출하는 센서들을 포함하는 오브젝트를 포함할 수 있다. 센서 신호는, 결과적으로 콘텐트의 스트림들을 활성화 또는 비활성화하는 최종 사용자 디바이스(10)에 유선 또는 무선 신호들에 의해 전송될 수 있다.
더욱이, 본 발명은 특정한 상호 작용 영역(30)에서 사용자에 의해 만들어진 이동들 또는 사운드를 검출하는 것에 한정되지 않는다. 본 발명은 그 자신의 이동을 추적하는 위성 위치 확인 시스템(GPS : Global Positioning System) 수신기와 같은 센서를 포함할 수 있다. 이러한 실시예에 있어서, 본 발명은 현재 위치에 대응하는, 교통 뉴스들, 날씨 보고, 등과 같은 실시간 데이터를 디스플레이하기 위해 수신된 콘텐트의 스트림들을 활성화하는 휴대용 최종 사용자 디바이스(10)를 포함할 수 있다.
본 발명은 전형적인 실시예들을 참조하여 설명하였다, 본 기술 분야에 통상의 지식을 가진 사람들이 알 수 있듯이, 본 발명의 여러 변경안들은 본 특허 청구 범위를 벗어남이 없이 상술한 설명을 통해 작성될 수 있다.

Claims (10)

  1. 콘텐트의 스트림들을 수신하고 출력되는 프레젠테이션으로 변환하는 디바이스(10)와 상호 작용하기 위한 사용자 인터페이스(30)에 있어서,
    상호 작용 영역(36), 및
    상기 상호 작용 영역(36)내에서 사용자에 의해 만들어진 이동 또는 사운드를 검출하는 적어도 하나의 센서(32)를 포함하고,
    하나 또는 그 이상의 콘텐트의 스트림들은 상기 검출된 이동 또는 사운드에 기초하여 조작되며,
    상기 프레젠테이션은 상기 조작된 콘텐트의 스트림들에 기초하여 제어되는, 사용자 인터페이스(30).
  2. 제 1 항에 있어서,
    상기 적어도 하나의 센서(32)는 상기 사용자에 의해 만들어진 이동을 검출하고,
    상기 검출된 이동 또는 사운드에 대응하는 이동 또는 사운드의 유형은 상기 적어도 하나의 센서(32)로부터 검출 신호를 분석함으로써 결정되는, 사용자 인터페이스(30).
  3. 제 2 항에 있어서,
    수신된 콘텐트의 스트림은 이동 또는 사운드의 상기 결정된 유형에 기초하여 상기 프레젠테이션에서 활성화 또는 비활성화되는, 사용자 인터페이스(30).
  4. 제 1 항에 있어서,
    상기 적어도 하나의 센서(32)는 복수의 센서들을 포함하고,
    상기 복수의 센서들로부터의 검출 신호들은 상기 검출된 이동 또는 사운드가 발생한 상기 상호 작용 영역(36)내에서 위치를 결정하도록 분석되는, 사용자 인터페이스(30).
  5. 제 4 항에 있어서,
    수신된 콘텐트의 스트림은 상기 결정된 위치에 기초하여 상기 프레젠테이션에서 활성화 또는 비활성화되는, 사용자 인터페이스(30).
  6. 제 1 항에 있어서,
    상기 적어도 하나의 센서(32)는 음성 인식 시스템에 접속된 사운드 검출 센서(33)를 포함하고,
    수신된 콘텐트의 스트림은 상기 음성 인식 시스템에 의해 인식되는 특정한 단어에 기초하여 검출되는, 사용자 인터페이스(30).
  7. 제 1 항에 있어서,
    상기 적어도 하나의 센서(32)의 각각은 움직임 센서(34) 및 사운드 검출 센서(33)를 포함하는, 사용자 인터페이스(30).
  8. 제 1 항에 있어서,
    상기 프레젠테이션은 이야기를 포함하는, 사용자 인터페이스(30).
  9. 콘텐트의 스트림들을 출력되는 프레젠테이션으로 변환하는 시스템에서의 처리에 있어서,
    상호 작용 영역(36)내에서 발생하는 이동 또는 사운드를 검출하는 단계,
    상기 검출된 이동 또는 사운드에 기초하여 하나 또는 그 이상의 콘텐트의 스트림들을 조작하는 단계, 및
    상기 조작된 콘텐트의 스트림들에 기초하여 상기 프레젠테이션을 제어하는 단계를 포함하는 변환 처리.
  10. 콘텐트의 스트림들을 수신 및 프레젠테이션으로 변환하는 최종 사용자 디바이스(10),
    상호 작용 영역(36)내에서 사용자에 의해 만들어진 이동 또는 사운드를 검출하는 센서들(32)을 포함하는 사용자 인터페이스(30), 및
    상기 프레젠테이션을 출력하는 출력 디바이스(15)를 포함하는 시스템으로서,
    상기 최종 사용자 디바이스(10)는 상기 검출된 이동 또는 사운드에 기초하여상기 변환된 콘텐트의 스트림들을 조작하고, 그에 의해 상기 프레젠테이션을 제어하는, 시스템.
KR1020037000547A 2001-05-14 2002-05-14 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스 KR100987650B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP01201799.2 2001-05-14
EP01201799 2001-05-14
PCT/IB2002/001666 WO2002093344A1 (en) 2001-05-14 2002-05-14 Device for interacting with real-time streams of content

Publications (2)

Publication Number Publication Date
KR20030016405A true KR20030016405A (ko) 2003-02-26
KR100987650B1 KR100987650B1 (ko) 2010-10-13

Family

ID=8180307

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037000547A KR100987650B1 (ko) 2001-05-14 2002-05-14 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스

Country Status (7)

Country Link
US (2) US20040174431A1 (ko)
EP (1) EP1428108B1 (ko)
JP (3) JP2004537777A (ko)
KR (1) KR100987650B1 (ko)
CN (1) CN1296797C (ko)
ES (1) ES2403044T3 (ko)
WO (1) WO2002093344A1 (ko)

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2378371A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Virtual "Big Brother" broadcasting
US20030064712A1 (en) * 2001-09-28 2003-04-03 Jason Gaston Interactive real world event system via computer networks
EP1387528A1 (en) * 2002-07-31 2004-02-04 Deutsche Thomson-Brandt Gmbh Method and device for performing communication on a bus structured network
US20050002643A1 (en) * 2002-10-21 2005-01-06 Smith Jason W. Audio/video editing apparatus
US20070033634A1 (en) * 2003-08-29 2007-02-08 Koninklijke Philips Electronics N.V. User-profile controls rendering of content information
JP4243862B2 (ja) 2004-10-26 2009-03-25 ソニー株式会社 コンテンツ利用装置およびコンテンツ利用方法
JP4595555B2 (ja) 2005-01-20 2010-12-08 ソニー株式会社 コンテンツ再生装置およびコンテンツ再生方法
WO2006078996A2 (en) 2005-01-21 2006-07-27 Gesturetek, Inc. Motion-based tracking
JP5225548B2 (ja) 2005-03-25 2013-07-03 ソニー株式会社 コンテンツ検索方法、コンテンツリスト検索方法、コンテンツ検索装置、コンテンツリスト検索装置および検索サーバ
JP4741267B2 (ja) 2005-03-28 2011-08-03 ソニー株式会社 コンテンツ推薦システム、通信端末およびコンテンツ推薦方法
JP2007011928A (ja) 2005-07-04 2007-01-18 Sony Corp コンテンツ提供システム、コンテンツ提供装置、コンテンツ配信サーバ、コンテンツ受信端末およびコンテンツ提供方法
JP5133508B2 (ja) 2005-07-21 2013-01-30 ソニー株式会社 コンテンツ提供システム、コンテンツ提供装置、コンテンツ配信サーバ、コンテンツ受信端末およびコンテンツ提供方法
FR2889395A1 (fr) * 2005-08-01 2007-02-02 France Telecom Service de personnalisation de communications par traitement des flux media audio et ou video
JP4811046B2 (ja) 2006-02-17 2011-11-09 ソニー株式会社 コンテンツの再生装置、オーディオ再生機およびコンテンツの再生方法
GB2440993C (en) * 2006-07-25 2014-03-19 Sony Comp Entertainment Europe Apparatus and method of interaction with a data processor
US8204075B2 (en) * 2007-01-31 2012-06-19 Broadcom Corporation Inter-device wireless communication for intra-device communications
US8223736B2 (en) * 2007-01-31 2012-07-17 Broadcom Corporation Apparatus for managing frequency use
US8121541B2 (en) * 2007-01-31 2012-02-21 Broadcom Corporation Integrated circuit with intra-chip and extra-chip RF communication
US8254319B2 (en) * 2007-01-31 2012-08-28 Broadcom Corporation Wireless programmable logic device
US8125950B2 (en) * 2007-01-31 2012-02-28 Broadcom Corporation Apparatus for wirelessly managing resources
US20090197641A1 (en) * 2008-02-06 2009-08-06 Broadcom Corporation Computing device with handheld and extended computing units
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
US9486703B2 (en) * 2007-01-31 2016-11-08 Broadcom Corporation Mobile communication device with game application for use in conjunction with a remote mobile communication device and methods for use therewith
US20090011832A1 (en) * 2007-01-31 2009-01-08 Broadcom Corporation Mobile communication device with game application for display on a remote monitor and methods for use therewith
US8239650B2 (en) * 2007-01-31 2012-08-07 Broadcom Corporation Wirelessly configurable memory device addressing
US20080320293A1 (en) * 2007-01-31 2008-12-25 Broadcom Corporation Configurable processing core
US8200156B2 (en) * 2007-01-31 2012-06-12 Broadcom Corporation Apparatus for allocation of wireless resources
US8280303B2 (en) * 2007-01-31 2012-10-02 Broadcom Corporation Distributed digital signal processor
US8289944B2 (en) * 2007-01-31 2012-10-16 Broadcom Corporation Apparatus for configuration of wireless operation
US8116294B2 (en) * 2007-01-31 2012-02-14 Broadcom Corporation RF bus controller
US8438322B2 (en) * 2007-01-31 2013-05-07 Broadcom Corporation Processing module with millimeter wave transceiver interconnection
US8238275B2 (en) * 2007-01-31 2012-08-07 Broadcom Corporation IC with MMW transceiver communications
US20080252786A1 (en) * 2007-03-28 2008-10-16 Charles Keith Tilford Systems and methods for creating displays
US8195928B2 (en) * 2008-02-06 2012-06-05 Broadcom Corporation Handheld computing unit with merged mode
US8175646B2 (en) * 2008-02-06 2012-05-08 Broadcom Corporation Networking of multiple mode handheld computing unit
US8064952B2 (en) * 2008-02-06 2011-11-22 Broadcom Corporation A/V control for a computing device with handheld and extended computing units
US8117370B2 (en) * 2008-02-06 2012-02-14 Broadcom Corporation IC for handheld computing unit of a computing device
US8717974B2 (en) * 2008-02-06 2014-05-06 Broadcom Corporation Handheld computing unit coordination of femtocell AP functions
US20090198798A1 (en) * 2008-02-06 2009-08-06 Broadcom Corporation Handheld computing unit back-up system
US8904430B2 (en) * 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation
US8430750B2 (en) * 2008-05-22 2013-04-30 Broadcom Corporation Video gaming device with image identification
FI20095371A (fi) * 2009-04-03 2010-10-04 Aalto Korkeakoulusaeaetioe Menetelmä laitteen ohjaamiseksi
US8629866B2 (en) * 2009-06-18 2014-01-14 International Business Machines Corporation Computer method and apparatus providing interactive control and remote identity through in-world proxy
WO2011071461A1 (en) * 2009-12-10 2011-06-16 Echostar Ukraine, L.L.C. System and method for selecting audio/video content for presentation to a user in response to monitored user activity
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US9063704B2 (en) * 2011-05-05 2015-06-23 Net Power And Light, Inc. Identifying gestures using multiple sensors
ITMI20110898A1 (it) * 2011-05-20 2012-11-21 Lorenzo Ristori Metodo per proiezione cinematografica interattiva di una trama a sviluppo multiplo
US9159152B1 (en) * 2011-07-18 2015-10-13 Motion Reality, Inc. Mapping between a capture volume and a virtual world in a motion capture simulation environment
ITVI20110256A1 (it) * 2011-09-26 2013-03-27 Andrea Santini Apparato elettronico per la generazione di suoni e/o immagini
FR2982681A1 (fr) * 2011-11-10 2013-05-17 Blok Evenement A Systeme de commande d'un generateur de signaux sensoriels avec retour graphique evolutif
KR101234174B1 (ko) * 2011-12-08 2013-02-19 이성율 이엘 패널 광고 장치
GB2504458B (en) * 2012-06-08 2017-02-01 Microsoft Technology Licensing Llc Real-time communication
CN102722929B (zh) * 2012-06-18 2015-02-11 重庆大学 基于运动传感器的门禁控制系统
US8878043B2 (en) * 2012-09-10 2014-11-04 uSOUNDit Partners, LLC Systems, methods, and apparatus for music composition
US20140073383A1 (en) * 2012-09-12 2014-03-13 Industrial Technology Research Institute Method and system for motion comparison
US10203839B2 (en) 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US9892743B2 (en) 2012-12-27 2018-02-13 Avaya Inc. Security surveillance via three-dimensional audio space presentation
US9301069B2 (en) * 2012-12-27 2016-03-29 Avaya Inc. Immersive 3D sound space for searching audio
US9838824B2 (en) 2012-12-27 2017-12-05 Avaya Inc. Social media processing with three-dimensional audio
US9344773B2 (en) * 2013-02-05 2016-05-17 Microsoft Technology Licensing, Llc Providing recommendations based upon environmental sensing
US20140281849A1 (en) * 2013-03-14 2014-09-18 MindsightMedia, Inc. Method, apparatus and article for providing supplemental media content into a narrative presentation
WO2014149700A1 (en) 2013-03-15 2014-09-25 Intel Corporation System and method for assigning voice and gesture command areas
US20140282273A1 (en) * 2013-03-15 2014-09-18 Glen J. Anderson System and method for assigning voice and gesture command areas
CN105359546B (zh) * 2013-05-01 2018-09-25 乐盟交互公司 用于交互式视频投影系统的内容产生
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
US9472119B2 (en) * 2013-08-26 2016-10-18 Yokogawa Electric Corporation Computer-implemented operator training system and method of controlling the system
KR102034587B1 (ko) * 2013-08-29 2019-10-21 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR101567154B1 (ko) * 2013-12-09 2015-11-09 포항공과대학교 산학협력단 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
CN105446463B (zh) * 2014-07-09 2018-10-30 杭州萤石网络有限公司 进行手势识别的方法及装置
US9993733B2 (en) 2014-07-09 2018-06-12 Lumo Interactive Inc. Infrared reflective device interactive projection effect system
PT107791A (pt) * 2014-07-21 2016-01-21 Ricardo José Carrondo Paulino Sistema integrado de divulgação multimeios com capacidade de interação em tempo real por comando natural e capacidade de acionamento e controlo de motores e atuadores elétricos e eletrónicos
EP3175418A4 (en) 2014-07-31 2018-03-28 Mindsightmedia Inc. Method, apparatus and article for delivering media content via a user-selectable narrative presentation
US9921660B2 (en) * 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
WO2016115154A1 (en) 2015-01-14 2016-07-21 MindsightMedia, Inc. Data mining, influencing viewer selections, and user interfaces
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
WO2016168117A2 (en) 2015-04-14 2016-10-20 John James Daniels Wearable electric, multi-sensory, human/machine, human/human interfaces
KR102328589B1 (ko) 2015-04-30 2021-11-17 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
WO2016176574A1 (en) 2015-04-30 2016-11-03 Google Inc. Wide-field radar-based gesture recognition
WO2016176606A1 (en) 2015-04-30 2016-11-03 Google Inc. Type-agnostic rf signal representations
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10795692B2 (en) * 2015-07-23 2020-10-06 Interdigital Madison Patent Holdings, Sas Automatic settings negotiation
US9697867B2 (en) 2015-09-25 2017-07-04 Intel Corporation Interactive adaptive narrative presentation
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
AU2017307650A1 (en) * 2016-08-03 2019-03-21 Dejero Labs Inc. System and method for controlling data stream modifications
CN110381826A (zh) 2016-11-25 2019-10-25 约翰·丹尼尔斯 人机触觉界面和可穿戴电子产品方法及装置
US11343545B2 (en) * 2019-03-27 2022-05-24 International Business Machines Corporation Computer-implemented event detection using sonification

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0016314A1 (en) * 1979-02-05 1980-10-01 Best, Robert MacAndrew Method and apparatus for voice dialogue between a video picture and a human
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
US5081896A (en) * 1986-11-06 1992-01-21 Yamaha Corporation Musical tone generating apparatus
US5442168A (en) 1991-10-15 1995-08-15 Interactive Light, Inc. Dynamically-activated optical instrument for producing control signals having a self-calibration means
US5598478A (en) * 1992-12-18 1997-01-28 Victor Company Of Japan, Ltd. Sound image localization control apparatus
CA2161873C (en) * 1993-05-14 1999-11-09 Gary L. Conrad Video traffic monitor for retail establishments and the like
IT1273051B (it) 1993-11-24 1997-07-01 Paolo Podesta Sistema multimediale per il controllo e la generazione di musica ed animazione bidimensionali e tridimensionali in tempo reale pilotato da rilevatori di movimento.
US6947571B1 (en) * 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
JP3428151B2 (ja) * 1994-07-08 2003-07-22 株式会社セガ 画像表示装置を用いた遊戯装置
JPH0838374A (ja) * 1994-07-27 1996-02-13 Matsushita Electric Works Ltd 電動式洗面台
US5882204A (en) * 1995-07-13 1999-03-16 Dennis J. Lannazzo Football interactive simulation trainer
JPH09160752A (ja) * 1995-12-06 1997-06-20 Sega Enterp Ltd 情報記憶媒体及びそれを利用する電子装置
JPH10256979A (ja) * 1997-03-13 1998-09-25 Nippon Soken Inc 車両用通信装置
WO1998059312A1 (en) * 1997-06-20 1998-12-30 Holoplex, Inc. Methods and apparatus for gesture recognition
JPH11259206A (ja) * 1998-03-09 1999-09-24 Fujitsu Ltd 赤外線検出式入力装置
US6288704B1 (en) * 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
JP2001017738A (ja) * 1999-07-09 2001-01-23 Namco Ltd ゲーム装置

Also Published As

Publication number Publication date
EP1428108A1 (en) 2004-06-16
EP1428108B1 (en) 2013-02-13
US20040174431A1 (en) 2004-09-09
JP2009070400A (ja) 2009-04-02
ES2403044T3 (es) 2013-05-13
WO2002093344A1 (en) 2002-11-21
US20130086533A1 (en) 2013-04-04
CN1296797C (zh) 2007-01-24
JP2012198916A (ja) 2012-10-18
JP5743954B2 (ja) 2015-07-01
KR100987650B1 (ko) 2010-10-13
CN1462382A (zh) 2003-12-17
JP2004537777A (ja) 2004-12-16

Similar Documents

Publication Publication Date Title
KR100987650B1 (ko) 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스
Winkler Making motion musical: Gesture mapping strategies for interactive computer music
Ulyate et al. The interactive dance club: Avoiding chaos in a multi-participant environment
WO2011155958A1 (en) Dance game and tutorial
Jones et al. Acoustic emotion recognition for affective computer gaming
KR20030017625A (ko) 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스
KR20030017624A (ko) 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스
Hugill et al. Audio only computer games–Papa Sangre
KR20030016404A (ko) 콘텐트의 실시간 스트림들과의 상호 작용을 위한 디바이스
Echeverri The non-myth of the noble red: exploring Brechtian principles of storytelling and performance in the authoring of a tangible narrative
Steed et al. Immersive competence and immersive literacy: Exploring how users learn about immersive experiences
Nijholt et al. Games and entertainment in ambient intelligence environments
Kerdvibulvech An innovative real-time mobile augmented reality application in arts
Hashimi Users as performers in vocal interactive media—the role of expressive voice visualisation
Bekkedal Music kinection: Musical sound and motion in interactive systems
Hämäläinen Novel applications of real-time audiovisual signal processing technology for art and sports education and entertainment
Barlow Game Led HCI Improvements
Al Hashimi Vocal Telekinesis: towards the development of voice-physical installations
Lapides et al. Creating social, physical, and authoring games
Nijholt et al. c0085 Games and Entertainment in Ambient Intelligence Environments
Hämäläinen ÉÙ ÉÙ ³× ÒØ ÓÙÒ

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
E90F Notification of reason for final refusal
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130930

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141002

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150924

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181004

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190924

Year of fee payment: 10