KR101335346B1 - 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 - Google Patents

장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 Download PDF

Info

Publication number
KR101335346B1
KR101335346B1 KR1020107021483A KR20107021483A KR101335346B1 KR 101335346 B1 KR101335346 B1 KR 101335346B1 KR 1020107021483 A KR1020107021483 A KR 1020107021483A KR 20107021483 A KR20107021483 A KR 20107021483A KR 101335346 B1 KR101335346 B1 KR 101335346B1
Authority
KR
South Korea
Prior art keywords
user
scene
depth
image
sensing camera
Prior art date
Application number
KR1020107021483A
Other languages
English (en)
Other versions
KR20110030419A (ko
Inventor
게리 엠. 젤루스키
마이크 하이
Original Assignee
소니 컴퓨터 엔터테인먼트 유럽 리미티드
소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 컴퓨터 엔터테인먼트 유럽 리미티드, 소니 컴퓨터 엔터테인먼트 아메리카 엘엘씨 filed Critical 소니 컴퓨터 엔터테인먼트 유럽 리미티드
Publication of KR20110030419A publication Critical patent/KR20110030419A/ko
Application granted granted Critical
Publication of KR101335346B1 publication Critical patent/KR101335346B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4751End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user accounts, e.g. accounts for children
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1006Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals having additional degrees of freedom
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/201Playing authorisation given at platform level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Abstract

컴퓨터에서 구현되는 방법이 제공되어서, 하나 이상의 미디어 소스들을 가진 공간에 있는 식별되고 추적된 사용자들에 대하여 미리 정해진 권한들이 자동 적용하도록 한다. 이러한 방법은 사용자 프로파일을 정하고 메모리에 저장하는 과정을 포함한다. 사용자 프로파일은 심도 감지 카메라(depth sensing camera)로 사용자를 식별하고 추적하는 데이터를 포함한다. 다른 과정에 있어서, 사용자 프로파일의 특정 미디어 접속 레벨들을 정하는 권한들이 정해지고 저장된다. 또한 이러한 방법은 공간 내에 있는 장면의 심도 감지 카메라에서 이미지 및 심도 데이터를 포착하는 과정을 포함한다. 또 다른 과정에서는, 이미지 및 심도 데이터로부터 장면 내에 있는 사용자가 추적되고 식별된다. 또 다른 과정에서는, 하나 이상의 미디어 소스들에게 정해진 권한들이 자동 적용되어서, 장면 내에서 사용자가 식별되고 추적될 때 하나 이상의 미디어 소스들에서 선택된 콘텐츠를 사용자가 접속할 수 있게 한다.

Description

장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들{Methods for capturing depth data of a scene and applying computer actions}
비디오 게임 산업은 최근 많은 변화를 목격했다. 연산 능력(computing power)이 증폭되면서, 비디오 게임 개발자들은 증가된 연산 능력을 이용하는 게임 소프트웨어를 만들고 있다. 이를 위하여, 비디오 게임 개발자들은 거의 현실에 가까운 게임 경험을 연출하기 위해 복잡한 연산(operation)과 계산을 동원하는 게임들을 코딩하고 있다.
게임 플랫폼(platform)의 예로는 소니 플레이스테이션, 소니 플레이스테이션 2(PS2), 및 소니 플레이스테이션 3(PS3) 등이 있다. 각각의 게임 플랫폼들은 게임 콘솔의 형태로 판매된다. 잘 알려진 바와 같이, 게임 콘솔은 모니터(주로 텔레비전)와 연결되고, 휴대용 컨트롤러들을 통해 사용자의 상호작용을 가능케 하도록 디자인 되어있다. 게임 콘솔은 CPU, 집중적인(intensive) 그래픽 운용을 위한 그래픽 합성기(graphic synthesizer), 기하변환(geometry transformation)을 수행하기 위한 벡터부(vector unit), 및 그 외 글루 하드웨어(glue hardware), 펌웨어, 및 소프트웨어를 포함하는 특수 프로세싱 하드웨어로 디자인된다. 게임 콘솔은 또한 게임 콘솔을 통한 국부적(local) 플레이에 사용되는 게임 콤팩트디스크들을 수용하기위한 광디스크 트레이(optical disc tray)를 구비하도록 디자인된다. 인터넷 상에서 사용자가 다른 사용자들과 인터랙티브하게(interactively) 게임을 할 수 있는 온라인 게임 또한 가능하다.
증폭된 프로세싱 능력을 가진 인터넷에 연결된 게임 콘솔들은, 온라인 상에서 상호작용할 수 있는 환경과 접속할 수 있도록 하며, 미디어를 스트리밍하거나 다운로드 형태로 제공하는 온라인 시장에 접속할 수 있도록 하는 엔터테인먼트 포털(portal)로 기능하기 시작한다. 온라인 환경에서, 부모들은 자녀들을 효율적이고 능률적으로 통제(parental control)하는데 어려움을 겪을 수 있다. 자녀 통제를 단편적으로 이행(piecemeal implementation)할 경우, 비효율적이거나, 과도하거나, 부분적인 이행을 초래하여 자녀를 통제함에 있어 빈틈이 생길 수 있다. 예를 들면, 텔레비전 채널들에 대하여 케이블 박스로 통제할 수 있지만, DVD나 블루 레이 디스크(Blue-Ray disc)같은 광학 미디어에 저장된 영상들에 대하여는 별도의 다른 통제가 필요할 수 있다.
이러한 문맥에서 본 발명의 실시예들이 개시된다.
본 발명은 심도 감지 카메라(depth-sensing camera)를 사용해서 장면(scene) 속에 있는 사용자들을 식별하고 추적하도록 한다. 사용자들을 식별하고, 추적함은 장면 속에서 식별되고 추적된 사용자들에 근거한 여러 미디어 소스들(media sources)의 접속을 제어하는 자동 응용프로그램을 가능케 한다. 사용자들은 사용자 프로파일(profile)의 일부로 접속 통제(access control)를 설정할 수 있다. 사용자는 사용자 프로파일의 일부로 아바타 및 아바타 애니메이션 또한 설정할 수 있다. 아바타 애니메이션들은 장면 내에 있거나, 장면을 지나가는 사용자의 움직임을 표시하기 위해 사용될 수 있다.
본 발명의 일 실시예에 따르면, 하나 이상의 미디어 소스들을 구비한 공간에 있는 식별되고 추적된 사용자들에 대하여 미리 정해진 권한들(privileges)을 자동 적용하고, 컴퓨터에서 구현하는 방법이 개시된다. 이러한 방법은 사용자 프로파일을 정하고, 메모리(memory)에 저장하는 과정을 포함한다. 다른 과정으로, 사용자 프로파일은 심도 감지 카메라로 사용자를 식별하고 추적하는 데이터를 포함할 수 있다. 사용자 프로파일에 대하여 특정 미디어의 접속 레벨(levels of access)을 정하는 조작 권한들을 정하고, 저장하는 과정을 포함할 수 있다. 이러한 방법은 또한, 공간 내에 있는 장면의 이미지 및 심도 데이터를 심도 감지 카메라로부터 포착하는 방법을 포함할 수 있다. 또 다른 과정으로, 장면 내에서 사용자를 이미지와 심도 데이터에 의해 추적하고 식별하는 과정을 포함할 수 있다. 또 다른 과정으로, 정해진 권한들이 하나 이상의 미디어 소스들에게 자동 적용되어, 사용자가 장면 속에서 식별되고 추적될 때 하나 이상의 미디어 소스들에서 선택된 콘텐츠를 접속할 수 있게 하는 과정을 포함할 수도 있다.
본 발명의 다른 일 실시예는 미리 정해지고 컴퓨터에 의하여 생성된 효과들을 현실 세계 물체들의 가상 세계 대표물(representation)에 자동 적용하기 위해 현실 세계의 물체들을 식별하고 추적하기 위한, 컴퓨터에서 구현되는 방법을 개시한다. 이러한 방법은 심도 감지 카메라로 사용자를 식별하고 추적하는 데이터를 포함하는 사용자 프로파일을 정하고 메모리에 저장하는 과정을 포함한다. 또한, 이러한 방법은 사용자 프로파일과 연관된 가상 세계 장면에 합쳐진 애니메이션들을 정하고 메모리에 저장하는 과정을 포함한다. 다른 과정으로는 심도 감지 카메라가 사용자가 식별되고 추적되는 장면을 포착하는 과정을 포함할 수 있다. 또 다른 과정으로는 정해진 애니메이션들이 식별되고 추적된 사용자에 따라 자동 적용되어, 표시부가 통합된 애니메이션들을 도시하는 과정을 포함할 수도 있다.
본 발명의 또 다른 일 실시예는, 현실 공간에 있는 현실 세계 사용자들을 식별하고 추적하는, 컴퓨터에서 구현되는 방법을 개시한다. 한 과정에서는 심도 감지 카메라에 의해 포착된 이미지 및 심도 데이터에서 사용자 프로파일이 정해진다. 사용자 프로파일은 현실 세계 사용자의 신체적 특징들과 연관된 이미지 및 심도 데이터를 포함할 수 있다. 다른 과정으로, 심도 감지 카메라를 사용해서 장면의 이미지 및 심도 데이터가 포착될 수 있다. 이러한 방법은 또한, 장면 내의 이동 물체들을 식별하는 과정을 포함할 수 있다. 다른 과정에서는 이동 물체들의 이미지와 심도 데이터가 현실 세계 사용자의 두부(頭部)를 장면 내에서 추적하는 과정을 포함할 수 있다. 또 다른 과정으로, 두부의 이미지 및 심도 데이터를 실시간으로 분석하는 과정을 포함할 수 있다. 이러한 분석은 두부의 이미지 및 심도 데이터를 신체적 특징들과 연관된 사용자 프로파일 이미지 및 심도 데이터와 비교하는 과정을 포함할 수 있다. 사용자 프로파일 내의 이미지 및 심도 데이터가 두부의 이미지와 심도 데이터와 거의 일치할 때 사용자가 식별된다.
본 발명의 기타 다른 양상들과 효과들은 하기 상세한 설명과 본 발명의 원리의 예로 첨부된 도면들이 함께 참조될 때 인식될 것이다.
본 발명의 설명은 하기 상세한 설명과 첨부된 도면들과 함께 고려될 때 빠르게 이해될 수 있을 것이다.
도 1a는 본 발명의 실시예에 따라 미리 정해지고 컴퓨터에 의해 생성된 효과들을 현실 세계 물체들의 가상 세계 대표물에 적용하기 위해 현실 세계 물체들을 식별하고 추적하는데 사용될 수 있는 예시적 과정들을 포함하는 흐름도;
도 1b는 본 발명의 실시예에 따라 컴퓨터 시스템에 연결된 심도 감지 카메라의 시야 내에 있는 장면을 도시하는 도면;
도 2a 내지 도 2d는 본 발명의 실시예에 따라 사용자 프로파일을 정하기 위해 사용될 수 있는 예시적 장면(screen);
도 2e는 본 발명의 실시예에 따른 새로운 사용자, 엄마를 추가하는 과정을 종료하는 것을 도시하는 예시적 장면;
도 2f은 본 발명의 실시예에 따른 사용자들을 인식하는 데 사용될 수 있는, 심도 감지 카메라에 의해 포착된 안면의 이목구비들을 도시하는 도면;
도 2g는 본 발명의 실시예에 따른 여러 자세에 있는 사용자 두부(250) 이미지 및 심도 데이터를 포착하는 방법을 도시하는 도면;
도 2h는 본 발명의 실시예에 따라 심도 감지 카메라에 의해 포착된 여러 관점으로부터 구성된 사용자 안면(250)의 여러 포즈들(poses)을 포함하는 매트릭스(matrix);
도 2i는 본 발명의 실시예에 따라 안면의 여러 이목구비들의 상대적 위치 변화를 도시하는 일련의 세 이미지들;
도 2j는 본 발명의 실시예에 따라 사용자 두부의 이미지 및 심도 데이터를 획득하는 절차를 도시하는 예시적 흐름도;
도 2k는 본 발명의 실시예에 따라 심도 감지 카메라의 시야 내에 있는 사용자를 식별하는 절차에 따른 예시적 과정들을 도시하는 예시적 흐름도;
도 3a 내지 3c는 본 발명의 실시예에 따라 애완동물의 사용자 프로파일을 생성하는데 사용될 수 있는 예시적 스크린의 간략한 일군을 도시하는 도면;
도 4a는 본 발명의 실시예에 따라 사용자들에게 지정된 여러 권한들을 도시하는 예시적 표;
도 4b는 본 발명의 실시예에 따라 사용자들이 만든 애니메이션들을 도시하는 예시적 표;
도 5a는 본 발명의 실시예에 따라 처리된 비디오로 장면에 표시된 현실 세계의 장면을 포함하는 공간을 도시하는 도면;
도 5b는 본 발명의 실시예에 따라 예시적으로 처리된 비디오를 도시하는 도면;
도 6은 본 발명의 실시예에 따라 현실 세계의 장면을 도시하고, 현실 세계 장면이 어떻게 처리된 비디오(10c)로 장면에 표시되는지 도시하는 도면;
도 7은 인식된 물체들을 식별하고 추적하는 방법을 개선하기 위해 포인트 추적(point tracking)방법을 적용하기 위한 과정들을 도시하는 예시적 흐름도;
도 8은 본 발명의 실시예에 따라 포인트 추적 방법을 도시하는 장면의 예시적 장면;
도 9는 본 발명의 실시예에 따라 사용자에 의해 정해진 컨트롤러들을 생성하기 위해 동적인 3 차원 물체의 매핑(mapping)을 활용할 수 있는 컴퓨터 시스템, 소니® 플레이스테이션 3® 엔터테인먼트 장치의 전체 시스템 구조를 도시하는 개략적인 도면이다.
본 발명은, 심도 감지 카메라(depth-sensing camera)의 이미지 및 심도 데이터로 사용자를 식별한 후, 컴퓨터 시스템의 사용자 프로파일들을 자동 적용하는 방법을 개시한다. 컴퓨터 시스템은 일반 연산 장치(예를 들어, 데스크톱 컴퓨터(desktop computer), 노트북, 휴대 단말기(handheld device), 스마트 폰(smartphone), 등) 또는 게임 콘솔(console)과 같은 특별한 목적을 위한 컴퓨터이든지 사용자로부터 입력을 수신하는 종류의 시스템이 될 수 있다. 심도 감지 카메라는 분석과 처리를 위해 컴퓨터 시스템에 이미지 및 심도 데이터를 제공한다. 심도 감지 카메라는 단일 렌즈 카메라일 수도 있고, 여러 장소들과 관점들에서 이미지들과 심도 데이터를 포착하는 데에 사용될 수 있는 다중 렌즈 카메라가 될 수 있다.
하기 설명에 있어서, 본 발명의 상세한 이해를 위하여 다수의 특정 설명들이 개시된다. 당업자는 이러한 설명들의 일부 또는 전체를 제외하고도 시행될 수 있는 것을 인지할 것이다. 다른 경우들에 있어서, 본 발명을 불필요하게 불명료하게 할 수 있는 잘 알려진 처리 과정들은 자세하게 상술되지 않았다.
도 1a는 미리 정해지고 컴퓨터에 의해 생성된 효과들을 현실 세계 물체들의 가상 세계 대표물에 적용하기 위해 현실 세계 물체들을 식별하고 추적하는데 사용될 수 있는 예시적 과정들을 포함하는 흐름도이다. 100 과정에서는 식별하고 추적할 사용자를 정한다. 한 실시예에서는, 100 과정에서 컴퓨터 시스템에 연결된 심도 감지 카메라를 사용한다. 사용자들은 심도 감지 카메라에 의해 포착된 각각의 특징들로 구별되고 컴퓨터 시스템으로 실행되는 소프트웨어에 의해 인식될 수 있다. 여러 실시예들에 있어서, 이로 한정되지는 않지만 눈, 코, 및 입과 같은 안면의 이목구비들 사이의 여러 간격들이 포착될 수 있다. 다른 실시예들에서는, 코, 눈, 머리 크기, 안면의 이목구비들의 상대적 위치들, 등과 같은 사용자의 특징들을 인식하기 위해 카메라의 감지된 심도 특성들이 사용될 수 있다.
사용자들은 100 과정의 일부로 가상 세계의 아바타들(avatars)을 정할 수 있다. 식별되고 추적될 사용자를 정하는 과정의 일부로 사용자는 가상 세계 내에서 사용자를 대표하는 맞춤형(customized) 아바타를 설정할 수 있다. 사용자는 현실 세계의 외양과 비슷하도록 설정하거나 현실 세계의 외양과는 상관없이 공상적인(fanciful) 아바타로 설정할 수 있다. 이에 따라, 아바타들에게, 이로 한정되지는 않지만, 몸체 크기 및 모양, 머리, 눈, 코, 귀, 입, 팔, 다리, 또한 머리카락에 대한 설정이 적용될 수 있다. 사용자들이 가상의 옷, 신발, 및 보석과 선글라스와 같은 패션 액세서리를 설정할 수 있도록 한다.
102 과정에서는 식별된 사용자들을 위한 권한들과 애니메이션들을 정한다. 권한들은 식별된 사용자가 심도 감지 카메라 앞에 있을 때 컴퓨터 시스템을 통해 접속 가능한 콘텐츠의 종류를 제한할 수 있도록 한다. 실시예에 있어서, 컴퓨터 시스템은 인터넷에 연결되며, 이로 한정되지는 않지만 스트리밍(streaming) 또는 다운로드 가능한 음악 및 영화, 텔레비전 쇼, 비디오 클립과 같은 멀티미디어와 같은 여러 미디어 소스들(media sources)의 접속 권한(access)을 제공한다. 또한, 컴퓨터 시스템은 온라인이나 다운로드 가능한 게임들과 함께 유튜브(YouTube)와 같이 스트리밍 비디오를 포함하는 웹사이트들에 접속하기 위한 웹브라우저(web browser)의 접속 권한을 제공할 수 있다. 또한 컴퓨터 시스템은 DVD 또는 블루레이(Blu-Ray)나 HD-DVD 디스크들과 같은 다른 광학 저장 매체를 재생할 수 있는 통합 미디어 소스(integrated media source)를 포함할 수 있다. 정해진 사용자들에게 지정된 권한들은 특정 종류의 영화, 텔레비전 쇼, 게임, 및 웹사이트들의 접속 권한을 제한할 수 있다.
또한 102 과정에서는 식별된 사용자들에 대하여 애니메이션들을 정하는데 사용될 수 있다. 애니메이션들은 심도 감지 카메라 및 컴퓨터 시스템에 의해 감지된 현실 세계 액션들에 응하여 장면에 있는 식별된 사용자의 아바타를 움직이는데 사용될 수 있다. 예를 들면, 한 실시예로 사용자의 움직임이 임계 속도 초과 시, 사용자의 아바타에 애니메이션이 적용될 수 있다. 한 실시예에 있어서, 사용자의 느린 움직임은 사용자의 가상 세계 아바타에게 거미집 또는 거미줄이 생기게 할 수 있다. 다른 실시예에 있어서, 사용자의 빠른 움직임에 대하여 사용자의 높은 속도를 강조하는 아바타를 흐리게(blurring)하는 애니메이션 또는 먼지바람(motion clouds)과 같은 다른 애니메이션이 사용되거나 음향 효과들이 사용될 수 있다. 사용자의 아바타, 정해진 권한들, 및 애니메이션들은 심도 감지 카메라 및 컴퓨터 시스템이 식별된 사용자를 인식할 때 재실행(recall)되기 위해 저장될 수 있다.
104 과정에서는 심도 감지 카메라의 시야에 진입하는 이동 물체들을 식별하고 추적한다. 카메라 시야에서 이동 물체가 정해진 사용자로 인식되는 경우, 106 과정에서 권한들 및/또는 애니메이션들이 자동 적용될 수 있다. 이동 물체가 정해진 사용자로 인식되지 않은 경우, 106 과정에서 내정된(default) 권한들 및/또는 애니메이션들을 자동으로 로드(load)할 수 있다. 104 과정에서 또한, 컴퓨터 시스템 및 심도 감지 카메라를 사용해서 시간 경과에 따라 인식되거나 인식되지 않은 사용자의 움직임들을 추적하고, 아바타를 움직이도록 할 수 있다. 한 실시예에서는, 심도 감지 카메라가 움직임을 식별할 때, 시간 경과에 따른 움직임의 로그 파일(log file)을 생성할 수 있다. 실시예들에 있어서, 심도 감지 카메라의 시야에 식별된 사용자가 진입할 때, 사용자에 대한 미리 설정된 애니메이션을 사용해서 로그 파일을 생성한다. 로그 파일은 시간 경과에 따라 심도 감지 카메라의 시야 내에 있는 식별된 사용자들의 움직임을 보여주도록 재생될 수 있다.
도 1b는 본 발명의 실시예에 따라, 컴퓨터 시스템(120)에 연결된 심도 감지 카메라(110)의 시야(152) 내에 있는 장면(150)을 도시한다. 심도 감지 카메라(110)는 RGB 이미지 모듈(114)을 사용해서 이미지 데이터를 포착하고, 심도 데이터 모듈(112)은 시야(152) 내에 있는 물체들의 상대적 심도 데이터를 포착할 수 있다. 한 실시예에 있어서, 심도 감지 카메라(110)는 3차원 물체들에서 반사된 빛의 양에 근거하여 상대적 깊이들을 판단할 수 있다. 다른 실시예들에 있어서, 심도 감지 카메라는 적외선을 펄싱(pulsing)할 수 있는 적외선 발광 다이오드(LEDs) 어레이를 포함할 수 있다. 심도 데이터 모듈(112)은 심도 감지 카메라(110)로 다시 반사되어 들어오는 펄스된(pulsed) 적외선 양에 근거하여 시야 내에 있는 물체들의 상대적 깊이를 판단할 수 있다. 다른 실시예들에서는, 심도 감지 카메라(110)의 이미지 및 심도 데이터가 처리되기 위해 컴퓨터 시스템(120)으로 송신된다.
초점을 맞추는 모듈(118)은 로직(logic) 처리부(116)와 함께 심도 감지 카메라(110)에 포함될 수 있다. 소정의 실시예들에서는, 로직 처리부(116)는 RGB 이미지 모듈(114)과 심도 데이터 모듈(112)의 데이터를 서로 연관시키기(correlate) 위해 사용될 수 있다. 다른 실시예들에서는 로직 처리부(116)가 초점을 맞추는 모듈(118)의 제어를 보조할 수 있다. 초점을 맞추는 모듈(118)은 RGB 이미지 모듈(114)과 심도 데이터 모듈(112)의 초점을 변경할 수 있다. 적외선 LED 어레이 내의 적외선 LED들 각각의 강도와 기간을 증가시킴으로써, 심도 데이터 모듈(112)의 초점을 변경할 수 있다. 심도 감지 카메라에 의해 포착된 이미지 및 심도 데이터는 컴퓨터 시스템(120)에 의하여 상당 부분 실시간으로 처리될 수 있다.
심도 감지 카메라(110)의 이미지 및 심도 데이터를 수신하고 처리하는 것 외에도, 컴퓨터 시스템(120)은 다른 구성요소들로부터의 입력을 포함하거나 수신할 수 있다. 예를 들면, TV 소스(122), DVD/Blu-Ray 미디어(124), 게임들(126), 및 인터넷(128)은 컴퓨터 시스템(120)을 통해 접속될 수 있다. 사용자들은 컴퓨터 시스템(120)의 사용자 인터페이스를 통해 다른 미디어 소스들(130a, 130b)을 선택할 수 있다.
장면(150)은 사용자(140), 램프(142), 및 소파(144)를 포함한다. 컴퓨터 시스템(120)은 램프(142)나 소파(144)와 같은 정지 물체들로부터 사용자(140)를 분별할 수 있다. 컴퓨터 시스템(120)의 명령에 응하여, 심도 감지 카메라(110)는 사용자(140) 주변의 영역(146)에 초점을 맞출 수 있다. 사용자(140)를 식별하기 위해, 심도 감지 카메라(110)는 사용자(140)의 두부 영역(head area)(148)에 초점을 맞출 수 있다. 두부 영역(148)에 초점을 둠으로써, 심도 감지 카메라는 사용자(140)에 대한 이미지 및 심도 데이터를 감지하고, 감지된 사용자는 컴퓨터 시스템과 연관된 프로파일 데이터와 분석 비교될 수 있다.
도 2a 내지 도 2d는 본 발명의 실시예에 따라 아바타를 포함하는 사용자 프로파일을 정하기 위해 사용될 수 있는 예시적 장면을 도시한다. 도 2a는 아빠(202), 딸(204), 및 아들(206)의 사용자 프로파일들이 이미 생성된 컴퓨터 시스템의 예시적 장면(200)을 도시한다. 또한, 장면(200)에는 새로운 사용자 프로파일을 생성할 수 있는 버튼(208)이 포함된다. 도 2b는 본 발명의 실시예에따라 버튼(208)을 선택함으로써, 나타나는 장면(200b)을 도시한다. 또한 장면(200b)은 본 발명의 한 실시예를 위해 생성될 수 있는 여러 종류들의 사용자 프로파일들을 표시한다. 예를 들면, 사람들의 프로파일들은 사람 아이콘(210)을 선택함으로써 생성될 수 있다. 사용자가 애완동물들의 움직임을 추적하기 원하는 실시예들에 있어서는, 강아지 아이콘(212) 또는 고양이 아이콘(214)을 선택함으로써 강아지나 고양이의 프로파일을 만들 수 있다. 프로파일의 종류가 추가적으로 포함될 수 있으며, 장면에 열거된 리스트로 한정되지는 않는다.
도 2c는 본 발명의 실시예에 따라 사람 아이콘(210)을 선택함으로써 도시되는 대표적인 장면(200c)을 보여준다. 장면(200c)은 사용자가 남성 아이콘(216) 또는 여성 아이콘(218)을 선택할 수 있도록 한다. 일례로, 사용자는 여성 아이콘(218)을 선택한다. 도 2d는 본 발명의 다른 실시예들에 따라 아바타를 설정하는 두 개의 다른 장면들(200d, 200e)을 도시한다. 제 1 장면(200d)은 아바타를 설정하는데 사용될 수 있는 메뉴 시스템을 도시한다. 도시된 바와 같이, 메뉴 시스템은 이름, 키, 체형, 눈, 머리 스타일, 코, 및 입에 대한 선택 항목을 포함한다. 당업자는 제 1 장면(200d)에 도시된 각각의 선택들이 아바타를 더 세밀하게 설정할 수 있는 다른 장면 또는 부수적 메뉴로 인도할 수 있는 것으로 이해할 수 있을 것이다.
제 2 장면(200e)은 본 발명의 다른 실시예에 따른 아바타를 커스토마이징하는 다른 방법의 장면을 도시한다. 아바타를 커스토마이징하는데에 있어서, 사용자의 이미지를 포착하기 위해 심도 감지 카메라가 사용될 수 있다. 사용자의 포착된 이미지들은 포착된 이미지들에 근거한 아바타를 자동 생성하는 컴퓨터 시스템에 의해 처리될 수 있다. 다른 실시예들에서 자동 생성된 아바타는 사용자가 아바타의 특징들을 변경할 수 있는 기본 아바타(baseline avatar)이다. 두 가지의 실시예들에 있어서, 사용자들은 자가 생성되거나 자동 생성된 아바타를 옷이나 패션 액세서리들로 임의로 변경하거나 조정할 수 있다.
도 2e는 본 발명의 실시예에 따른 추가적인 사용자, 엄마(220)를 추가하는 과정을 종료하는 것을 도시하는 예시적 장면(200f)이다. 장면(200f)은 도 2a 내지 도 2d에서 도시된 바와 같이 엄마(220)의 사용자 프로파일을 생성하는 과정을 완성하여 초래된 장면이다. 장면(200f)은 아빠(202), 딸(204), 아들(206), 및 엄마(202)의 사용자 프로파일들을 보여준다. 도 2e는 다른 사용자 프로파일을 추가하기위해 선택되고 있는 버튼(208)을 도시한다.
도 2f은 본 발명의 실시예에 따른 사용자들을 인식하는 데 사용될 수 있는, 심도 감지 카메라에 의해 포착된 안면의 이목구비들을 도시하는 도면이다. 사용자의 아바타를 설정하는 동안, 심도 감지 카메라는 사용자의 두부(250) 및 이목구비들의 이미지들과 심도 데이터를 포착하는데 사용될 수 있다. 이미지들과 연관된 심도 데이터는 컴퓨터가 사용자를 인식할 수 있도록 하는 특성들을 식별하기 위해 컴퓨터 시스템에 의해 분석된다.
식별하기 위해 사용되는 여러 특성들은 이로 한정되지는 않지만, 이목구비들 사이의 간격들, 이목구비들의 상대적 크기들, 및 상대적 위치가 될 수 있다. 다른 실시예들에 있어서, 사용자 두부의 구성요소들은 귀의 상대적 위치 또는 크기로 식별될 수 있다. 예를 들어, 도 2f에서 Z 평면의 거리들로 도시되는 심도 데이터는 사용자의 코끝과 사용자의 윗입술 사이의 거리인 Z1을 판단하고 인식하는데 쓰일 수 있다. 심도 데이터는 또한, 사용자의 코끝과 눈 사이의 거리(Z2)를 판단하고 인식하는 데 쓰일 수 있다. 이와 같이, 이미지 데이터도 도 2f에서 거리 X로 도시된 사용자의 눈 사이 거리를 인식하는데 쓰일 수 있다. 나아가, 사용자의 코와 입 사이의 거리 B가 측정될 수 있고, 식별하기 위한 특성으로 사용될 수 있다.
도 2g는 본 발명의 실시예에 따른 여러 자세에 있는 사용자 두부(250) 이미지 및 심도 데이터를 포착하는 방법을 도시하는 도면이다. 다른 실시예들에서 사용자 프로파일 생성 시, 사용자는, 머리를 여러 자세로 돌리도록 (예. GUI, 음성이나 음향 명령, 또는 문자로)요구될 수 있다. 이에 따라, 심도 감지 카메라가 사용자의 두부 전체 또는 적어도 식별가능한 안면의 이목구비들을 가진 두부 전면 대부분의 이미지 및 심도 데이터를 포착할 수 있다.
컴퓨터 시스템은 사용자의 와이어 프레임(wire frame) 모델을 생성하기 위해 이미지 및 심도 데이터를 분석할 수 있다. 다른 실시예들에 있어서, 사용자 두부의 와이어 프레임 모델은 사용자의 가상 세계 아바타의 일부로 사용될 수 있다. 하기에 더 상세하게 전술될 바와 같이, 컴퓨터 시스템은 다양한 각도에서의 안면 및 두부의 특징들 사이 사용자마다 다른 비율들을 판단하기 위해 와이어 프레임 모델을 분석할 수 있다. 특정 안면 구조들 및 측정되는 거리는 일례로 개시될 뿐, 이로 한정하기 위한 것은 아니다. 사용자를 식별하고 인식하는데 사용되기 위한 추가적 측정 거리들 위해서 이미지 및 심도 데이터가 분석될 수 있다.
다른 실시예들에 있어서, 심도 감지 카메라는 다양한 자세를 하고 있는 사용자의 몸 전체의 이미지 및 심도 데이터를 포착하는데 사용될 수 있다. 안면 인식(facial recognition)과 유사하게, 컴퓨터 시스템은 사용자를 식별하는 이미지들과 그 연관된 심도 데이터를 분석할 수 있다. 도 8 및 도 9를 참조하여 하기에서 상세하게 개시될 바와 같이, 장면 내의 정지 물체는 컴퓨터 시스템에 의하여 인식될 수 있고, 장면 내 사용자들의 상대적 위치를 제공함으로써, 사용자들을 식별하고 추적하는데 보조할 수 있다.
도 2h는 본 발명의 실시예에 따라 심도 감지 카메라에 의해 포착된 적어도 일부는 여러 관점에서 구성된 사용자 안면(250)의 여러 포즈들(poses)을 포함하는 매트릭스(matrix)를 도시한다. 다른 경우들에서는, 구성된 포즈들은 (예를 들어, 도 2g에서 포착된 데이터를 사용해서)거리(dimensional) 및 심도 데이터를 추정하여 생성될 수 있다.
다양한 각도에서 사용자가 심도 감지 카메라의 시야로 진입할 수 있기 때문에 시스템이 사용되거나 운용될 때, 사용자들의 정면 모습을 항상 획득하지 못 할 수 있다. 그러므로, 컴퓨터 시스템은 사용자를 식별하고 추적하기 위하여 사용자 두부의 와이어 프레임 모델을 사용할 수 있다. 이러한 와이어 프레임 모델의 사용으로 다양한 자세에 있는 사용자 두부의 안면 및 두부 특징들의 여러 비율들을 추정할 수 있다.
262 열은 사용자가 머리를 들지 않고, 우에서 좌로 돌린 것처럼 포착된 사용자 두부의 와이어 프레임 모델 일련의 이미지들을 도시한다. 260 열은 유사한 일련의 이미지들을 도시하는데, 와이어 프레임 모델은 두부가 뒤로 들리도록 고정됐고, 264 열에서 와이어 프레임 모델의 두부는 앞으로 숙여졌다. 272 행의 와이어 프레임 모델은 각각의 열들에서 정면을 향하고, 270 행 및 274 행은 심도 감지 카메라에 대하여 각각 오른쪽으로 3 분의 1, 왼쪽으로 3 분의 1 만큼 고개를 돌린 사용자에 대한 이미지 데이터를 도시한다. 이와 같이, 268 행 및 276 행은 각각 오른쪽 및 왼쪽으로 3 분의 2 만큼 고개를 돌린 사용자를 도시한다. 이에 비해 266 행 및 278 행은 심도 감지 카메라를 기준으로 각각 오른쪽 및 왼쪽으로 고개를 돌린 사용자를 도시한다. 도 2h에 도시된 매트릭스는 단순화된 것이며, 일례로 생각되어야 한다. 현실 세계의 실시예들은 사용자들 가각에 대한 다소의 이미지 및 심도 데이터를 수집하기 위해 여러 프레임 속도(frame rates)로 비디오 이미지들을 샘플링할 수 있다. 하기에 개시된 바와 같이, 다른 관점들에서 포착된 사용자의 경우, 여러 이목구비의 상대적 위치를 판단하기 위해 이미지 및 심도 데이터가 분석될 수 있다. 한 실시예에서는 오른쪽 귀(E1), 오른쪽 눈(e1), 코(N), 왼쪽 눈(e2), 왼쪽 귀(E2)가 이미지 및 심도 데이터에서 식별되고 추적될 수 있다.
도 2i는 본 발명의 실시예에 따라 안면의 여러 이목구비들의 상대적 위치의 변화(예. 차이값(delta values))를 도시하는 일련의 세 이미지들을 도시한다. 280 프로파일의 사용자는 깊이 감지 카메라를 마주보고 있다. 이러한 각도에서, 사용자 코(N)의 위치는 사용자 눈들(e1, e2) 또한 귀들(E1, E2)의 위치와 비교해서 판단 될 수 있다. 다른 사용자들은, 귀들(E1, E2)의 상대적 위치가 280 프로파일에서 판단되지 못할 수 있다. 이러한 경우, 사용자의 눈들과 코의 상대적 위치에서 식별이 가능하다. 사용자를 식별하기 위해서, 이목구비의 상대적 위치 가 와이어 프레임 모델 매트릭스와 비교될 수 있다. 사용자가 식별되면, 컴퓨터 시스템은 적합한 사용자 프로파일을 자동 적용할 수 있다. 또한, 다른 실시예들에 있어서, 컴퓨터 시스템은 사용자 두부의 위치를 모니터하고 추적하기 위해 심도 감지 카메라의 이미지 및 심도 데이터를 모니터할 수 있다. 또 다른 실시예에 있어서, 이미지 및 심도 데이터는 공간 내에서 사용자가 보고 있는 곳을 판단하기 위해 사용자의 눈 움직임들을 추적할 수 있다.
282 프로파일은 사용자의 머리(250)를 왼쪽으로 돌릴 때 사용자의 이목구비의 상대적 위치가 어떻게 변하는지 도시한다. 280 프로파일과 282 프로파일을 비교하면, 사용자의 왼쪽 귀(E2)가 더 이상 심도 감지 카메라에게 보이지 않는 반면, 오른쪽 귀(E1)는 더 잘 보인다. 이와 같이, 왼쪽 눈(e2)은 심도 감지 카메라에서 멀리 떨어지게 되고, 오른쪽 및 왼쪽 눈(e2, e1)사이의 종횡비(aspect ratio)는 변경된다. 이러한 실시간 이미지 및 심도 데이터로부터 컴퓨터 시스템은 사용자와 메모리에 저장된 와이어 프레임 모델들을 맞추도록 시도할 수 있다. 282 프로파일에서, 심도 감지 카메라 데이터는 왼쪽 눈(e2)의 깊이 위치를 표시할 수 있다. 동시로, 심도 감지 카메라에 포착된 이미지 데이터가 분석되고, 왼쪽 눈(e2)의 상대적 크기가 판단될 수 있다. 이와 같이, 심도 감지 카메라는 오른쪽 귀(E1), 오른쪽 눈(e1), 및 왼쪽 눈(e2)에 대한 코(N)의 변화를 인식할 수 있다.
284 프로파일은 머리를 돌린 사용자의 왼쪽 면을 도시한다. 이러한 관점에서, 심도 감지 카메라는 사용자의 오른쪽 귀(E1), 오른쪽 눈(e1), 및 코(N)의 완전한 측면을 포착한다. 심도 감지 카메라에게 보이는 이목구비의 상대적 위치를 판단하고, 상대적 위치는 와이어 프레임 모델 매트릭스에서 사용자를 식별하고 추적하는데 사용될 수 있다. 도 2i를 참조해서 서술된 프로파일들은 단순화되었으며, 일례로 고려되어야 한다. 다른 실시예들은, 이목구비 비율 범위를 생성하기 위해 초당 이미지 및 심도 데이터의 다수 프레임들이 포착될 수 있다. 샘플링된 범위는 와이어 프레임 모델 매트릭스 내의 움직임의 범위와 비교될 수 있다. 도 2i에 도시된 바와 같이, 얼굴 위치의 여러 비율들이 사용자가 머리를 양쪽으로 돌릴 때 추적될 수 있다. 이와 같이, 다른 실시예들에서는, 사용자의 눈, 코, 입의 상대적 위치를 경계 짓는 수평선들을 사용해서, 사용자가 두부를 앞으로 숙이거나 뒤로 들 때 다른 비율들이 사용될 수 있다. 사용자가 머리를 앞으로나 뒤로 움직이면, 심도 감지 카메라에 포착된 수평선들 사이의 상대적 간격은 두부가 뒤로나 앞으로 기울어진 정도를 판단하기 위해 연산될 수 있다.
도 2j는 본 발명의 실시예에 따라 사용자 두부의 이미지 및 심도 데이터를 획득하는 절차를 도시하는 예시적 흐름도이다. 하기 과정들은 컴퓨터 시스템이 향후에 사용자를 인식하도록 사용자 프로파일을 생성하거나 변경할 때 사용될 수 있다. 285 과정에서는 사용자의 두부 스캔을 시작한다. 이러한 과정은 도 2g에서와 같이 사용자 프로파일을 생성하거나 변경할 때 시작될 수 있다. 285 과정에서는 심도 감지 카메라가 사용자 두부 영역에 초점을 맞추도록 한다. 한 실시예에서는 사용자가 심도 감지 카메라에 대하여 특정 위치에 서있도록 요구할 수 있다. 다른 실시예에서는 심도 감지 카메라가 사용자를 향해 이미지 및 심도 감지 요소들의 초점을 옮길 수 있다. 다수의 사람들이 심도 감지 카메라 앞에 있는 경우, 장면의 표시를 사용해서 사용자로 하여금 어떤 사람이 스캔될 지 선택하도록 할 수 있다.
287 과정에서는 두부 영역의 이미지 및 심도 데이터를 수집한다. 종전에 서술된 바와 같이, 이러한 과정은 사용자가 여러 방향으로 머리를 돌리도록 요구할 수 있다. 이는 여러 자세에 있는 사용자의 머리를 심도 감지 카메라가 포착하도록 한다. 288 과정에서는 이미지 및 심도 데이터에 근거하여 사용자 두부의 모델을 생성한다. 한 실시예에 있어서, 심도 데이터 사용자 머리의 3 차원 와이어 프레임 모델을 구성하는데 사용될 수 있다. 컴퓨터 프로그램은 와이어 프레임 모델을 사용하여 이목구비의 상대적 위치를 판단할 수 있다. 위치 데이터와 모델은 289 과정에서 저장되며, 사용자 프로파일로 연계될 수 있다. 종료 과정인 290 과정에서는 다른 과정들이 따를 수도 있지만 흐름도는 종결짓는다.
도 2k는 본 발명의 실시예에 따라 심도 감지 카메라의 시야 내에 있는 사용자를 식별하는 절차에 따른 예시적 과정들을 도시하는 예시적 흐름도이다. 291 과정에서는 심도 감지 카메라의 시야 내에 있는 이동 물체들이 식별된다. 하기에 서술된 바와 같이, 이동 물체는 고양이나 강아지와 같은 애완동물이 될 수 있다. 애완동물을 식별하고 추적할 때, 다른 과정들이 필요할 수 있다. 뒤따른 과정들은 사람을 식별하고 추적하는 것과 연관되어 있지만, 사람이 아닌 사용자들을 추적하기 위해 변경될 수 있다. 292 과정에서는 이동 물체들 중 사용자의 두부를 감지하도록 시도한다. 한 실시예에 있어서, 컴퓨터 시스템은 눈과 같은 유전적 안면 특성들을 사용해 두부를 유전적으로 식별할 수 있다. 따른 실시예들에 있어서, 두부는 이로 한정되지는 않지만, 눈과 입 또는 눈과 코와 같은 안면 특성들의 조합을 사용해서 식별될 수 있다.
293 과정에서는 저장된 사용자 모델과의 비교에 근거해서 인식 가능한 안면 프로파일이 검색될 때 까지 두부를 추적하는 것이 시작된다. 두부에 고정시키고 두부를 추적하는 것은 컴퓨터 시스템이 저장된 사용자 머리 및 안면 데이터를 실시간 이미지 및 심도 데이터와 비교할 수 있도록 한다. 심도 감지 카메라는 사용자를 식별하기 위해 실시간 이미지 및 심도 데이터의 프레임들과 와이어 프레임 모델의 인식 가능한 안면 프로파일들을 비교할 수 있다. 한 실시예에 있어서, 컴퓨터 시스템은 실시간 이미지에 있는 두부의 각도를 판단하기 위해 이미지 데이터를 분석하고, 안면 및 두부 데이터를 저장된 와이어 프레임 모델들 중 유사한 자세를 가진 데이터에 비교할 수 있다. 294 과정에서는 저장된 사용자 프로파일의 심도 및 이미지 데이터와 실시간으로 감지된 사용자의 특징들이 확인된다. 295 과정에서는 사용자가 식별되고, 사용자 프로파일이 저장된 것을 확인한다. 종료 과정인 299 과정은 다른 과정들이 따를 수 있지만, 상기 절차를 마친다.
294 과정에서 심도 및 이미지 데이터가 확인되지 않으면, 296 과정에서 실시간 사용자가 식별되지 않은 것으로 인식한다. 298 과정에서는 컴퓨터 시스템이 사용자에게 고정되고 사용자를 추적하는 것을 한 번 더 시도할 지 판단한다. 다른 실시예들에서는, 컴퓨터 시스템이 사용자를 식별하기 위해 미리 정해진 수만큼 시도하도록 임계값을 설정할 수 있다. 다른 실시예들에 있어서, 컴퓨터 시스템이 사용자를 식별하도록 끊임없이 시도하도록 할 수 있다. 또 다른 실시예들에서는 사용 가능한 컴퓨터 자원들에 근거해서 사용자를 식별하도록 가변수(variable number)의 시도를 할 수 있다. 사용자에게 고정시키는 다른 시도를 할 경우, 293 과정이 수행된다. 297 과정에서는 사용자에게 고정하는 더 이상의 시도가 없을 경우, 내정된 프로파일이 유지된다.
도 3a 내지 3c는 본 발명의 실시예에 따라 애완동물의 사용자 프로파일을 생성하는데 사용될 수 있는 예시적 스크린의 간략한 일군을 도시한다. 도 3a는 도 2e에서 버튼(208)을 선택한 결과의 장면(200b)을 도시한다. 장면(200b)은 강아지 아이콘(212)이 선택되는 것을 도시한다. 도 3b는 본 발명의 실시예들에 따라 강아지 아바타를 생성하는 다른 방법들을 나타내는 장면들(300a, 300b)을 도시한다. 300a 장면은 강아지의 다양한 양면의 이미지들을 포착하는 심도 감지 카메라를 사용해서 아바타를 생성하는 과정을 도시한다. 컴퓨터 시스템은 심도 감지 카메라의 시야 내에 있을 때 강아지가 인식되게 하는 프로파일 정보와 함께 강아지 아바타를 자동 생성하기 위해 다른 이미지들을 처리할 수 있다.
300b 장면은 본 발명의 한 실시예에 따른 다른 강아지 아바타 생성 장면이다. 300b 장면은 강아지 아바타를 생성하도록 다양한 강아지의 특징들을 선택하게 할 수 있다. 예를 들어, 한 실시예에서는 사용자가 강아지 아바타의 상대적 크기를 선택함으로써, 시작할 수 있다.
도 4a는 본 발명의 실시예에 따라 사용자들에게 지정된 여러 미디어 소스 권한들을 보이는 예시적 표(400)를 도시한다. 비디오 게임 권한들(402)은 엔터테인먼트 소프트웨어 등급 위원회(Entertainment Software Rating Board; ESRB)가 지정한 등급에 따라 다양한 사용자들에게 지정될 수 있다. 이와 같이, 텔레비전 권한들(404)은 텔레비전 부모 지침(television parental guidelines)에 따라 사용자 각각의 권한이 설정될 수 있다. 다양한 실시예들에서는, 컴퓨터 시스템이 설치된 국가에 따라 다른 텔레비전 부모 지침이 로드될 수 있다. 미국에 설치된 컴퓨터 시스템은, 미국 영화 협회(Motion Picture Association of America; MPAA)의 등급 시스템이 각각의 사용자에게 지정될 수 있다. 이와 같이, 인터넷 권한들(408)은 특정 사용자 콘텐츠의 접속을 필터링하고 제한하도록 설정될 수 있다. 음악(410)에 접속할 수 있도록 설정된 컴퓨터 시스템의 실시예들에 있어서, 부모 자문 레이블(Parental Advisory Label;PAL)로 사용자가 음악을 청취하거나 청취할 수 없게 권한을 설정할 수 있다. 도 4a에 도시된 권한들의 종류는 일례일 뿐, 추가적인 권한들도 지정될 수 있으므로, 이로 한정되는 것으로 여겨서는 안 된다.
사용자에게 지정된 권한들은 컴퓨터 시스템을 통해 접속할 수 있는 다양한 모양의 미디어에 자동 적용될 수 있다. 예를 들면, 아들(206)이 심도 감지 카메라의 시야에 진입하고, 컴퓨터 시스템에 의해 인식될 때, 컴퓨터 시스템은 도 4a에 열거된 권한들을 자동 로드할 것이다. 그러므로 아들(416)은 ESRB의 E 등급을 가진 비디오 게임들과, 부모의 TV 지침서(parental guideline)에 따른 Y7의 텔레비전 쇼들과, MPAA의 G 등급을 가진 영화들만 접속할 수 있다. 나아가, 컴퓨터 시스템을 사용한 인터넷 접속은 특정 네트 필터(net filter)를 적용하고, PAL를 가진 음악은 차단될 것이다.
컴퓨터 시스템에 의하여 하나 이상의 사용자가 인식된 경우, 가장 제한이 적은 권한이 실행된다. 이에, 아들(206)과 아빠(202)가 식별된 경우, 컴퓨터 시스템은 아빠(202)의 권한들을 실행시킬 것이다. 이와 같이, 딸(204)과 아들(206)이 식별되면, 딸(204)의 권한들이 실행될 것이다.
도 4b는 본 발명의 실시예에 따라 사용자들이 만든 애니메이션들을 도시하는 예시적 표이다. 사용자들은 심도 감지 카메라의 시야 내에서 식별된 사용자가 걸을(412) 때 장면에 표시될 수 있는 아이콘들 각각을 선택하거나 생성할 수 있다. 도 4b에 도시된 바와 같이, 아들이 심도 감지 카메라 앞으로 걸어갈 때 파란 운동화(416)가 현실 세계에서 방을 가로지르는 아들의 경로를 추적해서 장면에 표시될 수 있다. 이와 같이, 딸의 걸음 경로에는 핑크색 발자국(418)이 지정되고, 멍멍이의 경로에는 검은 발바닥 자국(420)들이 지정될 수 있다.
달리기(414)와 같은 액션들을 위한 애니메이션들이 사용자들에게 지정될 수 있다. 예를 들면, 아들이 뛸 때, 아바타 애니메이션은 파란 운동화(416)에서 아들의 아바타가 스케이트보드(422)를 타는 애니메이션으로 자동 변환할 수 있다. 이와 같이, 컴퓨터 시스템에 의하여 딸이 뛰는 것으로 인식될 때, 딸의 핑크빛 발자국(418)은 카메라 시야 내에서 뛴 기간 및 거리 동안에는 인라인 스케이트(414)로 변할 수 있다. 멍멍이까지도 멍멍이가 뛴 곳에 검은 발바닥 자국(420)이 빨간 발바닥 자국(424)으로 변할 수 있다. 추가적 애니메이션 종류들은 이로 한정되지는 않지만, 장면 내의 특정 물체들과 상호작용하는 애니메이션들이나 인식된 사용자들의 조합이 방안에 있을 때의 애니메이션들을 포함하도록 설정될 수 있다. 특정 애니메이션들은 가능한 애니메이션의 예를 제공하기 위한 것이며, 이로 한정되지는 않는다.
도 5a는 본 발명의 실시예에 따라 처리된 비디오로 장면(10a, 10b)에 표시된 현실 세계의 장면(500)을 포함하는 공간(501)을 도시하는 도면이다. 현실 세계의 장면(500)은 심도 감지 카메라(110)의 시야 내에 있는 강아지(502)와 소파(504)를 포함한다. 심도 감지 카메라(110)는 컴퓨터 시스템(120)으로 이미지 데이터를 제공한다. 컴퓨터 시스템(120)은 장면(508)에 처리된 비디오(10a, 10b)를 제공한다. 현실 세계의 장면(500)에서는 강아지(502)가 소파(504)에 뛰어 오른다.
도 5b는 본 발명의 실시예에 따라 예시적으로 처리된 비디오(10a, 10b)를 도시한다. 제 1의 처리된 비디오(10a)는 강아지(502)가 시간 경과에 따라 소파(504) 위에서 걷는 모습을 추적한 컴퓨터 시스템의 결과물을 도시한다. 도시된 바와 같이, 발바닥 자국(512)으로 생성된 과거 경로(historical path)는 강아지 아바타(502a)에 의하여 가상 세계의 소파(504a)에 생성된다. 처리된 비디오(10a)는 장면(110)에서 심도 감지 카메라에 의하여 포착된 이미지 및 심도 데이터에서 강아지를 인식한 컴퓨터 시스템의 결과물이다. 컴퓨터 시스템으로 인식하기 위해 강아지(502)를 정하는 과정의 일부로 사용자는 강아지(502)와 발바닥 자국(512) 애니메이션을 연계시키고 저장할 수 있다. 다른 실시예들에 있어서, 강아지의 실시간 영상 이미지들이 강아지 아바타(502a) 대신 사용될 수 있다. 강아지(502)가 컴퓨터 시스템에 의해 인식되지 않는 실시예들에 있어서, 내정된 추적 심볼 또는 아이콘의 일군이 처리된 비디오(10a)로 로드되거나 표시될 수 있다.
제 2의 처리된 비디오(10b)는 본 발명의 실시예에 따라, 소파(504)와 상호작용 하는 강아지(502)에 특정된 또 다른 애니메이션을 도시한다. 이러한 실시예에서, 사용자는 현실 세계에서 강아지가 현실세계의 소파 위를 걷는 곳마다 찢어지는 가상 세계의 소파(504a)를 도시하는 애니메이션을 설정해놓았다. 상기 전술된 바와 같이, 컴퓨터 시스템은 재생되고 저장될 수 있는 심도 감지 카메라 앞에서 발생한 사용자 액션들의 로그 파일 또는 과거 경로들을 생성할 수 있다. 이러한 경우, 사용자는 컴퓨터 시스템이 장면을 모니터 하고 현실 세계의 강아지의 움직임들을 재생하도록 설정할 수 있다. 간단한 예를 위해서, 처리된 비디오들(10a, 10b)은 강아지기가 소파에 뛰어 오르기 전의 추적된 움직임들은 도시하지 않는다. 한편, 여러 실시에들에서는 로그된 애니메이션들을 통해 강아지의 움직임들을 추적하고, 바닥의 여러 발자국들과 뜯어진 소파를 도시하는 일정 시간 동안의 비디오(time laps video)를 생성할 수 있다.
도 6은 본 발명의 실시예에 따라 현실 세계의 장면(600)을 도시하고, 현실 세계 장면(600)이 어떻게 처리된 비디오(10c)로 장면에 표시되는지 도시한다. 현실 세계의 장면(600)은 사용자(602)가 심도 감지 카메라(110)의 앞을 뛰어가는 장면을 포함한다. 심도 감지 카메라(110)는 달리는 사용자(602)의 영상 이미지들을 포착하고, 처리하기 위해 컴퓨터 시스템(120)으로 송신 한다. 처리된 영상 데이터는 컴퓨터 시스템(608)에서 장면(604)로 송신되고, 처리된 비디오(10c)로 표시된다. 처리된 비디오(10c)의 상세한 장면은 사용자(602)를 대표하는 아바타(602')를 포함한다. 또한, 상세한 장면에 도시된 바와 같이, 사용자(602)의 달리기에 응한 아바타(602')의 애니메이션이 도시된다. 한 실시예에 있어서, 애니메이션은 속도감을 전달하기 위해 아바타(602')의 흐려지는 움직임(motion blurs)(610)을 포함한다. 다른 실시예에서는 아바타(602')가 달리는 것이 감지되기 전에 서있던 곳에 먼지바람(puffs of clouds)(612)이 나타날 수 있다. 다른 실시예에서는, 달리기에 응하여 아바타(602')의 신발이나 발에 불꽃이 표시될 수도 있다. 한 실시예에 있어서, 도 5a 내지 도 6을 참조하여 전술된 과거 경로와 애니메이션은 재생되기 위해 컴퓨터 시스템과 연관된 메모리에 저장될 수 있다. 다른 실시예들에 있어서, 메모리는 하드 드라이브나 비휘발성 기억 장치(nonvolatile memory)와 같은 국부적 저장 장치(local storage device)가 될 수 있다. 다른 실시예들에 있어서, 과거 경로들 및 애니메이션들은 인터넷을 통한 원격 저장부에 업로드될 수 있다.
도 7은 인식된 물체들을 식별하고 추적하는 것을 개선하기 위해 포인트 추적(point tracking) 방법을 적용하는 과정들을 도시하는 예시적 흐름도이다. 700 과정에서는 심도 감지 카메라를 사용해서 장면의 제 1 이미지가 포착된다. 702 과정에서는 장면의 제 2 이미지를 포착하기 위해 심도 깊이 카메라가 사용된다. 정지 물체들을 식별하기 위해, 제 1 및 제 2 이미지를 포착하는 시간차는 다를 수 있다. 다른 실시예들에서는, 이미지들이 몇 분의 일 초 또는 몇 초마다 샘플링될 수 있고, 또 다른 실시예들에서는 몇 분, 시간, 또는 며칠을 사이에 두고 샘플링될 수 있다. 704 과정에서는 제 1 이미지와 제 2 이미지를 비교해서 장면 내의 정지 물체들을 판단한다. 이러한 비교 과정은 제 1 이미지에서 확인된 포인트들을 제 2 이미지의 해당 포인트들과 일치시켜본다. 제 1 이미지 및 제 2 이미지 사이에서 움직이지 않은 경우, 식별된 포인트가 정지한 것으로 판단될 수 있다. 한 실시예에 있어서, 심도 감지 카메라는 연산 소요(computing overhead)를 줄이는 정지 물체들을 지속적으로 갱신하기 위해 주기적으로 이미지들을 샘플링한다. 706 과정은 장면 내의 식별된 정지 물체들의 고정된 포인트들을 연관시켜, 장면 내의 정지 물체의 모델을 구성한다. 708 과정에서는 심도 감지 카메라의 시야 내에 있는 물체들을 추적하고 식별하는데 도움을 주기 위하여 연관된 고정 포인트들이 메모리에 저장된다.
도 8은 본 발명의 실시예에 따라 포인트 추적을 도시하는 장면(800)의 예시적 장면이다. 장면(800)은 컴퓨터 시스템(120)에 이미지 데이터를 제공하는 심도 감지 카메라(110)를 포함한다. 컴퓨터 시스템(120)은 이미지 데이터를 처리하고, 장면(802)에 표시될 처리된 비디오를 제공한다. 장면은 또한 소파(806)와 램프(812)와 같은 정지 물체들을 포함한다. 한 실시예에 있어서, 컴퓨터 시스템(810)은 심도 감지 카메라(110)에 의하여 포착된 두 이미지들을 비교해서 장면(800)의 어떤 물체들이 정지한지 판단할 수 있다. 컴퓨터 시스템(120)은 제2 이미지에서 움직이지 않은 제 1 이미지 내의 포인트들 식별할 수 있는 소프트웨어를 실행할 수 있다. 움직이지 않는 포인트들은 정지 포인트로 지정될 수 있다. 도 8 에 있어서, 소파(806)에서 정지 포인트들(808)이 식별되고, 램프(812)에서 정지 포인트들이 식별되었다. 컴퓨터 시스템(120)은 정지 포인트들을 서로 연관시켜(co-relate) 장면(800) 내에서 물체들의 상대적 위치를 정할 수 있다. 알려진 상대적 위치들을 사용해서 컴퓨터 시스템(120)은 장면(800) 내에서 움직이는 사용자들과 같은 현실 세계의 물체를 대표하는 아바타들이 신속하게 표시되도록, 심도 감지 카메라(110)에서 이미지 데이터를 더욱 효율적으로 처리할 수 있다.
다른 실시예들에 있어서, 이미지와 심도 데이터, 및 포인트 추적방법은 정지 물체들의 부분적인 와이어 프레임들 또는 뼈대(skeleton)가 만들어지게 할 수 있다. 예를 들어, 소파(806)와 연관된 정지 포인트들(808)은 소파(806)의 부분적 와이어 프레임 모델을 생성하는데 사용될 수 있다. 텍스쳐 맵(texture map)이 와이어 프레임 모델에 적용되어, 사용자들이 실제 소파(806)의 이미지 및 심도 데이터에서 생성된 가상 소파를 변경하고 커스토마이징할 수 있도록 한다. 예를 들면, 여러 종류의 직조 또는 무늬 있는 직물에서부터 가죽 및 인조 재료까지 사용자는 소파의 재료를 변경할 수 있다. 텍스쳐 맵은 이로 한정되지는 않지만, 장면(800)의 벽면과 램프(812)를 포함하는 어떠한 장면 내의 정지 물체에도 적용될 수 있다. 사용자는 현실 세계 방의 이미지 및 심도 데이터를 포착하는 심도 감지 카메라(110)로 방을 스캔할 수 있다. 그리고 사용자는 현실 세계의 방을 대표하는 가상 세계의 대표물을 커스토마이징할 수 있다. 이미지 및 심도 데이터는 벽면 색깔을 변경하거나 벽지 또는 원목 패널과 같이 무늬 있는 여러 종류의 벽면을 적용하는데 사용될 수 있다.
도 9는 본 발명의 실시예에 따라 사용자에 의해 정해진 컨트롤러들을 생성하기 위해 동적인 3 차원 물체의 매핑(mapping)을 활용할 수 있는 컴퓨터 시스템, 소니? 플레이스테이션 3? 엔터테인먼트 장치의 전체 시스템 구조를 개략적으로 도시한다. 시스템부(1000)는 시스템부에 연결 가능한 다양한 주변 장치들과 함께 제공된다. 시스템부(1000)는 셀 프로세서(Cell processor)(1028), 램버스® 동적 임의 접근 메모리부 (Rambus® XDRAM)(1026), 전용 비디오 임의 접근 메모리(VRAM)를 가진 리얼리티 신디사이저(Reality Synthesizer) 그래픽부(1030), 및 I/O 브리지(I/O bridge)(1034)를 포함한다. 또한 시스템부(1000)는 디스크(1040a)를 판독하는 블루 레이® 디스크 BD-ROM® 광학 디스크 리더(1040) 및 I/O 브리지(1034)를 통하 접속 가능한 분리성 슬롯-인 하드 디스크 드라이브(HDD)(1036)를 포함한다. 시스템부(1000)는 콤팩트 플래시 메모리 카드, 메모리 스틱® 메모리 카드 등을 판독하는 메모리 카드 리더(1038)를 선택적으로 포함한다.
I/O 브리지(1034)는 여섯 개의 USB(Universal Serial Bus;USB) 2.0 포트들(1024); 기가비트 이더넷(Ethernet) 포트(1022), IEEE 802.11b/g 무선 네트워크(Wi-Fi) 포트(1020; 및 일곱 개까지의 블루투스 연결을 지원할 수 있는 블루투스® 무선 링크 포트(1018)에 연결된다.
I/O 브리지(1034)는 운용 시, 하나 이상의 게임 컨트롤러들(1002)의 데이터를 포함하는 모든 무선, USB, 이더넷 데이터를 수용한다. 예를 들어 사용자가 게임을 할 때, I/O 브리지(1034)는 블루투스 링크를 통해 게임 컨트롤러(1002)에서 데이터를 수신하고, 게임의 현 상태를 갱신하는 셀 프로세서(1028)에게 그 데이터를 전달한다.
무선, USB, 및 이더넷 포트들은 게임 컨트롤러(1002) 외에도, 리모트 컨트롤(1004), 키보드(1006), 마우스(1008), 소니 플레이스테이션 포터블® 과 같은 휴대용 엔터테인먼트 장치(1010), 아이토이® 비디오카메라와 같은 비디오카메라(1012), 및 마이크 헤드셋(1014)과 같은 다른 주변 장치들에게 연결성을 제공한다. 이러한 주변 장치들은 원칙적으로 무선으로 시스템부(1000)에 연결될 수 있다. 예를 들면, 휴대용 엔터테인먼트 장치(1010)는 Wi-Fi 애드 혹(ad-hoc) 연결을 통해 통신하고, 마이크 헤드셋(1014)은 블루투스 링크를 통해 통신할 수 있다.
이러한 인터페이스들이 제공됨으로써, 플레이스테이션 3 장치가 디지털 비디오 리코더(DVR), 셋 톱(set-top) 박스, 디지털 카메라, 휴대용 미디어 플레이어, 인터넷 전화, 휴대용 전화, 프린터, 및 스캐너와 같은 다른 주변 기기들과도 호환 가능할 수 있다.
또한, 레거시(legacy) 메모리 카드 리더(1016)는 USB 포트(1024)를 통해 시스템부(1000)에 연결되어, 플레이스테이션® 또는 플레이스테이션 2® 장치에서 사용되는 종류의 메모리 카드들(1048)을 판독할 수 있도록 한다.
본 실시예에서는 게임 컨트롤러(1002)가 블루투스 링크를 통해 시스템부(100)와 무선으로 통신하도록 운용가능하다. 한편, 게임 컨트롤러(1002)는 USB 포트에 대신 연결될 수 있어서, 게임 컨트롤러(1002)의 배터리를 충전하는 전력이 제공될 수 있다. 하나 이상이 아날로그 조이스틱들과 전형적인 제어 버튼들 외에도, 게임 컨트롤러는 각 축에 대하여 변형(translation) 및 회전에 해당하는 여섯 개의 자유도들에 대한 움직임을 감지한다. 따라서 게임 컨트롤러 사용자의 몸짓과 움직임들은 전형적인 제어 버튼들과 조이스틱 명령들을 대신하거나 추가적으로 게임 입력으로 번역될 수 있다. 선택적으로, 플레이스테이션 포터블 장치와 같은 무선통신이 가능한 다른 주변 장치들이 컨트롤러로 사용될 수 있다. 플레이스테이션 포터블 장치의 경우, 장치 장면에 (예를 들어, 제어 명령 또는 명 수(number of lives)와 같은) 추가적인 게임 또는 제어 정보가 제공될 수 있다. 댄스 매트(dance mat)(미도시), 라이트 건(light gun)(미도시), 운전대와 페달(미도시), 또는 스피드 퀴즈 게임을 위한 단일의 또는 다수의 큰 버튼들과 같은 맞춤형(bespoke) 컨트롤러(미도시)와 같은 다른 대체 또는 보조 제어 장치들도 사용될 수 있다.
리모트 컨트롤(1004)은 블루투스 링크를 통해 시스템부(1000)와 무선으로 통신하도록 운용될 수 있다. 리모트 컨트롤(1004)은 블루 레이 디스크 BD-ROM 리더(1040)의 운용과 디스크 콘텐츠의 내비게이션(navigation)에 적합한 제어부들을 포함한다.
블루 레이 디스크 BD-ROM 리더(1040)는 전형적인 미리 기록되거나 기록 가능한 CD들, 및 슈퍼 오디오 CD(Super Audio CD)들 뿐만 아니라, 플레이스테이션 및 플레이스테이션 2 장치들과 호환 가능한 CD-ROM들을 판독하도록 운용될 수 있다. 또한 리더(1040)는 전형적인 미리 기록되거나 기록 가능한 DVD들 뿐만 아니라, 플레이스테이션 2 및 플레이스테이션 3 장치들과 호환 가능한 DVD-ROM들을 판독하도록 운용될 수 있다. 나아가, 리더(1040)는 전형적인 미리 기록되거나 기록 가능한 블루 레이 디스크들뿐만 아니라, 플레이스테이션 2 및 플레이스테이션 3 장치들과 호환 가능한 BD-ROM들을 판독하도록 운용될 수 있다.
시스템부(1000)는 리얼리티 신디사이저 그래픽부(1030)를 통해 플레이스테이션 3에 의하여 생성되거나 복호화된 오디오 및 영상을 오디오 및 비디오 연결부들을 통해 표시부(1044) 및 하나 이상의 확성기들(1046)과 같은 표시 및 음향 출력 장치(1042)에 제공하도록 운용될 수 있다. 오디오 연결부(1050)는 전형적인 아날로그 및 디지털 출력부를 포함할 수 있고, 비디오 연결부(1052)는 다양하게 컴포넌트 비디오(component video), S-비디오, 컴포지트 비디오(composite video) 및 하나 이상의 고화질 멀티미디어 인터페이스(High Definition Multimedia Interface;HDMI) 출력부들을 포함할 수 있다. 따라서 비디오 출력부는 PAL이나NTSC, 또는 750p, 1080i, 및 1080p의 고화질 형식을 가질 수 있다.
오디오 처리(생성, 복호화 등) 과정은 셀프로세서(1028)에 의하여 수행된다. 플레이스테이션 3 장치의 운용 시스템은 돌비® 5.1 서라운드 사운드(surround sound), 돌비® 시어터 서라운드(Theatre Surround)(DTS), 및 블루 레이® 디스크의 복호화된 7.1 서라운드 사운드를 지원한다.
본 실시예에 있어서, 비디오카메라(1012)는 단일의 전하 결합 소자(charge coupled device; CCD), LED 표시부, 하드웨어 기반 실시간 데이터 압축 및 부호화 장치를 포함하여, 압축된 영상 데이터가 시스템부(1000)에 의하여 복호화되기 위한 인트라 이미지(intra-image) 기반 MPEG(동영상 전문가 그룹(motion picture expert group)) 표준과 같은 적합한 형식으로 전송되도록 한다. 카메라 LED 표시부는 예를 들어, 부적합한 조명 조건을 알리기 위한 시스템부(100)의 제어 데이터에 응하여 발광하도록 배치된다. 비디오 카메라(1012)의 실시예들은 USB, 블루투스 또는 와이 파이 통신 포트를 통해 시스템부(1000)에 다양하게 연결될 수 있다. 비디오카메라의 실시예들은 오디오 데이터를 전송할 수 있는 하나 이상의 연관된 마이크롤 포함할 수 있다. 비디오카메라의 실시예들에 있어서, CCD가 고화질 비디오 캡처(video capture)를 위해 적합한 해상도를 가질 수 있다. 사용 시, 비디오 카메라로 포착된 이미지들은 일례로, 게임에 포함되거나, 게임 제어 입력으로 해석될 수 있다.
일반적으로, 시스템부(1000)의 통신 포트들 중 하나를 통한 비디오 카메라 또는 리모트 컨트롤과 같은 주변 장치와의 성공적인 데이터 통신을 위하여, 장치 드라이버와 같은 적합한 소프트웨어가 제공되어야 한다. 장치 드라이버 기술은 잘 알려지고, 본 명세서에서 서술되지 않을 것이다. 당업자는 서술된 본 실시예에 필요한 장치 드라이버 또한 유사한 소프트웨어 인터페이스를 알 수 있을 것이다.
실시예들은 현실 세계 사용자를 더 잘 식별하고, 장면 또는 아바타의 활동을 더 잘 지시하는 심도 데이터를 포착하는 방법을 포함할 수 있다. 물체는 사람이 들고 있거나 사람 손 안에 있는 어떠한 것이 될 수 있다. 본 상세한 설명에 있어서, '심도 카메라(depth camera)' 및 '3 차원 카메라'의 용어들은 거리 또는 심도 정보와 2 차원 픽셀 정보를 획득할 수 있는 카메라를 가리킨다. 예를 들면, 심도 카메라는 거리 정보를 얻기 위해 제어된 적외선 조명을 사용할 수 있다. 심도 카메라의 다른 예로는 두 개의 스탠더드 카메라들을 사용하여 거리 정보를 3각 측량하는 한 쌍의 스테레오 카메라가 될 수 있다. 이와 같이, '심도 감지 장치(depth sensing device)'의 용어는 거리 정보 및 2 차원 픽셀 정보를 얻을 수 있는 종류의 장치를 가리킨다.
근래의 3 차원 이미지의 진보로 실시간 인터랙티브(interactive) 컴퓨터 애니메이션에 많은 가능성들을 비추었다. 특히, 새로운 '심도 카메라들'은 보통의 2 차원 비디오 이미지 외에도 3 차원 이미지를 포착하고, 매핑할 수 있는 능력을 제공한다. 새로운 심도 데이터로, 본 발명의 실시예들은 다른 물체들 뒤에 있는 장면을 포함한 영상 장면 내의 여러 위치들에 있는 컴퓨터로 생성된 물체들이 배치될 수 있도록 한다.
또한, 본 발명의 실시예들은 사용자들에게 실시간 인터랙티브 게임 경험들을 제공한다. 예를 들면, 사용자들은 실시간을 컴퓨터가 생성한 여러 물체들과 상호작용할 수 있다. 나아가, 영상 장면들은 사용자의 게임 경험을 향상시키기 위해 실시간으로 변경될 수 있다. 예를 들면, 컴퓨터에 의하여 생성된 의상들은 사용자의 옷 위에 삽입될 수 있고, 컴퓨터가 생성한 광원들은 비디오 장면 내에서 가상 그림자를 비추기 위해 사용될 수 있다. 이에, 본 발명의 실시예들과 심도 카메라를 사용해서, 사용자들이 그들의 거실 내에서 인터랙티브한 게임 환경을 경험할 수 있다. 보통의 카메라들과 비슷하게, 심도 카메라는 영상 이미지를 구성하는 다수의 픽셀들의 2 차원적 데이터를 포착한다. 이러한 값들은 픽셀들 각각의 빨강, 초록, 파랑(RGB) 값들과 같은 픽셀들의 색상 값들이다. 이러한 방식으로 카메라에 포착된 물체들은 모니터에 2 차원적 물체들로 나타난다.
본 발명의 실시예들은 분산 영상 처리(distributed image processing) 구성을 수용한다. 예를 들면, 본 발명은 포착된 이미지 및 CPU또는 CPU와 하나의 다른 요소에서와 같이 하나 또는 두 개의 장소들까지에서 일어나는 표시 영상 처리(display image processing)로 한정되지 않는다. 예를 들면, 입력 이미지 처리는 처리를 수행할 수 있는 연관된 CPU, 프로세서 또는 장치에서 곧바로 이루어질 수 있다. 본질적으로 모든 이미지 처리는 상호 연결된 시스템 전반에 거쳐 분산될 수 있다. 그러므로 본 발명은 특정 이미지 하드웨어 회로 및/또는 소프트웨어로 한정되지 않는다. 본 명세서에 서술된 실시예들은 일반적인 하드웨어 회로 및/또는 소프트웨어의 특정 조합이나 처리 구성요소들에 의해 실행되는 명령어들의 특정 근원지로 한정되지 않는다.
상기 실시예들을 염두에 둘 때, 본 발명이 컴퓨터 시스템들에 저장된 데이터를 포함하고, 컴퓨터에서 구현되는 다양한 운용들을 사용할 수 있는 것으로 이해되어야 한다. 이러한 운용들은 물질적 질량의 물질적 조종을 필요로 하는 운용들을 포함할 수 있다. 필수는 아니지만 대체로, 이러한 질량들은 저장되고, 전송되고, 조합되고, 비교되고, 조종될 수 있는 전자 또는 자기 신호의 형태를 가진다. 나아가, 조종하는 방법은 주로 제작, 식별, 판단, 비교 등의 용어들로 표현된다.
상술된 발명은 휴대용 장치들, 마이크로프로세서 시스템들, 마이크로프로세서 기반 또는 프로그램 가능한 소비자 가전들, 미니컴퓨터, 메인프레임컴퓨터 등과 같은 다른 컴퓨터 시스템 구조들과 함께 실행될 수 있다. 본 발명은 또한, 통신 네트워크를 통해 링크된 원격 처리 장치들에 의해 태스크(task)가 처리되는 분산 연산 환경들에서 시행될 수 있다.
또한 본 발명은 컴퓨터 판독 가능한 매체에 있는 컴퓨터 판독 가능한 코드로 구체화될 수 있다. 컴퓨터 판독가능 매체는 전자파기를 포함하는 컴퓨터 시스템에 의해 판독될 수 있는 데이터를 저장할 수 있는 데이터 저장 장치이다. 컴퓨터 판독가능 매체의 예로는 하드 드라이브, 네트워크에 접속하는 저장 장치(network attached storage;NAS), 판독 전용메모리, 랜덤 액세스 메모리, CD-ROM, CD-R, CD-RW, 자기 테이프, 및 다른 광학 및 비광학 데이터 저장 장치들이 있다. 컴퓨터 판독가능 매체는 네트워크에 연결된 컴퓨터 시스템에 분산될 수 있어서, 컴퓨터 판독가능 코드가 분산 방식으로 저장되고 실행될 수 있다.
본 발명은 명확한 이해를 위해 어느 정도 상세하게 설명되었지만, 특정 변형물들이 첨부된 청구항들의 범위 내에서 시행될 수 있다. 이에 따라, 본 실시예들은 제한하기 위한 것이 아닌 일례로 소개되었다. 본 발명은 본 명세서에 개시된 설명들로 한정되지 않으며, 첨부된 청구항들의 범위와 균등물들 내에서 변경 가능하다.

Claims (23)

  1. 하나 이상의 미디어 소스들(media sources)을 가진 공간에서 식별되고 추적된 사용자들에 대하여 미리 정해진 권한들(privileges)을 자동 적용하는, 컴퓨터에서 구현되는 권한 자동 적용 방법으로,
    (a)심도 감지 카메라(depth sensing camera)로 사용자를 식별하고 추적하여 얻어지는 사용자 식별 및 추적 데이터를 포함하는 사용자 프로파일을 정하고, 상기 사용자 프로파일을 메모리에 저장하는 과정;
    (b)상기 사용자 프로파일에 대하여 특정 미디어 접근 레벨을 정하는 권한들을 정하고 상기 메모리에 저장하는 과정;
    (c)이미지 및 심도 데이터(depth data)를 생성하는 상기 심도 감지 카메라를 사용해서 상기 공간 내에 있는 장면을 포착하는 과정;
    (d)상기 이미지 및 심도 데이터를 사용해서 상기 장면 내에 있는 상기 사용자를 식별하는 과정; 및
    (e)상기 사용자가 상기 장면 내에서 식별되고 추적될 때 하나 이상의 미디어 소스들에서 선택된 콘텐츠에 접속할 수 있도록, 상기 하나 이상의 미디어 소스들의 상기 정해진 권한들을 자동 적용하는 과정을 포함하는 것을 특징으로 하는 권한 자동 적용 방법
  2. 제 1항에 있어서,
    상기 장면을 포착하는 과정은
    정지 물체들(stationary objects)을 필터링하여 이동 물체들(moving objects)에게 초점을 맞추는 과정을 포함하고,
    상기 이동 물체들에게 초점을 맞추는 과정은
    상기 장면에서 두부 물체(head object)의 검색 여부를 판단하는 과정;
    상기 이미지 및 심도 데이터를 사용해서 상기 두부의 안면 이목구비(facial feature)들을 분석하는 과정;
    상기 안면 이목구비들이 상기 사용자에게 대응하는지 판단하는 과정; 및
    상기 사용자 프로파일에 대하여 특정 미디어에 접속 레벨들을 정하는 상기 권한들을 적용하는 과정을 포함하는 것을 특징으로 하는 권한 자동 적용 방법
  3. 제 2항에 있어서,
    상기 사용자 식별 및 추적 데이터는, 상기 안면 이목구비들이 상기 사용자에 대응하는 지의 여부를 판단하여 상기 장면에 있는 상기 사용자의 움직임을 추적하는 데이터를 포함하는 것을 특징으로 하는 권한 자동 적용 방법
  4. 제 2항에 있어서,
    상기 심도 데이터는 상기 사용자의 신체적 특징들의 3 차원적 상대적 위치를 식별하기 위해 사용되는 것을 특징으로 하는 권한 자동 적용 방법
  5. 제 2항에 있어서,
    상기 정지 물체들의 상기 심도 데이터는 상기 장면에서 상기 두부 물체의 검색 여부를 판단할 때 상기 장면에서 차감되는(subtracted out) 것을 특징으로 하는 권한 자동 적용 방법
  6. 제 1항에 있어서,
    상기 장면에서 하나 이상의 사용자 검색 여부를 판단하는 과정; 및
    하나 이상의 사용자가 검색되면, 가장 제한이 적은 사용자 프로파일과 연관된 권한들이 적용되는 과정을 더 포함하는 것을 특징으로 하는 권한 자동 적용 방법
  7. 제 1항에 있어서,
    상기 하나 이상의 미디어 소스들은 멀티미디어 콘텐츠를 제공하는 장치들을 포함하는 것을 특징으로 하는 권한 자동 적용 방법
  8. 제 7항에 있어서,
    상기 멀티미디어 콘텐츠는 상기 공간에 있는 표시부 장면에 부분적으로 표시되는 것을 특징으로 하는 권한 자동 적용 방법
  9. 미리 정해진, 컴퓨터에 의하여 생성된 효과들을 현실 세계 물체(real world object)들의 가상 세계 대표물(virtual world representation)들에 자동 적용하기 위해 상기 현실 세계 물체들을 식별하고 추적하는, 컴퓨터에서 구현되는 효과 자동 적용 방법으로,
    (a)심도 감지 카메라로 사용자를 식별하고 추적하여 얻어지는 사용자 식별 및 추적 데이터를 포함하는 사용자 프로파일을 정하고, 상기 사용자 프로파일을 메모리에 저장하는 과정;
    (b)가상 세계 장면에 통합될, 상기 사용자 프로파일과 연관된 애니메이션들을 정하고, 상기 메모리에 저장하는 과정;
    (c)상기 심도 감지 카메라를 사용해서 장면을 포착하는 과정;
    (d)상기 심도 감지 카메라를 사용해서 상기 장면 내에 있는 상기 사용자를 식별하는 과정; 및
    (e)상기 식별되고 추적된 사용자에 근거한 상기 정해진 애니메이션들을 자동 적용하여, 통합된 애니메이션들을 표시부 장면에 표시하는 과정을 포함하는 것을 특징으로 하는 효과 자동 적용 방법
  10. 제 9항에 있어서,
    상기 장면을 포착하는 과정은,
    정지 물체들을 필터링하여 이동 물체들에게 초점을 맞추는 과정을 포함하고,
    상기 이동 물체들에게 초점을 맞추는 과정은,
    상기 장면에서 이동 물체에 초점을 맞추는 과정;
    상기 심도 감지 카메라에 의해 포착되는 이미지 및 심도 데이터를 사용해서 상기 이동 물체의 특징들을 분석하는 과정; 및
    상기 이동 물체가 상기 사용자에게 대응하는지 판단하는 과정을 포함하는 것을 특징으로 하는 효과 자동 적용 방법
  11. 제 10항에 있어서,
    상기 사용자는 사람 또는 애완동물 중 어느 하나인 것을 특징으로 하는 효과 자동 적용 방법
  12. 제 11항에 있어서,
    상기 사용자 식별 및 추적 데이터는,
    시간 경과에 따른 움직임을 식별하는 상기 사용자의 과거 경로(history path) 및 상기 시간 경과에 따른 움직임과 연관된 상기 애니메이션들을 표시하는 데이터를 포함하는 것을 특징으로 하는 효과 자동 적용 방법
  13. 제 12항에 있어서,
    상기 과거 경로를 저장부에 저장하는 과정; 및
    상기 과거 경로의 재생을 가능하게 하는 과정을 더 포함하는 것을 특징으로 하는 효과 자동 적용 방법
  14. 제 9항에 있어서,
    상기 애니메이션들은 상기 심도 감지 카메라에 의해 포착된 심도 데이터에 기초하여 상기 장면에서 검색된 물체들의 윤곽들(contours)에 적용되는 것을 특징으로 하는 효과 자동 적용 방법
  15. 제 9항에 있어서,
    사용자에 의하여 상기 애니메이션들을 미리 선택하는 과정을 더 포함하는 것을 특징으로 하는 효과 자동 적용 방법
  16. 제 9항에 있어서,
    상기 식별된 사용자에 기초하여 멀티미디어 콘텐츠가 표시부 장면에 표시되는 것을 특징으로 하는 효과 자동 적용 방법
  17. 제 9항에 있어서,
    상기 장면을 포착하는 과정은, 상기 장면 내에 있는 정지 물체들을 정하기 위해 포인트 추적(point tracking)방법을 사용하는 것을 특징으로 하는 효과 자동 적용 방법
  18. 제 9항에 있어서,
    상기 사용자 식별 및 추적 데이터는, 상대적 위치, 방향, 및 속도를 식별하는 데이터를 포함하는 것을 특징으로 하는 효과 자동 적용 방법
  19. 제 9항에 있어서,
    상기 심도 감지 카메라에 의해 포착되는 심도 데이터는, 정지 물체들 상에 위치하고, 상기 장면에서 검색된 물체들의 외곽선(outline)을 그리는데 사용되는 포인트들을 식별하는데 사용되는 것을 특징으로 하는 효과 자동 적용 방법
  20. 현실 세계 공간에 있는 현실 세계 사용자들을 식별하고 추적하는, 컴퓨터에서 구현되는 사용자 식별 및 추적 방법으로,
    (a)심도 감지 카메라에 의하여 포착되고, 상기 현실 세계 사용자의 신체적 특징들에 연관된 이미지 및 심도 데이터를 포함하는 사용자 프로파일을 정하는 과정;
    (b)상기 심도 감지 카메라를 사용하여 장면의 이미지 및 심도 데이터를 포착하는 과정;
    (c)상기 장면 내에서 이동 물체들을 식별하는 과정;
    (d)상기 장면의 이미지 및 심도 데이터를 사용하여 상기 이동 물체들에 있는 두부를 추적하는 과정; 및
    (e)상기 두부의 이미지 및 심도 데이터를 실시간으로 분석하는 과정을 포함하는데,
    (f)상기 분석 과정은 상기 두부의 이미지 및 심도 데이터를 상기 사용자 프로파일의 신체적 특징과 연관된 이미지 및 심도 데이터와 비교하는 과정을 포함하고,
    (g)상기 사용자 프로파일의 상기 이미지 및 상기 심도 데이터가 상기 두부의 상기 이미지 및 상기 심도 데이터와 일치할 때 사용자가 식별되는 것을 특징으로 하는 사용자 식별 및 추적 방법
  21. 제 20항에 있어서,
    상기 사용자 프로파일을 정하는 과정은
    (a)심도 감지 카메라를 사용하여 스캐닝을 시작하는 과정;
    (b)사용자 신체의 특정 부위에 상기 스캐닝의 초점을 맞추는 과정;
    (c)상기 사용자 신체의 상기 특정 부위의 이미지 및 심도 데이터를 수집하는 과정;
    (d)상기 사용자 신체의 상기 특정 부위의 3 차원적 모델을 생성하기 위해 상기 수집된 이미지 및 심도 데이터를 처리하는 과정; 및
    (e)상기 3 차원적 모델을 메모리에 저장하고, 상기 3 차원적 모델을 상기 사용자 프로파일과 연관시키는 과정을 포함하는 것을 특징으로 하는 사용자 식별 및 추적 방법
  22. 제 20항에 있어서,
    상기 사용자가 식별될 때, 상기 사용자 프로파일과 연관된 사용자에게 허용된 설정들(permissions)을 적용하는 과정을 더 포함하는 것을 특징으로 하는 사용자 식별 및 추적 방법
  23. 제 20항에 있어서,
    상기 사용자가 식별될 때, 상기 사용자 프로파일과 연관된 사용자의 애니메이션들을 적용하는 과정을 더 포함하는 것을 특징으로 하는 사용자 식별 및 추적 방법
KR1020107021483A 2008-02-27 2009-02-24 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 KR101335346B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US3202808P 2008-02-27 2008-02-27
US61/032,028 2008-02-27
PCT/US2009/035032 WO2009108645A1 (en) 2008-02-27 2009-02-24 Methods for capturing depth data of a scene and applying computer actions

Publications (2)

Publication Number Publication Date
KR20110030419A KR20110030419A (ko) 2011-03-23
KR101335346B1 true KR101335346B1 (ko) 2013-12-05

Family

ID=40998874

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107021483A KR101335346B1 (ko) 2008-02-27 2009-02-24 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들

Country Status (6)

Country Link
US (1) US8840470B2 (ko)
EP (1) EP2257911B1 (ko)
JP (1) JP5684577B2 (ko)
KR (1) KR101335346B1 (ko)
CN (2) CN103258184B (ko)
WO (1) WO2009108645A1 (ko)

Families Citing this family (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090011832A1 (en) * 2007-01-31 2009-01-08 Broadcom Corporation Mobile communication device with game application for display on a remote monitor and methods for use therewith
US8289944B2 (en) * 2007-01-31 2012-10-16 Broadcom Corporation Apparatus for configuration of wireless operation
US8438322B2 (en) * 2007-01-31 2013-05-07 Broadcom Corporation Processing module with millimeter wave transceiver interconnection
US8238275B2 (en) * 2007-01-31 2012-08-07 Broadcom Corporation IC with MMW transceiver communications
US9486703B2 (en) 2007-01-31 2016-11-08 Broadcom Corporation Mobile communication device with game application for use in conjunction with a remote mobile communication device and methods for use therewith
US8239650B2 (en) * 2007-01-31 2012-08-07 Broadcom Corporation Wirelessly configurable memory device addressing
US8254319B2 (en) * 2007-01-31 2012-08-28 Broadcom Corporation Wireless programmable logic device
US8200156B2 (en) * 2007-01-31 2012-06-12 Broadcom Corporation Apparatus for allocation of wireless resources
US8204075B2 (en) * 2007-01-31 2012-06-19 Broadcom Corporation Inter-device wireless communication for intra-device communications
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
US8125950B2 (en) * 2007-01-31 2012-02-28 Broadcom Corporation Apparatus for wirelessly managing resources
US8121541B2 (en) * 2007-01-31 2012-02-21 Broadcom Corporation Integrated circuit with intra-chip and extra-chip RF communication
US8116294B2 (en) * 2007-01-31 2012-02-14 Broadcom Corporation RF bus controller
US20090197641A1 (en) * 2008-02-06 2009-08-06 Broadcom Corporation Computing device with handheld and extended computing units
US8223736B2 (en) * 2007-01-31 2012-07-17 Broadcom Corporation Apparatus for managing frequency use
US20080320293A1 (en) * 2007-01-31 2008-12-25 Broadcom Corporation Configurable processing core
US8280303B2 (en) * 2007-01-31 2012-10-02 Broadcom Corporation Distributed digital signal processor
US20090088249A1 (en) 2007-06-14 2009-04-02 Robert Kay Systems and methods for altering a video game experience based on a controller type
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
KR20230116073A (ko) 2007-09-24 2023-08-03 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US20090198798A1 (en) * 2008-02-06 2009-08-06 Broadcom Corporation Handheld computing unit back-up system
US8175646B2 (en) * 2008-02-06 2012-05-08 Broadcom Corporation Networking of multiple mode handheld computing unit
US8195928B2 (en) * 2008-02-06 2012-06-05 Broadcom Corporation Handheld computing unit with merged mode
US8117370B2 (en) * 2008-02-06 2012-02-14 Broadcom Corporation IC for handheld computing unit of a computing device
US8717974B2 (en) * 2008-02-06 2014-05-06 Broadcom Corporation Handheld computing unit coordination of femtocell AP functions
US8064952B2 (en) * 2008-02-06 2011-11-22 Broadcom Corporation A/V control for a computing device with handheld and extended computing units
US8430750B2 (en) * 2008-05-22 2013-04-30 Broadcom Corporation Video gaming device with image identification
US8508550B1 (en) * 2008-06-10 2013-08-13 Pixar Selective rendering of objects
US8663013B2 (en) 2008-07-08 2014-03-04 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
KR101671900B1 (ko) * 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US8803950B2 (en) * 2009-08-24 2014-08-12 Samsung Electronics Co., Ltd. Three-dimensional face capturing apparatus and method and computer-readable medium thereof
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
EP2494432B1 (en) 2009-10-27 2019-05-29 Harmonix Music Systems, Inc. Gesture-based user interface
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20110223995A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8874243B2 (en) 2010-03-16 2014-10-28 Harmonix Music Systems, Inc. Simulating musical instruments
US20110230255A1 (en) * 2010-03-18 2011-09-22 Nokia Corporation Methods and apparatuses for facilitating user verification
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US9098873B2 (en) * 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US20110279368A1 (en) * 2010-05-12 2011-11-17 Microsoft Corporation Inferring user intent to engage a motion capture system
JP5737667B2 (ja) * 2010-05-25 2015-06-17 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US9274594B2 (en) * 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
USRE49044E1 (en) * 2010-06-01 2022-04-19 Apple Inc. Automatic avatar creation
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
CA2802348A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US9086727B2 (en) 2010-06-22 2015-07-21 Microsoft Technology Licensing, Llc Free space directional force feedback apparatus
US8878656B2 (en) 2010-06-22 2014-11-04 Microsoft Corporation Providing directional force feedback in free space
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
US8462997B2 (en) * 2010-09-15 2013-06-11 Microsoft Corporation User-specific attribute customization
US20120092364A1 (en) * 2010-10-14 2012-04-19 Microsoft Corporation Presenting two-dimensional elements in three-dimensional stereo applications
US9123316B2 (en) * 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US20120169583A1 (en) * 2011-01-05 2012-07-05 Primesense Ltd. Scene profiles for non-tactile user interfaces
US8866898B2 (en) * 2011-01-31 2014-10-21 Microsoft Corporation Living room movie creation
US9329469B2 (en) * 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9225701B2 (en) * 2011-04-18 2015-12-29 Intelmate Llc Secure communication systems and methods
US9432617B2 (en) 2011-04-26 2016-08-30 Dell Products L.P. White balance adjustment of an image at an information handling system
US8696461B2 (en) * 2011-06-01 2014-04-15 Microsoft Corporation Automated sensor driven match-making
US8884949B1 (en) 2011-06-06 2014-11-11 Thibault Lambert Method and system for real time rendering of objects from a low resolution depth camera
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US20130005443A1 (en) * 2011-07-01 2013-01-03 3G Studios, Inc. Automated facial detection and eye tracking techniques implemented in commercial and consumer environments
CN102368297A (zh) * 2011-09-14 2012-03-07 北京英福生科技有限公司 一种用于识别被检测对象动作的设备、系统及方法
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
KR101919831B1 (ko) 2012-01-11 2018-11-19 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
US9529426B2 (en) 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
JP5578186B2 (ja) * 2012-02-16 2014-08-27 カシオ計算機株式会社 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム
US10937239B2 (en) * 2012-02-23 2021-03-02 Charles D. Huston System and method for creating an environment and for sharing an event
KR101257207B1 (ko) * 2012-02-23 2013-04-22 인텔 코오퍼레이션 헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR101347840B1 (ko) * 2012-03-29 2014-01-09 한국과학기술원 신체 제스처 인식 방법 및 장치
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US20130285919A1 (en) * 2012-04-25 2013-10-31 Sony Computer Entertainment Inc. Interactive video system
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9292085B2 (en) 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
WO2014016992A1 (ja) 2012-07-27 2014-01-30 Necソフト株式会社 3次元ユーザインタフェース装置及び3次元操作方法
US20150213649A1 (en) * 2012-07-27 2015-07-30 Nec Solutions Innovators, Ltd. Three-dimensional environment sharing system and three-dimensional environment sharing method
CN104508600B (zh) 2012-07-27 2017-06-13 日本电气方案创新株式会社 三维用户界面装置及三维操作方法
US9996909B2 (en) 2012-08-30 2018-06-12 Rakuten, Inc. Clothing image processing device, clothing image display method and program
JP5791577B2 (ja) * 2012-09-28 2015-10-07 楽天株式会社 画像処理装置、画像表示方法、およびプログラム
US10009579B2 (en) * 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
KR20150103723A (ko) 2013-01-03 2015-09-11 메타 컴퍼니 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스
EP2959680B1 (en) * 2013-02-21 2019-11-13 Petcube, Inc. Remote pet interaction device
US9586134B2 (en) 2013-02-27 2017-03-07 Kabushiki Kaisha Square Enix Video game processing program and video game processing method
JP5745559B2 (ja) * 2013-02-27 2015-07-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
US9639747B2 (en) 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
US9269216B2 (en) * 2013-04-25 2016-02-23 Igt Canada Solutions Ulc Gaming machine having camera for adapting displayed images to detected players
US9129478B2 (en) * 2013-05-20 2015-09-08 Microsoft Corporation Attributing user action based on biometric identity
US10133816B1 (en) * 2013-05-31 2018-11-20 Google Llc Using album art to improve audio matching quality
US9384013B2 (en) 2013-06-03 2016-07-05 Microsoft Technology Licensing, Llc Launch surface control
CN105190700A (zh) * 2013-06-04 2015-12-23 英特尔公司 基于化身的视频编码
JP2014238731A (ja) 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
CN104349095B (zh) * 2013-08-09 2017-08-29 联想(北京)有限公司 一种图像调整方法、装置及电子设备
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9508197B2 (en) 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
US10178366B2 (en) * 2014-01-03 2019-01-08 Intel Corporation Real-time 3D reconstruction with a depth camera
WO2015164373A1 (en) * 2014-04-23 2015-10-29 Raytheon Company Systems and methods for context based information delivery using augmented reality
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
CN104143212A (zh) * 2014-07-02 2014-11-12 惠州Tcl移动通信有限公司 基于穿戴设备的增强现实方法及系统
US9642340B2 (en) 2014-07-16 2017-05-09 Elwha Llc Remote pet monitoring systems and methods
CN104474710B (zh) * 2014-12-09 2015-09-02 山东大学 基于Kinect网络的大规模场景群体用户跟踪系统与方法
CN104484039B (zh) * 2014-12-22 2017-11-24 联想(北京)有限公司 信息处理方法和电子设备
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
WO2016141208A1 (en) * 2015-03-04 2016-09-09 Usens, Inc. System and method for immersive and interactive multimedia generation
US9594967B2 (en) 2015-03-31 2017-03-14 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person
US10067352B2 (en) * 2015-06-15 2018-09-04 Robert Joe Alderman 3D image generating lens tool
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
US10085423B2 (en) 2015-11-19 2018-10-02 Petcube, Inc. Remote interaction device with tracking of remote movement input
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
TW201727537A (zh) * 2016-01-22 2017-08-01 鴻海精密工業股份有限公司 人臉識別系統及人臉識別方法
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10402643B2 (en) * 2016-06-15 2019-09-03 Google Llc Object rejection system and method
KR101842600B1 (ko) * 2017-02-08 2018-05-14 한림대학교 산학협력단 가상현실 시스템 및 이를 이용한 가상현실 제공 방법
CN106909911B (zh) * 2017-03-09 2020-07-10 Oppo广东移动通信有限公司 图像处理方法、图像处理装置和电子装置
KR102301599B1 (ko) 2017-09-09 2021-09-10 애플 인크. 생체측정 인증의 구현
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
US10475454B2 (en) * 2017-09-18 2019-11-12 Motorola Mobility Llc Directional display and audio broadcast
CN111742351A (zh) 2018-02-23 2020-10-02 三星电子株式会社 用于生成包括通过与面部相对应的3d化身反映面部运动的3d化身的图像的电子设备及操作其的方法
CN108479070A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 虚拟模型生成方法和装置
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10976989B2 (en) 2018-09-26 2021-04-13 Apple Inc. Spatial management of audio
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11151993B2 (en) * 2018-12-28 2021-10-19 Baidu Usa Llc Activating voice commands of a smart display device based on a vision-based mechanism
JP6726345B1 (ja) * 2019-08-30 2020-07-22 株式会社コロプラ プログラム、方法、および端末装置
CN111324253B (zh) * 2020-02-12 2021-08-03 腾讯科技(深圳)有限公司 虚拟物品交互方法、装置、计算机设备及存储介质
US11704965B2 (en) 2020-03-11 2023-07-18 Lnw Gaming, Inc. Gaming systems and methods for adaptable player area monitoring
WO2022075649A1 (ko) * 2020-10-06 2022-04-14 삼성전자주식회사 전자 장치 및 그 제어 방법
US11562548B2 (en) * 2021-03-22 2023-01-24 Snap Inc. True size eyewear in real time
US11805588B1 (en) 2022-07-29 2023-10-31 Electronic Theatre Controls, Inc. Collision detection for venue lighting

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6309306B1 (en) 1999-03-03 2001-10-30 Disney Enterprises, Inc. Interactive entertainment attraction using telepresence vehicles
US7130454B1 (en) 1998-07-20 2006-10-31 Viisage Technology, Inc. Real-time facial recognition and verification system

Family Cites Families (342)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3943277A (en) 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
US4313227A (en) 1979-01-29 1982-01-26 Texas Instruments Incorporated Light energy information transmission system
US4263504A (en) 1979-08-01 1981-04-21 Ncr Corporation High density matrix code
US6772057B2 (en) 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US4565999A (en) 1983-04-01 1986-01-21 Prime Computer, Inc. Light pencil
US4558864A (en) 1984-06-13 1985-12-17 Medwedeff Marion C Handgrip exercising, computer game controller
JPH06102980B2 (ja) 1985-12-12 1994-12-14 スズキ株式会社 2サイクルエンジンの制御方法
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPS6347616A (ja) 1986-08-15 1988-02-29 Ricoh Co Ltd 移動量測定方法
EP0348430A4 (en) 1987-02-04 1992-08-19 Mayo Foundation For Medical Education And Research Joystick apparatus having six degrees freedom of motion
US4802227A (en) 1987-04-03 1989-01-31 American Telephone And Telegraph Company Noise reduction processing arrangement for microphone arrays
GB2206716A (en) 1987-07-06 1989-01-11 Gen Electric Plc Apparatus for monitoring the presence or movement of an object
JP2720455B2 (ja) 1988-05-12 1998-03-04 ヤマハ株式会社 フィンガスイッチ
IT1219405B (it) 1988-06-27 1990-05-11 Fiat Ricerche Procedimento e dispositivo per la visione strumentale in condizioni di scarsa visibilita in particolare per la guida nella nebbia
AU630408B2 (en) 1988-12-20 1992-10-29 Australian Meat & Livestock Research & Development Corporation An optically readable coded target
JPH02224185A (ja) * 1989-02-27 1990-09-06 Osaka Gas Co Ltd 個人識別方法及び装置
US5034986A (en) 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
US5055840A (en) 1990-01-16 1991-10-08 Carroll Touch Incorporated Infrared touch input device and light emitted activation circuit
US5440326A (en) 1990-03-21 1995-08-08 Gyration, Inc. Gyroscopic pointer
AU654118B2 (en) 1990-05-01 1994-10-27 Wang Laboratories, Inc. Keyboard access with alternate input device
US5111401A (en) 1990-05-19 1992-05-05 The United States Of America As Represented By The Secretary Of The Navy Navigational control system for an autonomous vehicle
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US5485273A (en) 1991-04-22 1996-01-16 Litton Systems, Inc. Ring laser gyroscope enhanced resolution system
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5144594A (en) 1991-05-29 1992-09-01 Cyber Scientific Acoustic mouse system
US5455685A (en) 1991-09-04 1995-10-03 Fuji Photo Film Co., Ltd. Video camera exposure control apparatus for controlling iris diaphragm and automatic gain control operating speed
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5444462A (en) 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
US5790834A (en) 1992-08-31 1998-08-04 Intel Corporation Apparatus and method using an ID instruction to identify a computer microprocessor
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US7098891B1 (en) 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US5394168A (en) 1993-01-06 1995-02-28 Smith Engineering Dual-mode hand-held game controller
US5335011A (en) 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
US5815411A (en) 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JP3679426B2 (ja) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
US5677710A (en) 1993-05-10 1997-10-14 Apple Computer, Inc. Recognition keypad
US5297061A (en) 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision
US5959596A (en) 1993-06-24 1999-09-28 Nintendo Co., Ltd. Airline-based video game and communications system
US5581270A (en) 1993-06-24 1996-12-03 Nintendo Of America, Inc. Hotel-based video game and communication system
US5473701A (en) 1993-11-05 1995-12-05 At&T Corp. Adaptive microphone array
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
FR2714502A1 (fr) 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
US5543818A (en) 1994-05-13 1996-08-06 Sony Corporation Method and apparatus for entering text using an input device having a small number of keys
JPH07311568A (ja) 1994-05-17 1995-11-28 Sega Enterp Ltd 画像出力方法および装置
US5846086A (en) 1994-07-01 1998-12-08 Massachusetts Institute Of Technology System for human trajectory learning in virtual environments
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US5641319A (en) 1994-08-10 1997-06-24 Lodgenet Entertainment Corporation Entertainment system for providing interactive video game responses to the game interrogations to the video game engines without being processed by the host computer
WO1996017324A1 (fr) 1994-12-01 1996-06-06 Namco Ltd. Appareil et procede de synthese d'images
JP3270643B2 (ja) 1994-12-22 2002-04-02 キヤノン株式会社 指示位置検出方法及び装置
US5929444A (en) 1995-01-31 1999-07-27 Hewlett-Packard Company Aiming device using radiated energy
US5568928A (en) 1995-02-01 1996-10-29 Exertron, Inc. Video game controller for use with an exercise apparatus
US5638228A (en) 1995-02-14 1997-06-10 Iomega Corporation Retroreflective marker for data storage cartridge
US5930741A (en) 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5583478A (en) 1995-03-01 1996-12-10 Renzi; Ronald Virtual environment tactile system
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
DE69634913T2 (de) 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
JP3777650B2 (ja) 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
US5706364A (en) 1995-04-28 1998-01-06 Xerox Corporation Method of producing character templates using unsegmented samples
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US5649021A (en) 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control
CN100524015C (zh) 1995-06-22 2009-08-05 3Dv系统有限公司 生成距景物距离的图象的方法和装置
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
CA2227904C (en) 1995-07-26 2000-11-14 Tegic Communications, Inc. Reduced keyboard disambiguating system
US6311214B1 (en) 1995-07-27 2001-10-30 Digimarc Corporation Linking of computers based on optical sensing of digital data
US5611731A (en) 1995-09-08 1997-03-18 Thrustmaster, Inc. Video pinball machine controller having an optical accelerometer for detecting slide and tilt
US5768415A (en) 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement
US5850222A (en) 1995-09-13 1998-12-15 Pixel Dust, Inc. Method and system for displaying a graphic image of a person modeling a garment
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US5963250A (en) 1995-10-20 1999-10-05 Parkervision, Inc. System and method for controlling the field of view of a camera
US6281930B1 (en) 1995-10-20 2001-08-28 Parkervision, Inc. System and method for controlling the field of view of a camera
US5719561A (en) 1995-10-25 1998-02-17 Gilbert R. Gonzales Tactile communication device and method
JPH09128141A (ja) 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
US5870100A (en) 1995-11-22 1999-02-09 Compaq Computer Corporation Filling of graphical regions
JP2000501033A (ja) 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
RU2069885C1 (ru) 1996-03-01 1996-11-27 Йелстаун Корпорейшн Н.В. Способ наблюдения объектов при пониженной освещенности и устройство для его осуществления
JPH09244793A (ja) 1996-03-04 1997-09-19 Alps Electric Co Ltd 入力装置
KR100503847B1 (ko) 1996-03-05 2005-12-20 가부시키가이샤 세가 조작입력장치및이를사용하는전자장치
DE69631342T2 (de) 1996-04-02 2004-11-11 Cognex Corp., Natick Bilderzeugende vorrichtung zur visualisation von zeichen auf einem ebenen spiegelnden substrat
US5937081A (en) 1996-04-10 1999-08-10 O'brill; Michael R. Image composition system and method of using same
US5923318A (en) 1996-04-12 1999-07-13 Zhai; Shumin Finger manipulatable 6 degree-of-freedom input device
US5917493A (en) 1996-04-17 1999-06-29 Hewlett-Packard Company Method and apparatus for randomly generating information for subsequent correlating
US5881366A (en) 1996-05-01 1999-03-09 Logitech, Inc. Wireless peripheral interface
US6516466B1 (en) 1996-05-02 2003-02-04 Vincent C. Jackson Method and apparatus for portable digital entertainment system
US6151009A (en) 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US6400374B2 (en) 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US5930383A (en) 1996-09-24 1999-07-27 Netzer; Yishay Depth sensing camera systems and methods
US5832931A (en) 1996-10-30 1998-11-10 Photogen, Inc. Method for improved selectivity in photo-activation and detection of molecular diagnostic agents
NL1004648C2 (nl) 1996-11-11 1998-05-14 Johan Michiel Schaaij Computerspelsysteem.
US5914723A (en) 1996-12-30 1999-06-22 Sun Microsystems, Inc. Method and system for converting images in computer systems
US6243491B1 (en) 1996-12-31 2001-06-05 Lucent Technologies Inc. Methods and apparatus for controlling a video system with visually recognized props
US6021219A (en) 1997-01-07 2000-02-01 Lucent Technologies Inc. Methods and apparatus for distinguishing among several visual patterns
US5850473A (en) 1997-01-07 1998-12-15 Lucent Technologies Inc. Method and apparatus for compensating for color variation in a video system
US5796354A (en) 1997-02-07 1998-08-18 Reality Quest Corp. Hand-attachable controller with direction sensing
US5993314A (en) 1997-02-10 1999-11-30 Stadium Games, Ltd. Method and apparatus for interactive audience participation by audio command
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
EP0970502A1 (en) 1997-03-07 2000-01-12 3DV Systems Ltd. Optical shutter
US6061055A (en) 1997-03-21 2000-05-09 Autodesk, Inc. Method of tracking objects with an imaging device
US6144367A (en) 1997-03-26 2000-11-07 International Business Machines Corporation Method and system for simultaneous operation of multiple handheld control devices in a data processing system
US8120652B2 (en) 1997-04-02 2012-02-21 Gentex Corporation System for controlling vehicle equipment
US6587573B1 (en) 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
JP3009633B2 (ja) 1997-04-03 2000-02-14 コナミ株式会社 画像装置、画像表示方法および記録媒体
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
EP0978197B1 (en) 1997-04-23 2004-10-06 Thomson Consumer Electronics, Inc. Control of video level by region and content of information displayed
US6809776B1 (en) 1997-04-23 2004-10-26 Thomson Licensing S.A. Control of video level by region and content of information displayed
US6428411B1 (en) 1997-05-02 2002-08-06 Konami Co., Ltd. Volleyball video game system
NO304715B1 (no) 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
JP3183632B2 (ja) 1997-06-13 2001-07-09 株式会社ナムコ 情報記憶媒体及び画像生成装置
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6094625A (en) 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
JP3997566B2 (ja) 1997-07-15 2007-10-24 ソニー株式会社 描画装置、及び描画方法
KR20000068660A (ko) 1997-07-29 2000-11-25 요트.게.아. 롤페즈 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템
US6044181A (en) 1997-08-01 2000-03-28 Microsoft Corporation Focal length estimation method and apparatus for construction of panoramic mosaic images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6297838B1 (en) 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6031934A (en) 1997-10-15 2000-02-29 Electric Planet, Inc. Computer vision system for subject characterization
WO1999026198A2 (en) 1997-11-14 1999-05-27 National University Of Singapore System and method for merging objects into an image sequence without prior knowledge of the scene in the image sequence
JPH11154240A (ja) 1997-11-20 1999-06-08 Nintendo Co Ltd 取込み画像を用いて画像を作成するための画像作成装置
US6166744A (en) 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6677987B1 (en) 1997-12-03 2004-01-13 8×8, Inc. Wireless user-interface arrangement and method
US6762794B1 (en) 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
AU2211799A (en) 1998-01-06 1999-07-26 Video Mouse Group, The Human motion following computer mouse and game controller
US6160540A (en) 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
US6134346A (en) 1998-01-16 2000-10-17 Ultimatte Corp Method for removing from an image the background surrounding a selected object
EP1055146B1 (en) 1998-02-08 2003-01-22 3DV Ltd. Large aperture optical image shutter
US6115052A (en) 1998-02-12 2000-09-05 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence
US6175343B1 (en) 1998-02-24 2001-01-16 Anivision, Inc. Method and apparatus for operating the overlay of computer-generated effects onto a live image
US6037942A (en) 1998-03-10 2000-03-14 Magellan Dis, Inc. Navigation system character input device
US6411392B1 (en) 1998-04-15 2002-06-25 Massachusetts Institute Of Technology Method and apparatus for data hiding in printed images
US6173059B1 (en) 1998-04-24 2001-01-09 Gentner Communications Corporation Teleconferencing system with visual feedback
US6593956B1 (en) 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
US6473516B1 (en) 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
JP3646969B2 (ja) 1998-05-25 2005-05-11 富士通株式会社 3次元画像表示装置
JP3841132B2 (ja) 1998-06-01 2006-11-01 株式会社ソニー・コンピュータエンタテインメント 入力位置検出装置及びエンタテインメントシステム
FR2780176B1 (fr) 1998-06-17 2001-01-26 Gabriel Guary Pistolet de tir pour jeu video
JP2000020163A (ja) 1998-06-30 2000-01-21 Sony Corp 情報処理装置
US6504535B1 (en) 1998-06-30 2003-01-07 Lucent Technologies Inc. Display techniques for three-dimensional virtual reality
IL125221A0 (en) 1998-07-06 1999-03-12 Toy Control Ltd Motion activation using passive sound source
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6256398B1 (en) 1998-08-22 2001-07-03 Kenneth H. P. Chang Encoding and decoding a message within an image
US6970183B1 (en) 2000-06-14 2005-11-29 E-Watch, Inc. Multimedia surveillance and monitoring system including network configuration
US6621938B1 (en) 1998-09-18 2003-09-16 Fuji Photo Film Co., Ltd. Image capture apparatus and method
US6184863B1 (en) 1998-10-13 2001-02-06 The George Washington University Direct pointing apparatus and method therefor
DE19849515C1 (de) 1998-10-19 2000-12-28 Gerhard Wergen Verfahren zur Übergabe von Zeichen insbesondere an einen Computer und Eingabevorrichtung unter Einsatz dieses Verfahrens
US6307568B1 (en) 1998-10-28 2001-10-23 Imaginarix Ltd. Virtual dressing over the internet
US6409602B1 (en) 1998-11-06 2002-06-25 New Millenium Gaming Limited Slim terminal gaming system
GB2343945B (en) * 1998-11-18 2001-02-28 Sintec Company Ltd Method and apparatus for photographing/recognizing a face
US6707487B1 (en) * 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
JP2000172431A (ja) 1998-12-09 2000-06-23 Sony Corp 情報入力装置及びゲーム装置
US6533420B1 (en) 1999-01-22 2003-03-18 Dimension Technologies, Inc. Apparatus and method for generating and projecting autostereoscopic images
JP2000261752A (ja) 1999-03-05 2000-09-22 Hewlett Packard Co <Hp> 音声付き画像録画再生装置
US7139767B1 (en) 1999-03-05 2006-11-21 Canon Kabushiki Kaisha Image processing apparatus and database
JP2000259856A (ja) 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元コンピュータグラフィックス表示方法及び装置
US6323942B1 (en) 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US7164413B2 (en) 1999-05-19 2007-01-16 Digimarc Corporation Enhanced input peripheral
US6791531B1 (en) 1999-06-07 2004-09-14 Dot On, Inc. Device and method for cursor motion control calibration and object selection
JP2000350859A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk マーカ配置方法及び複合現実感装置
JP2000350865A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP2000356972A (ja) 1999-06-15 2000-12-26 Pioneer Electronic Corp 発光パネルの駆動装置及び方法
US6952198B2 (en) 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
US6819318B1 (en) 1999-07-23 2004-11-16 Z. Jason Geng Method and apparatus for modeling via a three-dimensional image mosaic system
US6545706B1 (en) 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
JP2001056742A (ja) 1999-08-19 2001-02-27 Alps Electric Co Ltd 入力装置
US6556704B1 (en) 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
AU5646299A (en) 1999-09-08 2001-04-10 3Dv Systems Ltd. 3d imaging system
WO2001022737A1 (fr) 1999-09-17 2001-03-29 Nature Technology Co., Ltd. Systeme de saisie d'images, processeur d'images et camera associee
US6441825B1 (en) 1999-10-04 2002-08-27 Intel Corporation Video token tracking system for animation
JP3847058B2 (ja) 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
US6753849B1 (en) 1999-10-27 2004-06-22 Ken Curran & Associates Universal remote TV mouse
US20050037844A1 (en) 2002-10-30 2005-02-17 Nike, Inc. Sigils for use with apparel
AU2072601A (en) 1999-12-09 2001-06-18 Zephyr Media, Inc. System and method for integration of a universally publicly accessible global network
JP4403474B2 (ja) 1999-12-09 2010-01-27 ソニー株式会社 触覚提示機構及びこれを用いた力触覚提示装置
US6785329B1 (en) 1999-12-21 2004-08-31 Microsoft Corporation Automatic video object extraction
KR100384406B1 (ko) 2000-01-24 2003-05-22 (주) 베스트소프트 컴퓨터 프로그램 구동조작장치
TW522732B (en) 2000-02-15 2003-03-01 Sorceron Inc Method and system for distributing captured motion data over a network
WO2001064481A2 (en) 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
JP2001265275A (ja) 2000-03-16 2001-09-28 Olympus Optical Co Ltd 画像表示装置
US6676522B2 (en) 2000-04-07 2004-01-13 Igt Gaming system including portable game devices
US6924787B2 (en) 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
JP4020567B2 (ja) * 2000-05-15 2007-12-12 株式会社コナミデジタルエンタテインメント ゲーム機およびそのゲーム環境設定ネットワークシステム
WO2001091016A1 (en) 2000-05-25 2001-11-29 Realitybuy, Inc. A real time, three-dimensional, configurable, interactive product display system and method
US20020056114A1 (en) 2000-06-16 2002-05-09 Fillebrown Lisa A. Transmitter for a personal wireless network
TW527518B (en) 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
AUPQ896000A0 (en) 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
WO2002008849A2 (en) 2000-07-24 2002-01-31 Herman Ehrenburg Computer-compatible, color-coded manual input system
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20020094189A1 (en) 2000-07-26 2002-07-18 Nassir Navab Method and system for E-commerce video editing
JP3561463B2 (ja) 2000-08-11 2004-09-02 コナミ株式会社 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置
JP4815661B2 (ja) 2000-08-24 2011-11-16 ソニー株式会社 信号処理装置及び信号処理方法
US7071914B1 (en) 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
EP1316192A2 (en) 2000-09-08 2003-06-04 Honeywell International, Inc. Pilot internet practice system and methods
US6884171B2 (en) 2000-09-18 2005-04-26 Nintendo Co., Ltd. Video game distribution network
WO2002027456A1 (en) 2000-09-29 2002-04-04 Senseboard Technologies Ab Wearable data input interface
EP1329105A2 (en) * 2000-10-10 2003-07-23 Koninklijke Philips Electronics N.V. Device control via image-based recognition
FR2814965A1 (fr) 2000-10-11 2002-04-12 Janick Simeray Ordinateur et jouets cooperants
US7061507B1 (en) 2000-11-12 2006-06-13 Bitboys, Inc. Antialiasing method and apparatus for video applications
JP2002157607A (ja) 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
WO2002043404A2 (en) 2000-11-22 2002-05-30 Leap Wireless International, Inc. Method and system for providing interactive services over a wireless communications network
KR100385563B1 (ko) 2000-12-01 2003-05-27 한국과학기술원 구동수단을 갖는 분광 광도계와 광도 측정방법
US6751338B1 (en) 2000-12-15 2004-06-15 Cognex Corporation System and method of using range image data with machine vision tools
US20020085097A1 (en) 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
JP2004537082A (ja) 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US6741741B2 (en) 2001-02-01 2004-05-25 Xerox Corporation System and method for automatically detecting edges of scanned documents
US6789967B1 (en) 2001-02-02 2004-09-14 George Forester Distal chording keyboard
US20020134151A1 (en) 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
US6746124B2 (en) 2001-02-06 2004-06-08 Robert E. Fischer Flashlight producing uniform high brightness
US7116330B2 (en) 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
GB2376397A (en) 2001-06-04 2002-12-11 Hewlett Packard Co Virtual or augmented reality
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP2002369969A (ja) 2001-06-15 2002-12-24 Sun Corp 通信ゲーム用プログラム、アダプタおよびゲーム端末
JP2003018604A (ja) 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd 画像信号符号化方法、画像信号符号化装置および記録媒体
US20030014212A1 (en) 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
JP3611807B2 (ja) 2001-07-19 2005-01-19 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
KR20030009919A (ko) 2001-07-24 2003-02-05 삼성전자주식회사 관성 센서를 구비하는 컴퓨터 게임용 입력 장치
US7039253B2 (en) 2001-07-24 2006-05-02 Casio Computer Co., Ltd. Image display device, image display method, program, and projection system
US7148922B2 (en) 2001-08-02 2006-12-12 Olympus Optical Co., Ltd. Electronic camera which detects flash influence on an image and controls white balance in accordance with the flash influence
JP3442754B2 (ja) 2001-08-10 2003-09-02 株式会社コナミコンピュータエンタテインメント東京 ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム
US6964480B2 (en) 2001-08-31 2005-11-15 Metrologic Instruments, Inc. Ophthalmic instrument having adaptive optic subsystem with multiple stage phase compensator
KR100846761B1 (ko) 2001-09-11 2008-07-16 삼성전자주식회사 포인터 표시방법, 그 포인팅 장치, 및 그 호스트 장치
JP2003114640A (ja) 2001-10-04 2003-04-18 Nec Corp プラズマディスプレイパネル及びその駆動方法
JP4028708B2 (ja) 2001-10-19 2007-12-26 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲームシステム
US20030093591A1 (en) 2001-11-09 2003-05-15 David Hohl System and method for fast data transfer to display driver
FR2832892B1 (fr) 2001-11-27 2004-04-02 Thomson Licensing Sa Camera video d'effets speciaux
JP3918530B2 (ja) * 2001-11-28 2007-05-23 カシオ計算機株式会社 画像出力装置、画像出力処理プログラム、及び画像出力方法
US20030100363A1 (en) 2001-11-28 2003-05-29 Ali Guiseppe C. Method and apparatus for inputting appearance of computer operator into a computer program
US20040070565A1 (en) 2001-12-05 2004-04-15 Nayar Shree K Method and apparatus for displaying images
KR20030048570A (ko) 2001-12-12 2003-06-25 한국전자통신연구원 부가적 버튼을 장착한 키패드 및 그의 작동방법
US7106366B2 (en) 2001-12-19 2006-09-12 Eastman Kodak Company Image capture system incorporating metadata to facilitate transcoding
US7305114B2 (en) 2001-12-26 2007-12-04 Cognex Technology And Investment Corporation Human/machine interface for a machine vision sensor and method for installing and operating the same
US7436887B2 (en) 2002-02-06 2008-10-14 Playtex Products, Inc. Method and apparatus for video frame sequence-based object tracking
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20030160862A1 (en) 2002-02-27 2003-08-28 Charlier Michael L. Apparatus having cooperating wide-angle digital camera system and microphone array
KR20030075399A (ko) 2002-03-18 2003-09-26 주식회사 소프트로닉스 모션마우스 시스템 및 방법
KR100812905B1 (ko) * 2002-03-27 2008-03-11 산요덴키가부시키가이샤 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체
US6847311B2 (en) 2002-03-28 2005-01-25 Motorola Inc. Method and apparatus for character entry in a wireless communication device
GB2388418A (en) 2002-03-28 2003-11-12 Marcus James Eales Input or pointing device with a camera
US7006009B2 (en) 2002-04-01 2006-02-28 Key Energy Services, Inc. Servicing system for wells
US20030199324A1 (en) 2002-04-23 2003-10-23 Xiaoling Wang Apparatus and a method for more realistic shooting video games on computers or similar devices using visible or invisible light
US7298871B2 (en) * 2002-06-07 2007-11-20 Koninklijke Philips Electronics N.V. System and method for adapting the ambience of a local environment according to the location and personal preferences of people in the local environment
JP2004021345A (ja) 2002-06-12 2004-01-22 Toshiba Corp 画像処理装置及びその方法
US20030232649A1 (en) 2002-06-18 2003-12-18 Gizis Alexander C.M. Gaming system and method
US20040001082A1 (en) 2002-06-26 2004-01-01 Amir Said System and method of interaction with a computer controlled image display system using a projected light source
JP5109221B2 (ja) 2002-06-27 2012-12-26 新世代株式会社 ストロボスコープを使った入力システムを備える情報処理装置
CA2390072C (en) 2002-06-28 2018-02-27 Adrian Gh Podoleanu Optical mapping apparatus with adjustable depth resolution and multiple functionality
US7227976B1 (en) 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7697700B2 (en) 2006-05-04 2010-04-13 Sony Computer Entertainment Inc. Noise removal for electronic device with far field microphone on console
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7613310B2 (en) 2003-08-27 2009-11-03 Sony Computer Entertainment Inc. Audio input system
US7970147B2 (en) 2004-04-07 2011-06-28 Sony Computer Entertainment Inc. Video game controller with noise canceling logic
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8073157B2 (en) 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7545926B2 (en) 2006-05-04 2009-06-09 Sony Computer Entertainment Inc. Echo and noise cancellation
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US20040017355A1 (en) 2002-07-24 2004-01-29 Youngtack Shim Cursor control systems and methods
US20060282873A1 (en) 2002-07-27 2006-12-14 Sony Computer Entertainment Inc. Hand-held controller having detectable elements for tracking purposes
US7803050B2 (en) 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US7352359B2 (en) 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
US20070061413A1 (en) 2005-09-15 2007-03-15 Larsen Eric J System and method for obtaining user information from voices
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US20070261077A1 (en) 2006-05-08 2007-11-08 Gary Zalewski Using audio/visual environment to select ads on game platform
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US7918733B2 (en) 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US20070260517A1 (en) 2006-05-08 2007-11-08 Gary Zalewski Profile detection
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US7391409B2 (en) 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US10086282B2 (en) 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US20060264260A1 (en) 2002-07-27 2006-11-23 Sony Computer Entertainment Inc. Detectable and trackable hand-held controller
US20070015559A1 (en) 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7850526B2 (en) 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7039199B2 (en) 2002-08-26 2006-05-02 Microsoft Corporation System and process for locating a speaker using 360 degree sound source localization
US6917688B2 (en) 2002-09-11 2005-07-12 Nanyang Technological University Adaptive noise cancelling microphone system
US20040063480A1 (en) 2002-09-30 2004-04-01 Xiaoling Wang Apparatus and a method for more realistic interactive video games on computers or similar devices
JP2004126738A (ja) * 2002-09-30 2004-04-22 Matsushita Electric Ind Co Ltd 3次元計測を用いた個人認証装置および認証方法
US6947579B2 (en) * 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
EP1411461A1 (en) 2002-10-14 2004-04-21 STMicroelectronics S.r.l. User controlled device for sending control signals to an electric appliance, in particular user controlled pointing device such as mouse or joystick, with 3D-motion detection
US6995666B1 (en) 2002-10-16 2006-02-07 Luttrell Clyde K Cellemetry-operated railroad switch heater
JP2004145448A (ja) 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
ATE454195T1 (de) 2002-10-30 2010-01-15 Nike International Ltd Kleidungsstücke mit bewegungserfassungsmarker für videospiele
US8206219B2 (en) 2002-10-30 2012-06-26 Nike, Inc. Interactive gaming apparel for interactive gaming
US20040095327A1 (en) 2002-11-14 2004-05-20 Lo Fook Loong Alphanumeric data input system and method
US8012025B2 (en) 2002-12-13 2011-09-06 Applied Minds, Llc Video game controller hub with control input reduction and combination schemes
US7212308B2 (en) 2002-12-18 2007-05-01 Morgan Carol L Interactive photo kiosk
US20040140955A1 (en) 2003-01-21 2004-07-22 Metz Kristofer Erik Input device for a computer and method of operation
JP2004261236A (ja) 2003-02-20 2004-09-24 Konami Co Ltd ゲームシステム
GB2398691B (en) 2003-02-21 2006-05-31 Sony Comp Entertainment Europe Control of data processing
GB2398690B (en) 2003-02-21 2006-05-10 Sony Comp Entertainment Europe Control of data processing
JP3849654B2 (ja) 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
US7519186B2 (en) 2003-04-25 2009-04-14 Microsoft Corporation Noise reduction systems and methods for voice applications
US7379559B2 (en) 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
US6881147B2 (en) 2003-06-06 2005-04-19 Nyko Technologies, Inc. Video game controller with integrated microphone and speaker
TW571812U (en) 2003-06-11 2004-01-11 Vision Electronics Co Ltd Audio device for TV game machine
EP1489596B1 (en) 2003-06-17 2006-09-13 Sony Ericsson Mobile Communications AB Device and method for voice activity detection
US7116342B2 (en) 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
JP2005046422A (ja) 2003-07-30 2005-02-24 Samii Kk ゲーム機用コントローラ
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
ATE427693T1 (de) 2003-10-28 2009-04-15 Welch Allyn Inc Digitales dokumentier-ophthalmoskop
US20050105777A1 (en) 2003-11-18 2005-05-19 Kozlowski William J.Jr. Personalized multimedia summary
US7734729B2 (en) 2003-12-31 2010-06-08 Amazon Technologies, Inc. System and method for obtaining information relating to an item of commerce using a portable imaging device
TW200609024A (en) 2004-05-11 2006-03-16 Ssd Co Ltd Entertainment apparatus and operating method thereof
US7296007B1 (en) 2004-07-06 2007-11-13 Ailive, Inc. Real time context learning by software agents
US7263462B2 (en) 2004-07-30 2007-08-28 Ailive, Inc. Non-disruptive embedding of specialized elements
US8190907B2 (en) 2004-08-11 2012-05-29 Sony Computer Entertainment Inc. Process and apparatus for automatically identifying user of consumer electronics
US7613610B1 (en) 2005-03-14 2009-11-03 Escription, Inc. Transcription data extraction
KR100630118B1 (ko) 2005-04-21 2006-09-27 삼성전자주식회사 망간 광섬유 공유 시스템
US8370639B2 (en) * 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7620316B2 (en) 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
US7834850B2 (en) 2005-11-29 2010-11-16 Navisense Method and system for object control
DK1993687T3 (da) 2006-02-10 2012-08-27 Ippasa Llc Konfigurerbart manuelt styreapparat
JP2007249317A (ja) * 2006-03-14 2007-09-27 Dotcity Inc ドットシティにおける生体認証システムとその認証手段
US7636645B1 (en) 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
WO2008014826A1 (en) * 2006-08-03 2008-02-07 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
JP4481280B2 (ja) 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
GB0622451D0 (en) 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
US7636697B1 (en) 2007-01-29 2009-12-22 Ailive Inc. Method and system for rapid evaluation of logical expressions
US7937243B2 (en) 2007-08-03 2011-05-03 Ailive, Inc. Method and apparatus for non-disruptive embedding of specialized elements
US8419545B2 (en) 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US8655622B2 (en) 2008-07-05 2014-02-18 Ailive, Inc. Method and apparatus for interpreting orientation invariant motion
US8866821B2 (en) * 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130454B1 (en) 1998-07-20 2006-10-31 Viisage Technology, Inc. Real-time facial recognition and verification system
US6309306B1 (en) 1999-03-03 2001-10-30 Disney Enterprises, Inc. Interactive entertainment attraction using telepresence vehicles

Also Published As

Publication number Publication date
KR20110030419A (ko) 2011-03-23
US20090215533A1 (en) 2009-08-27
CN102016877A (zh) 2011-04-13
US8840470B2 (en) 2014-09-23
CN103258184B (zh) 2017-04-12
JP2011515736A (ja) 2011-05-19
EP2257911A1 (en) 2010-12-08
CN103258184A (zh) 2013-08-21
EP2257911B1 (en) 2018-10-10
WO2009108645A1 (en) 2009-09-03
JP5684577B2 (ja) 2015-03-11
CN102016877B (zh) 2014-12-10
EP2257911A4 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
KR101335346B1 (ko) 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
US11317076B2 (en) Peripheral device having sensors for capturing changes in spatial position
US10195528B2 (en) Systems for using three-dimensional object as controller in an interactive game
US10150042B2 (en) Sharing recorded gameplay
US8902227B2 (en) Selective interactive mapping of real-world objects to create interactive virtual-world objects
US20100060662A1 (en) Visual identifiers for virtual world avatars
US20130300767A1 (en) Method and system for augmented reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161108

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171109

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181108

Year of fee payment: 6