KR102360430B1 - 색맹 진단 시스템 - Google Patents

색맹 진단 시스템 Download PDF

Info

Publication number
KR102360430B1
KR102360430B1 KR1020200049745A KR20200049745A KR102360430B1 KR 102360430 B1 KR102360430 B1 KR 102360430B1 KR 1020200049745 A KR1020200049745 A KR 1020200049745A KR 20200049745 A KR20200049745 A KR 20200049745A KR 102360430 B1 KR102360430 B1 KR 102360430B1
Authority
KR
South Korea
Prior art keywords
virtual
user
colorblind
display objects
user interaction
Prior art date
Application number
KR1020200049745A
Other languages
English (en)
Other versions
KR20210103907A (ko
Inventor
카렌 일레인 스티븐스
Original Assignee
일렉트로닉 아트 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 일렉트로닉 아트 아이엔씨. filed Critical 일렉트로닉 아트 아이엔씨.
Publication of KR20210103907A publication Critical patent/KR20210103907A/ko
Application granted granted Critical
Publication of KR102360430B1 publication Critical patent/KR102360430B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • A61B3/066Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/77Game security or game management aspects involving data related to game devices or game servers, e.g. configuration data, software version or amount of memory
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/0001Games specially adapted for handicapped, blind or bed-ridden persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/0001Games specially adapted for handicapped, blind or bed-ridden persons
    • A63F2009/0003Games specially adapted for blind or partially sighted people
    • A63F2009/0006Colour blind
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6027Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8094Unusual game types, e.g. virtual cooking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

사용자 인터랙티브 내러티브 과정 내에서 색맹 접근성 설정을 인에이블하지 여부를 결정하기 위한 시스템 및 방법이 개시된다. 단일 이색성 시각 스펙트럼 내에서 눈에 띄게 구별될 수 있는 컬러들을 포함하는 가상 색맹 표시 객체는 사용자의 이색성 시각 결함 유형을 결정하기 위한 오브젝트로 사용될 수 있다.

Description

색맹 진단 시스템{COLOR BLINDNESS DIAGNOSTIC SYSTEM}
색맹 진단 시스템이 개시된다.
비디오 게임과 같은 현대의 가상 환경은 종종 사용자가 색맹 접근성(color blind accessibility)에 대한 수정이 필요하지 않다고 가정한다. 일반적으로, 색맹 접근성 설정(color blind accessibility setting)을 포함하는 가상 환경 설정은 사용자 인터랙티브 내러티브(user interactive narrative)를 도입하는 동안 사용할 수 없다. 이러한 제한으로 인해, 비디오 게임의 색맹 사용자는 종종 가상 환경 내에서 사용자 인터랙티브 내러티브를 탐색하고 진행하기위한 주요 시각적 신호(key visual cue)를 놓친다.
본 발명은 비디오 게임의 게임플레이 세션 동안 색맹 접근성 설정을 자동으로 결정하고, 인에이블하고(enable), 조정하기 위해 색맹 표시 객체를 이용하는 시스템을 제공한다. 본 개시의 양태는 비디오 게임 내에서 색맹 접근성 설정의 인에이블먼트(enablement)의 문제를 해결하는데 도움을 줄 수 있다. 본 개의 양태는 또한 가상 환경의 사용자 인터랙티브 내러티브의 과정(course) 내에서 이색성 색맹 접근성 설정의 조정을 다룬다.
일부 실시예에서, 가상 환경은 인터랙티브 내러티브의 과정 내에서 이색성 색맹(즉, 프로타노피아(protanopia), 듀테라노피아(deuteranopia), 및 트리아노피아(tritanopia)) 접근성 설정의 인에이블먼트에 대한 사용자의 요구를 결정하도록 구성된다. 가상 색맹 표시 객체(virtual color blindness indication object)는 프로타노피아, 듀테라노피아, 또는 트리아노피아와 같은 이색성 시각 스펙트럼 내에서 눈에 띄게 구별되는 컬러를 가지는 가상 객체이다.
일부 실시예에서, 사용자 인터랙티브 내러티브는 사용자가 구별가능한 컬러를 가지는 것으로 지각하는 하나 이상의 가상 색맹 표시 객체와 상호작용하도록 사용자에게 프롬프트하는 오브젝티브(objective)를 포함한다. 게임 플레이세션 동안 특정 가상 색맹 표시 객체와의 사용자의 상호작용에 기초하여, 시스템은 색맹 사용자의 이색성 시각 결함(dichromatic visual deficiency)의 유형을 자동으로 결정할 수 있다.
일부 실시예에서, 비디오 게임 내 사용자 인터랙티브 내러티브는 가상 색맹 표시 객체의 하나 이상의 세트와 상호작용하도록 사용자에게 프롬프트하는 오브젝티브를 포함한다. 가상 색맹 표시 객체의 세트는 이색성 시각 결함의 유형에 의해 카테고리화될 수 있다. 가상 색맹 표시 객체의 세트와의 사용자의 상호 작용은 이색성 시각 결함의 유형을 결정하기 위해 사용될 수 있다.
일부 실시예에서, 가상 색맹 표시 객체는 가상 환경 내 사용자 인터랙티브 내러티브의 과정에서 동적으로 인스턴스화(instantiating)될 수 있는 미리 생성된(pregenerated) 가상 객체이다. 일부 실시예에서, 각각의 이색성 시각 결함 유형에 대한 적어도 하나의 가상 색맹 표시 객체는 오브젝티브가 사용자의 이색성 시각 결함 유형을 정확하게 결정하기 위해 하나 이상의 가상 색맹 표시 객체와 상호 작용하도록 사용자를 프롬프트하는 동안 인스턴스화된다.
일부 실시예에서, 하나 이상의 상호작용의 임계값은 이색성 색맹 접근성 설정의 결정, 인에이블먼트, 및 조정을 위해 이용된다. 일 실시예에서, 각각의 이색성 시각 결함에 대한 임계값은 정의된다. 일부 실시예에서, 이색성 시각 결함 유형에 대한 상호작용의 임계값을 충족시키는 사용자는 시스템이 사용자가 필요로 하는 이색성 색맹 접근성 설정을 결정하고 인에이블하게 야기한다. 대안적인 실시예에서, 인에이블된 이색성 색맹 접근성 설정의 파라미터에 대한 조정을 결정하기 위해 추가 가상 색맹 표시 객체는 가상 환경 내에서 인스턴스화된다.
일 실시예는 게임 어플리케이션의 게임플레이 세션 동안 사용자의 시각 결함 유형을 결정하기 위한 컴퓨터 구현 방법을 포함하며, 상기 방법은, 적어도 하나의 하드웨어 컴퓨팅 장치에서 실행 가능한 기계-판독가능 명령들에 의해 구성된 상기 게임 어플리케이션에 의한, 시각 결함 유형(visual deficiency type)으로 카테고리화된 하나 이상의 가상 색맹 표시 객체를 인스턴스화하는 단계-상기 하나 이상의 가상 색맹 표시 객체 각각은 정의된 시각 스펙트럼(visual spectrum) 내에서 시각적으로 눈에 띄게 구별가능한 컬러들 세트를 포함함-; 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅(prompting)하는 단계; 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용을 모니터링하는 단계; 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 시각 결함 임계값(visual deficiency threshold)을 충족시키는지 여부를 결정하는 단계; 및 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용에 의해 충족되는 상기 시각 결함 임계값에 기초하여 색맹 접근성 설정을 인에이블링하는 단계 -상기 색맹 접근성 설정은 상기 게임 어플리케이션의 런타임 동안 프레임 렌더링에 사용되는 컬러들을 조정함 -를 포함한다.
상기 방법의 다양한 실시예들은 다음의 특징의 하나, 모든, 또는 임의의 조합을 포함할 수 있다. 일부 실시예에서, 상기 시각 결함 유형은 프로타노피아, 듀테라노피아, 및 트리아노피아를 포함한다. 일부 실시예에서, 상기 가상 색맹 표시 객체는 정의된 이색성 시각 결함 유형 세트(dichromatic visual deficiency type set)의 일부이다. 일부 실시예에서, 가상 색맹 표시 객체의 상기 컬러들은 단일 이색성 시각 스펙트럼(single dichromatic visual spectrum) 내에서 지각가능한 패턴(perceivable pattern)을 형성한다. 일부 실시예에서, 상기 게임 애플리케이션은 가상 색맹 표시 객체(virtual color blindness indication objects)를 인스턴스화(instantiating)하기 위해 상기 가상 환경(virtual environment) 내에서 가상 위치(virtual location)를 지정한다. 일부 실시예에서, 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하는 단계는 상기 가상 환경 내 상기 지정된 가상 위치에서 사용자에 의해 제어되는 가상 엔티티(virtual entity)의 도래(arrival) 후에 발생한다. 일부 실시예에서, 상기 사용자 상호작용을 모니터링하는 단계는 시각 결함 유형에 의해 가상 색맹 표시 객체와의 사용자 상호작용을 카테고리화하는 단계를 더 포함한다. 일부 실시예에서, 시각 결함 임계값은 상기 시각 결함 유형으로 카테고리화된 가상 색맹 표시 객체와의 사용자 상호작용의 정도(degree)를 요구한다. 일부 실시예에서, 상기 방법은 가상 색맹 표시 객체와의 사용자 상호작용에 기초하여 컬러 생성 비율(color generation ratio)을 계산하는 단계; 상기 컬러 생성 비율에 기초하여 하나 이상의 가상 색맹 표시 객체 세트(virtual color blindness indication object set)를 인스턴스화하는 단계; 하나 이상의 가상 색맹 표시 객체와 상호작용하도록 상기 사용자에게 프롬프팅하는 단계; 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 모니터링하는 단계; 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 조정 임계값(adjustment threshold)을 충족(satisfy)시키는지 여부를 결정하는 단계; 및 조정 임계값을 충족시키는 상기 사용자에 응답하여 상기 이색성 시각 결함 설정(dichromatic visual deficiency setting)을 조정하는 단계를 더 포함한다. 일부 실시예에서, 상기 가상 환경이 상기 색맹 접근성 설정을 조정하도록 야기하는 것은 달토니제이션(daltonization)에 적용하는 것을 포함한다. 일부 실시예에서, 컬러 생성 비율은 이색성 시각 결함 스펙트럼(dichromatic visual deficiency spectrum) 내 컬러들을 나타내는 값을 포함한다.
일 실시예는 시스템을 포함하고, 상기 시스템은 컴퓨팅 장치에서 실행 가능한 기계 판독 가능 명령들로 구성된 적어도 하나의 프로세서를 포함하고, 상기 기계 판독 가능 명령들은 상기 적어도 하나의 하드웨어 프로세서가, 게임 애플리케이션을 실행하고- 상기 게임 애플리케이션은 가상 환경을 포함함 -; 상기 가상 환경 내에서 이색성 시각 결함 유형으로 카테고리화된 하나 이상의 가상 색맹 표시 객체를 인스턴스화하고? 상기 하나 이상의 가상 색맹 표시 객체 각각은 상기 카테고리화된 시각 스펙트럼 내에서 시각적으로 눈에 띄게 구별가능한 컬러들 세트를 포함함 -; 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하고; 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용을 모니터링하고; 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 이색성 시각 결함 임계값을 충족시키는지 여부를 결정하고; 및 이색성 시각 결함 유형으로 카테고리화된 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용에 의해 충족되는 상기 이색성 시각 결함 임계값에 기초하여 이색성 색맹 접근성 설정을 인에이블링하도록-상기 이색성 색맹 접근성 설정은 상기 게임 애플리케이션의 런타임 동안 프레임 렌더링에 사용되는 컬러들을 조정함 ? 구성한다.
상기 방법의 다양한 실시예들은 다음의 특징의 하나, 모든, 또는 임의의 조합을 포함할 수 있다. 일부 실시예에서, 상기 카테고리화된 이색성 시각 결함 유형은 프로타노피아, 듀테라노피아, 및 트리아노피아를 포함한다. 일부 실시예에서, 상기 하나 이상의 가상 색맹 표시 객체는 세트에 속한다. 일부 실시예에서, 상기 게임 애플리케이션은 가상 색맹 표시 객체를 인스턴스화하기 위해 상기 가상 환경 내에서 가상 위치를 지정한다. 일부 실시예에서, 가상 색맹 표시 객체의 상기 컬러들은 단일 이색성 시각 스펙트럼 내에서 지각가능한 패턴을 형성한다. 일부 실시예에서, 상기 가상 환경 내 상기 지정된 가상 위치에서 상기 사용자에 의해 제어되는 가상 엔티티의 도래는 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하는 것을 야기한다. 일부 실시예에서, 상기 기계-판독가능 명령들은 사용자 상호작용을 모니터링할 때 시각 결함 유형에 의해 가상 색맹 표시 객체와의 사용자 상호작용을 카테고리화하도록 더 구성된다. 일부 실시예에서, 각 이색성 시각 결함 임계값은 상기 정의된 시각 결함 유형으로 카테고리화된 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용의 정도를 요구한다. 일부 실시예에서, 상기 기계-판독가능한 명령들은 가상 색맹 표시 객체와의 사용자 상호작용에 기초하여 컬러 생성 비율을 계산하고; 상기 컬러 생성 비율에 기초하여 하나 이상의 가상 색맹 표시 객체 세트를 인스턴스화하고; 상기 하나 이상의 가상 색맹 표시 객체와 상호작용하도록 상기 사용자를 프롬프트하고; 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 모니터하고; 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 조정 임계값을 충족시키는지 여부를 결정하고; 및 조정 임계값을 충족시키는 상기 사용자에 응답하여 상기 이색성 시각 결함 설정을 조정하도록 더 구성된다.
본 출원은 색맹을 결정하기 위해 사용되는 특정 색을 사용하여 가상 객체를 렌더링하기 위한 색맹, 시스템, 및 방법에 관한 것이다. 흑백 도면은 애플리케이션에 표시된 컬러의 차이를 보여줄 수 없다. 예를 들어, 도 2a, 2b, 3a, 3b, 4a 및 4b의 흑백 버전은 독자가 본 출원에서 논의된 색맹 유형에 연관된 상이한 색을 구별하는 것을 불가능하게 한다. 따라서, 출원인은 첨부된 실용 특허 출원에서 특허를 받고자 하는 주제를 공개하기 위한 유일한 실제 매체(medium)로서 컬러 도면이 필요하다고 생각한다.
도 1은 색맹 진단 시스템을 포함하는 게임 애플리케이션을 실행하는 컴퓨팅 시스템의 실시예를 도시한다.
도 2a는 가상 환경 내 색맹 표시 광의 실시 예를 도시한다.
도 2b는 색맹 표시 객체의 이색성 시각적 지각의 예를 도시한다.
도 3a는 가상 환경에서 색맹 표시 객체의 예를 도시한다.
도 3b는 색맹 표시 객체의 이색성 시각적 지각의 예를 도시한다.
도 4a는 색맹 타겟 세트의 예를 도시한다.
도 4b는 가상 환경 내 인스턴스화된 색맹 타겟 세트의 예를 도시한다.
도 5a는 색맹 진단 프로세스의 블록도의 실시예를 도시한다.
도 5b는 이색성 색맹 접근성 설정 조정 프로세스의 블록도의 실시예를 도시한다.
도 6은 본 발명의 예에 따라 동작하는 예시적인 컴퓨터 시스템의 블록도를 도시한다.
예시된 상세한 설명 및 도면은 가상 환경 내 가상 색맹 표시 객체들(virtual color blindness indication object, 이하 CBIO들, 및 단일하게 CBIO로)의 일부 구성을 설명하기 위한 예로서 사용되며, 이에 제한되지 않는다.
Ⅰ. 시스템 개요
도 1은 색맹 진단 시스템을 포함하는 게임 애플리케이션 실행을 구현하기위한 컴퓨팅 환경(100)의 실시예를 도시한다. 환경(100)은 사용자 컴퓨팅 시스템(102)을 포함한다.
Ⅱ. 컴퓨팅 시스템
컴퓨팅 시스템(102)은 컴퓨팅 자원들(104) 및 애플리케이션 데이터 저장소(106)를 포함한다. 사용자 컴퓨팅 시스템(102)은 중앙 처리 장치 및 아키텍처, 메모리, 대용량 저장 장치, 그래픽 처리 장치, 통신 네트워크 가용성(availability) 및 대역폭 등과 같은 다양한 로컬 컴퓨팅 자원들(104)을 가질 수 있다. 또한, 사용자 컴퓨팅 시스템(102)은 임의의 유형의 컴퓨팅 시스템을 포함할 수 있다. 예를 들어, 사용자 컴퓨팅 시스템(102)은 데스크탑, 랩탑, 비디오 게임 플랫폼/콘솔, 텔레비전 셋-탑 박스, 텔레비전(예를 들어, 인터넷 TV), 네트워크-인에이블된 키오스크, 자동차-콘솔 장치, 컴퓨터화된 기기(computerized appliance), 웨어러블 장치(예를 들어, 컴퓨팅 기능이 있는 스마트 시계 및 안경), 무선 모바일 장치(예를 들어, 스마트 폰, PDA, 태블릿 등)와 같은 임의의 유형의 컴퓨팅 장치일 수 있다. 컴퓨팅 시스템(102)의 실시 예의 보다 상세한 설명은 도 6과 관련하여 아래에서 설명된다.
a. 게임 애플리케이션
컴퓨팅 시스템(102)은 그 위에 설치된 게임 애플리케이션(110)을 포함할 수 있다. 사용자 컴퓨팅 시스템(102)은 애플리케이션 데이터 저장소(106)에 적어도 부분적으로 저장된 소프트웨어 코드에 기초하여 게임 애플리케이션(110)을 실행할 수 있다. 게임 애플리케이션(110)은 또한 본 명세서에서 비디오 게임, 게임, 게임 코드 또는 게임 프로그램으로 지칭될 수 있다. 게임 애플리케이션(110)은 컴퓨팅 장치(102)가 플레이하는 사용자에게 게임을 제공하기 위해 사용할 수 있는 소프트웨어 코드를 포함하는 것으로 이해되어야 한다. 게임 애플리케이션(110)은 컴퓨팅 장치(102)에게 실행하라는 프로세서 명령을 통지하는 소프트웨어 코드를 포함할 수 있지만, 또한 게임 시뮬레이션, 렌더링, 애니메이션 및 기타 게임 데이터와 관련된 데이터와 같은 게임의 플레이에 사용되는 데이터를 포함할 수 있다. 예시된 실시예에서, 게임 애플리케이션(110)은 게임 엔진(112), 게임 데이터(114) 및 게임 상태 데이터(116)를 포함한다. 실행될 때, 게임 애플리케이션(110)은 사용자가 게임 애플리케이션(110)과 인터페이스하기위한 가상 환경을 생성하도록 구성된다.
일부 실시예에서, 사용자 컴퓨팅 시스템(102)은 사용자 컴퓨팅 시스템 상의 데이터 저장소(예를 들어, 애플리케이션 데이터 저장소(106))에 저장된, 비디오 게임과 같은 게임 애플리케이션(110)을 실행하도록 구성되는 기계 판독 가능 명령을 실행할 수 있다. 게임 애플리케이션(110)은 클라이언트/서버 아키텍처를 사용하여 분산 환경에서 저장되거나 실행될 수 있다. 예를 들어, 사용자 컴퓨팅 시스템(102)은 게임 애플리케이션(110)의 일부를 실행할 수 있고 서버는 게임 애플리케이션(110)의 다른 부분을 실행할 수 있다. 예를 들어, 게임 애플리케이션(110)은 사용자 컴퓨팅 시스템(102)에 의해 실행되는 클라이언트 부분 및 하나 이상의 애플리케이션 호스트 시스템에 의해 실행되는 서버 부분을 포함하는, 배틀 로얄 유형 게임과 같은, 경쟁적인 멀티플레이어 온라인 게임일 수 있다. 본 논의에서, 게임 애플리케이션(110)은 사용자 컴퓨팅 시스템(102)에서 국부적으로(locally) 실행될 수 있거나, 사용자 컴퓨팅 시스템(102)에서 실행되는 부분 및 적어도 하나 이상의 애플리케이션 호스트 시스템에서 실행되는 부분을 포함하는 분산된 애플리케이션으로서 실행될 수 있다.
i. 게임 엔진
작동 동안, 게임 엔진(112)은 게임 로직을 실행하고, 게임플레이의 시뮬레이션의 실행을 제어하고, 게임 애플리케이션(110) 내에서의 렌더링을 제어한다. 일부 경우에, 게임 엔진(112)은 하나 이상의 저장된 규칙 세트에 기초하여 캐릭터, 환경, 게임플레이의 실행, 게임 진행 방법, 또는 게임플레이의 다른 양태를 제어한다. 예를 들어, 게임 엔진(112)은 게임플레이를 모니터링하고 게임 애플리케이션(110)의 현재 런타임(runtime) 상태를 검출 또는 결정할 수 있다. 게임 애플리케이션의 현재 런타임 상태에 적어도 부분적으로 기초하여, 게임 엔진(112)은 캐릭터 또는 환경을 제어하기 위해 규칙 세트를 적용한다.
일부 실시예에서, 게임 엔진(112)은 시뮬레이션 엔진 및 프리젠테이션 엔진(presentation engine)을 포함할 수 있다. 시뮬레이션 엔진은 게임 로직을 실행하고 게임플레이 시뮬레이션의 실행을 제어한다. 프리젠테이션 엔진은 게임플레이의 프리젠테이션의 실행 및 프레임 렌더링을 제어한다. 일부 실시예에서, 게임 엔진(112)은 게임 애플리케이션 내 상이한 엔진 및/또는 프로세스를 사용하여 시뮬레이션 엔진 및 프리젠테이션 엔진의 기능을 실행할 수 있다.
시뮬레이션 엔진은 게임 애플리케이션(110) 내 개별 가상 구성요소, 가상 효과 또는 가상 객체의 실행을 제어할 수 있다. 시뮬레이션 엔진은 캐릭터 이동, 캐릭터 상태, 충돌 감지(collision detection), 충돌에 기초한 캐릭터에 대한 요구되는(desired) 모션 도출 등을 관리 및 결정할 수 있다. 입력 장치(들)는 규칙 세트에 따라 게임 애플리케이션의 양태를 제어하기 위해 사용자로부터 사용자 입력을 수신할 수 있게 한다. 시뮬레이션 엔진은 사용자 입력을 수신하고 액션(action), 충돌(collision), 달리기(run), 던지기(throw), 공격 및 게임에 적합한 기타 이벤트와 같은 캐릭터 이벤트를 결정한다. 캐릭터 이벤트는 캐릭터가 이벤트에 응답하여 해야 하는 적절한 모션을 결정하는 캐릭터 움직임 스트림(character movement stream)에 의해 제어될 수 있다. 시뮬레이션 엔진은 캐릭터에 대한 새로운 포즈를 결정할 수 있는 물리 엔진(physics engine)과 인터페이스할 수 있다. 물리 엔진은 자신의 입력, 다양한 캐릭터의 골격 모델, 환경 설정, 현재 포즈와 같은 캐릭터 상태(예를 들어, 위치, 관절 각도 또는 기타 사양(specification)으로 표현된 신체 부위의 위치), 및 일부 또는 모든 신체 부위에 대한 힘/토크 벡터 세트의 형태일 수 있는 캐릭터 이동 모듈에 의해 제공되는 신체 부위 및 모션의 속도(선속도(linear) 또는 각속도(angular))로서 가질 수 있다. 이 정보로부터, 물리 엔진은 물리 규칙을 사용하여 캐릭터에 대한 새로운 포즈를 생성하고 해당 새로운 포즈는 캐릭터 상태를 업데이트하기 위해 사용될 수 있다.
시뮬레이션 엔진은 게임 엔진(110) 내 프레임을 생성 및 렌더링하기 위해 프리젠테이션 엔진에 의해 사용되는 그래픽 상태 데이터(예를 들어, 게임 상태 데이터(114))를 출력할 수 있다. 일부 실시예에서, 각각의 가상 객체는 시뮬레이션 엔진에 의해 처리되는(handle) 상태 스트림 프로세스로서 구성될 수 있다. 각각의 상태 스트림 프로세스는 프리젠테이션 엔진에 대한 그래픽 상태 데이터를 생성할 수 있다. 예를 들어, 상태 스트림 프로세스는 게임의 상태에 영향을 주는 이미터(emitter), 조명(light), 모델, 폐색기(occluder), 지형(terrain), 시각 환경 및 게임 애플리케이션(110)을 갖는 다른 가상 객체를 포함할 수 있다.
프리젠테이션 엔진은 게임 애플리케이션(110) 내 디스플레이로의 출력을 위한 프레임을 생성 및 렌더링하기 위해 그래픽 상태 데이터를 사용할 수 있다. 디스플레이를 위한 전체 장면 및 새로운 프레임을 생성하기 위해서, 프리젠테이션 엔진은 가상 캐릭터, 생물체(animate object), 무생물체(inanimate object), 배경 객체(background object), 조명(lighting), 반사 등과 같은 가상 객체를 결합할 수 있다. 프리젠테이션 엔진은 가상 객체의 표면, 색상 텍스처 및 기타 파라미터를 고려할 수 있다. 그런 다음 프리젠테이션 엔진은 프레임을 생성 및 렌더링하기 위해 가상 객체들(예를 들어. 가상 환경 내 조명과 무생물 및 배경 객체를 가지는 가상 캐릭터 이미지)을 결합할 수 있다. 런타임 동안, 게임 엔진은 초당 많은 프레임(예를 들어, 30 FPS, 60 FPS 또는 게임 애플리케이션의 실행 동안 결정된 초당 다른 수의 프레임)을 출력할 수 있다.
ii. 게임 데이터
게임 데이터(114)는 규칙 세트, 미리 기록된 모션 캡처 포즈/경로(path), 환경 설정, 환경 객체, 제약, 골격 모델, 루트(route) 정보 또는 다른 게임 애플리케이션 정보를 포함할 수 있다.
게임 규칙은 캐릭터, 환경, 게임플레이의 실행, 게임 진행 방법, 또는 게임플레이의 다른 양태를 제어하기 위해 게임 엔진(112)에 의해서 적용될 수 있다. 규칙 세트는 플레이어(예를 들어, 플레이어 캐릭터 또는 비-플레이어 캐릭터) 또는 환경이 비디오 게임 내에서 행동(behave)하거나 상호작용하는 특정 방식을 정의할 수 있다. 예를 들어, 규칙 세트는 비디오 게임의 난이도(예를 들어, 쉬움(easy), 보통(normal), 어려움(hard), 초보자(novice), 전문가(expert))에 해당할 수 있다. 또 다른 예로, 규칙 세트는 플레이어가 이용할 수 있는 많은 자원, 플레이어가 비디오 게임을 진행하기 위해 직면해야 하는 많은 과제, 득점(scoring) 규칙, 가능한 입력, 액션, 이벤트, 입력에 응답하는 움직임 등을 제어할 수 있다. 또한, 예를 들어 스포츠 관련 비디오 게임에서, 규칙 세트는 특정 가상 플레이어, 팀, 또는 코치의 기술 또는 능력의 정도(degree)를 제어할 수 있거나 가상 개체가 이탈(breakaway), 3 대 1 공격, 3 대 1 방어 등과 같은 특정 게임 상황에 반응하는 방식을 지시할 수 있다. 일부 경우에, 규칙 세트는 가상 엔티티의 뇌 또는 인공 지능으로서 기능할 수 있다.
규칙 세트는 캐릭터, 액션, 런타임 상태 및 환경의 개념을 사용하여 기술될 수 있다. 비디오 게임의 가상 캐릭터는 사용자에 의해 제어되는 플레이어 캐릭터 또는 게임 애플리케이션에 의해 제어되는 비-플레이어 캐릭터일 수 있으며, 액션은 캐릭터가 할 수 있는 모든 가능한 움직임의 세트로부터의 움직임(move)일 수 있다. 예를 들어, 하키 게임에서 캐릭터는 다른 가능한 액션들 중에서 퍽을 패스(액션 A)하거나 슛(액션 B)할 수 있다. 런타임 상태는 캐릭터가 자신을 찾는 구체적이고 즉각적인 상황으로 기술될 수 있다. 예를 들어, 런타임 상태는 도구(tool), 장애물(obstacle), 적(enemy) 또는 상품(prize)과 같은 다른 중요한 것들과 관련하여 캐릭터를 배치하는 즉각적인 구성과 같은 특정 장소 및 순간일 수 있다. 가상 환경은 캐릭터가 게임 응용 프로그램과 상호작용하는 가상 세계라고 할 수 있다. 일반적으로, 규칙 또는 규칙 세트는 주어진 시간, 런타임 상태, 및 환경에서 캐릭터의 행동 방식(예를 들어, 캐릭터의 액션)을 정의할 수 있다.
게임 데이터(114)의 적어도 일부는 애플리케이션 데이터 저장소(106)에 저장될 수 있다. 일부 실시예에서, 게임 데이터(114)의 일부는 데이터 저장소(134)에서와 같이, 원격으로 수신되거나 저장될 수 있다. 게임 데이터는 게임 애플리케이션(110)의 런타임 동안 수신될 수 있다. 예를 들어, 일부 경우에, 하나 이상의 규칙 세트는 게임 애플리케이션(110)의 런타임 동안 수신, 저장 또는 적용될 수 있다.
iii. 게임 상태 정보
게임 애플리케이션(110)의 런타임 동안, 게임 애플리케이션(110)은 게임 상태 데이터(118)를 수집 또는 저장할 수 있으며, 게임 상태 데이터(118)는 게임 상태, 캐릭터 상태, 환경 상태, 장면 객체 저장, 루트 정보, 또는 게임 애플리케이션(110)의 런타임 상태에 연관된 정보를 포함한다. 예를 들어, 게임 상태 데이터(118)는 캐릭터 위치, 캐릭터 오리엔테이션, 캐릭터 액션, 게임 레벨 속성, 및 게임 애플리케이션(110)의 상태에 기여하는 다른 정보와 같은 특정 시점에서 게임 애플리케이션(110)의 상태를 식별할 수 있다. 게임 상태 데이터는 시뮬레이션 게임 상태 데이터 및 그래픽 게임 상태 데이터를 포함할 수 있다. 시뮬레이션 게임 상태 데이터는 게임 애플리케이션(110)의 시뮬레이션을 실행하기 위해 게임 엔진(112)에 의해 사용되는 게임 상태 데이터를 포함할 수 있다. 그래픽 게임 상태 데이터는 시뮬레이션 상태 데이터에 기초하여 생성된 게임 상태 데이터를 포함할 수 있고 디스플레이 상에 출력하기 위한 프레임을 생성 및 렌더링하는데 사용된다.
iv. 색맹 진단 모듈
색맹 진단 모듈은 사용자의 색맹을 결정하고 게임 애플리케이션의 실행 동안 색맹 설정의 실행 및 인에이블먼트를 위해 미리 정의되거나 사용자 정의된 설정 세트를 제어하도록 구성될 수 있다. 색맹 진단 모듈(120)은 게임 엔진(110)이 가상 환경 내 시각 자료(visual)를 렌더링하는 방법에 영향을 주도록 구성될 수 있다. 색맹 진단 모듈(120)은 사용자의 이색성 색맹을 결정하도록 구성된 프로세스의 실행에 기초하여 게임 애플리케이션 내 설정을 자동으로 조정할 수 있다. 프로세스는 도 5a 및 5b에 도시된 프로세스와 관련하여 본 명세서에서 추가로 설명된다.
Ⅲ. 가상 환경
본 명세서에서 사용되는 바와 같이, 가상 환경은 클라이언트의 사용자에게 디스플레이를 위한 가상 환경의 뷰(view)를 포맷팅하기 위해 사용자 컴퓨팅 시스템(102) 및/또는 서버로부터 원격으로 위치한 클라이언트에 의해 액세스 가능한 서버(예를 들어, 사용자 컴퓨팅 시스템(102)) 상에 인스턴스화된 시뮬레이션 환경(simulated environment)(예를 들어, 가상 공간)을 포함할 수 있다. 시뮬레이션 환경은 토포그래피(topography)를 가질 수 있거나, 사용자에 의해 실시간 상호 작용을 표현하거나, 토포그래피 내 이동(locomotion)이 가능한 토포그래피 내에 배치되는 하나 이상의 객체를 포함할 수 있다. 일부 구현에서, 토포그래피는 2차원 토모그래피일 수 있다. 다른 예에서, 토포그래피는 3차원 토포그래피일 수 있다. 일부 구현에서, 토포그래피는 단일 노드일 수 있다. 토포그래피는 가상 환경의 차원(dimension), 또는 가상 환경에 대해 "네이티브(native)"인 표면 또는 객체의 표면 특징을 포함할 수 있다. 일부 구현에서, 토포그래피는 가상 환경의 적어도 상당 부분 사이로 퍼지는(run through) 표면(예를 들어, 지표면)을 기술할 수 있다. 일부 구현에서, 토포그래피는 그 안에 배치된 하나 이상의 바디(body)를 갖는 볼륨(예를 들어, 그 안에 배치된 하나 이상의 천체(celestial body)를 갖는 중력이 없는 공간(gravity-deprived space)의 시뮬레이션)을 기술할 수 있다. 가상 환경은 가상 세계를 포함할 수 있지만, 반드시 그런 것은 아니다. 예를 들어, 가상 환경은 가상 세계와 일반적으로 연관된 하나 이상의 측면(예를 들어, 중력, 풍경 등)을 포함하지 않는 게임 공간을 포함할 수 있다. 예를 들어, 잘 알려진 게임 테트리스(Tetris)는 바디(예를 들어, 떨어지는 테트로미노(tetromino))가 미리 결정된 파라미터(예를 들어, 미리 정해진 속도로 떨어지고, 사용자 상호작용에 기초하여 수평으로 이동(shifting) 또는 회전(rotating)함)에 따라 이동하는 2차원 토포그래피로서 형성될 수 있다.
비디오 게임(110)의 게임 인스턴스는 시뮬레이션 가상 환경, 예를 들어, 가상 환경의 뷰를 사용자에게 제시하는 클라이언트(예를 들어, 사용자 컴퓨팅 시스템(102))를 통해 사용자에 의해 액세스 가능한 가상 환경을 포함할 수 있다. 가상 환경은 토포그래피을 가질 수 있거나, 하나 이상의 사용자에 의해 지속적인 실시간 상호 작용을 표현하거나, 토포그래피 내 이동이 가능한 토포그래피 내에 배치되는 하나 이상의 객체를 포함할 수 있다. 일부 예에서, 토포그래피는 2차원 토모그래피를 포함할 수 있다. 다른 예에, 토포그래피는 3차원 토포그래피를 포함할 수 있다. 토포그래피는 공간의 차원, 또는 공간에 대해 "네이티브"인 표면 또는 객체의 표면 특징을 포함할 수 있다. 일부 예에서, 토포그래피는 공간의 적어도 상당 부분 사이로 퍼지는 표면(예를 들어, 지표면)을 기술할 수 있다. 일부 예에서, 토포그래피는 그 안에 배치된 하나 이상의 바디를 갖는 볼륨(예를 들어, 그 안에 배치된 하나 이상의 천체를 갖는 중력이 없는 공간의 시뮬레이션)을 기술할 수 있다. 컴퓨터 구성요소에 의해 실행되는 인스턴스는 동기식, 비동기식 또는 반-동기식일 수 있다.
비디오 게임과 연관된 가상 환경의 상태가 제한되도록 의도되지 않은 방식의 위 설명은 이해되어야 한다. 게임 애플리케이션(110)은 가상 환경을 더 제한되거나 더 풍부한 방식으로 표현하도록 구성될 수 있다. 예를 들어, 비디오 게임의 인스턴스의 게임 상태를 나타내는 비디오 게임에 대해 결정된 뷰(view)는 비디오 게임 내의 주어진 장소에서 발생(occurrence)을 나타내는 제한된 그래픽 세트로부터 선택될 수 있다. 뷰는 비교적 일반적인 그래픽을 넘어서, 장소의 현재 상태의 상세(particular)를 기술하는 부가적인 컨텐츠(예를 들어, 텍스트, 오디오, 미리 저장된 비디오 컨텐츠, 또는 다른 컨텐츠)를 포함할 수 있다. 예를 들어, 뷰는 대립되는 상대의 텍스트 설명을 갖는 일반적인 배틀 그래픽을 포함할 수 있습니다. 비디오 게임 내의 개별 장소의 다른 표현이 고려된다.
게임 엔진(112)은 게임 애플리케이션(110) 내에서 국부적으로(locally) 사용될 수 있고, 네트워크(108)를 통해 인터랙티브 컴퓨팅 시스템(130)으로 전송될 수 있는 게임 상태 데이터(118)를 생성한다. 게임 애플리케이션(110)의 인스턴스의 실행은 게임 애플리케이션(110)과 연관된 게임 상태를 결정하는 것을 포함할 수 있다. 게임 상태 데이터(118)는 사용자 컴퓨팅 시스템(102) 상에서 비디오 게임의 뷰의 제시를 사용자에게 가능하게 할 수 있다. 게임 상태 데이터(118)는 비디오 게임이 플레이되는 가상 환경을 정의하는 정보를 포함할 수 있다. 게임 엔진의 실행은 본 명세서에 더 상세히 설명된다.
게임 인스턴스의 실행은 인터랙티브 컴퓨팅 시스템(130)을 통해 게임 애플리케이션(110) 또는 다른 사용자와 사용자에 의한 상호 작용을 가능하게 할 수 있다. 게임 애플리케이션(110)은 사용자 컴퓨팅 시스템(102)으로부터 네트워크(108)를 통해 수신된 커맨드(command)에 응답하여 게임 인스턴스에서 동작을 수행하도록 구성될 수 있다. 일부 실시예에서, 사용자는 비디오 게임 내 요소와 상호작용하거나 비디오 게임을 통해 서로 상호 작용할 수 있다.
사용자는 사용자와 연관된 사용자 컴퓨팅 시스템(102) 상에 구현된 클라이언트 게임 애플리케이션(110)을 통해 비디오 게임에 참여할 수 있다. 게임 엔진(112)에 의해 실행되는 비디오 게임의 게임 인스턴스 내에서, 사용자는 비디오 게임에 연관된 가상 환경에서 하나 이상의 요소를 제어함으로써 참여할 수 있다. 사용자-제어 요소(user-controlled element)는 아바타, 사용자 캐릭터, 가상 환경 유닛(예를 들어, 부대(troop)), 객체(예를 들어, 무기, 말, 차량 등), 시뮬레이션된 물리적 현상(예를 들어, 바람, 비, 지진, 또는 다른 현상), 또는 다른 사용자-제어 요소를 포함할 수 있다.
사용자-제어 캐릭터 아바타는 가상 환경에서 사용자를 나타낼 수 있다. 사용자 캐릭터는 영웅(heroe), 기사(knight), 지휘관(commander), 지도자(leader), 장군(general) 또는 힘(strength), 기술(skill), 능력(ability), 마법력(magic power), 지식(knowledge) 또는 다른 개별화된 속성을 가질 수 있는 다른 가상 환경 엔티티를 포함할 수 있다. 사용자에 의해 제어되는 가상 환경 유닛은 그룹 또는 집단으로 사용자에 의해 훈련, 모집, 캡처 또는 달리 획득될 수 있는 부대 또는 임의의 다른 게임 엔티티를 포함할 수 있다. 사용자에 의해 제어되는 객체는 무기(weapon), 차량(vehicle), 발사체(projectile), 마법 아이템(magic item), 옷장(wardrobe), 부츠(boot), 갑옷(armor), 배낭(knapsack), 약(medicine), 치유 물약(healing potion), 또는 비디오 게임 내에서 상호 작용을 위해 사용자에 의해 사용될 수 있는 다른 가상 아이템을 포함할 수 있다.
사용자-제어 요소(들)는 가상 환경(예를 들어, 가상 환경의 사용자-가상 환경 유닛, 가상 환경의 비-사용자 캐릭터, 가상 환경의 다른 객체 등)을 통해 이동하고 상호 작용할 수 있다. 주어진 사용자에 의해 제어되거나 주어진 사용자와 연관된 사용자-제어 요소는 주어진 사용자에 의해 생성되거나 커스터마이즈(customize)될 수 있다. 사용자는 사용자가 가상 환경 내에서 (예를 들어, 사용자 캐릭터 또는 다른 사용자 제어 요소, 또는 다른 아이템의 조작에 의해) 사용할 수 있는 가상 상품 또는 가상 통화의 "인벤토리(inventory)"를 가질 수 있다.
비디오 게임에서 가상 요소의 제어는 사용자 컴퓨팅 시스템(102)을 통해 주어진 사용자에 의해 입력된 커맨드를 통해 실행될 수 있다. 주어진 사용자는 가상 환경 내에서 교환되는 통신을 통해 다른 사용자와 상호 작용할 수 있다. 이러한 통신은 문자 채팅, 인스턴트 메시지, 개인 메시지, 음성 통신, 또는 다른 통신 중 하나 이상을 포함할 수 있다. 통신은 그들 각각의 사용자 컴퓨팅 시스템(102)을 통해 사용자에 의해 수신되고 입력될 수 있다. 통신은 서버(들)를 통해 적절한 사용자로 및 그로부터 라우팅될 수 있다.
게임 엔진(112)에 의한 사용자 액션의 실행 또는 성능은 게임 상태에 대한 변경을 생성할 수 있으며, 이는 사용자 액션의 진행 또는 결과를 반영할 수 있다. 일부 예에서, 사용자 액션의 실행에 의해 야기된 상태 변화는 비디오 게임의 인스턴스 전체에 걸쳐(throughout) 지속성(persistency)을 가능하게 하기 위해 애플리케이션 데이터 저장소(106) 또는 데이터 저장소(134)에 기록될 수 있다. 일부 예에서, 사용자 액션의 실행은 게임 상태에 대한 지속적인 변화를 생성하지 않을 수 있다(예를 들어, 계속해서 앞뒤로 점프하는 사용자 캐릭터는 다른 사용자에게 인식 가능한 게임 상태 변화를 생성하지 않을 수 있다).
주어진 사용자는 가상 환경 내에서 특정 행위(deed), 액션, 기능, 액션 영역(spheres of action) 또는 다른 유형의 상호 작용을 수행하기 위해 특정 파라미터를 가진 커맨드를 입력할 수 있습니다. 예를 들어, 주어진 사용자는 가상 건물을 건설, 업그레이드 또는 철거하기위한 커맨드를 입력할 수 있다; 가상 자원을 수확하거나 수집; 가상 사용자 제어 요소, 비-플레이어 엔티티 또는 다른 사용자에 의해 제어되는 요소를 치료; 부대를 훈련(train), 행진(march), 이동(transport), 강화(reinforce), 재할당(reassign), 모집(recruit) 또는 배치(arrange); 도시(city), 영역(realm), 왕국(kingdom) 또는 사용자에 의해 제어되거나 사용자에 연관된 다른 가상 환경 장소(location)를 공격, 관리, 생성, 철거 또는 방어; 가상 아이템 제작(craft) 또는이 이동(transport); 전투(combat)에서 다른 사용자에 의해 제어되는 비-플레이어 엔티티 또는 가상 환경 요소와 상호 작용, 경쟁; 과학기술(technology) 또는 기술(skill)을 연구; 가상 자원에 대한 광산(mine) 또는 전망; 임무(mission), 퀘스트(quest) 또는 캠페인(campaign) 완료; 마법의 힘을 발휘(exercise)하거나 주문을 시전;. 또는 가상 환경 내에서 특정 행위(deed), 액션, 기능, 액션 영역(spheres of action)을 수행. 일부 예에서, 주어진 사용자는 가상 환경 내 환경의 요소와 경쟁하기 위한 커맨드- 예를 들어, 플레이어 대 환경 (PvE) 활동 -를 입력할 수 있다. 일부 예에서, 주어진 사용자는 가상 환경 내에서 서로 경쟁하기위한 커맨드- 예를 들어, 플레이어 대 플레이어 (PvP) 활동 -를 입력할 수 있다.
비디오 게임의 인스턴스는 비디오 게임의 인스턴스에서 자동 제어되는 가상 엔티티를 포함할 수 있다. 이러한 가상 엔티티는 임의의 사용자와 연관되거나 연관되지 않을 수 있다. 이와 같이, 자동 제어된 가상 엔티티는 제공자, 관리자, 중재자 또는 비디오 게임과 관련된 임의의 다른 엔티티에 의해 게임 애플리케이션(110) 또는 서버(들)로 구성되는 인공 지능에 의해 생성되거나 개발될 수 있다. 이러한 자동 제어된 엔티티는 사용자 제어로부터 자유롭게 비디오 게임 내에서 진화할 수 있으며, 사용자에 의해 제어되거나 사용자와 연관된 엔티티, 다른 자동적으로 제어되는 가상 환경 엔티티 및 가상 환경의 토포그래피와 상호 작용할 수 있다. 특정 표명된(manifested) 특성(trait)은 서버(들)로 구성된 인공 지능에 따라 자동 제어된 엔티티와 연관될 수 있다. 본 명세서에서 사용되는 바와 같이, 비디오 게임의 인스턴스에서 이러한 자동 제어된 가상 환경 엔티티는 "비-플레이어 엔티티"로 지칭된다.
온라인 게임에서, 비디오 게임의 인스턴스는 지속적일 수 있다. 즉, 비디오 게임은 개별 사용자가 비디오 게임에 로그인했는지 또는 참여하는지에 관계없이 계속될 수 있다. 비디오 게임에서 로그 아웃했다가 나중에 다시 로그 백(log back)한 사용자는 사용자가 로그 아웃한 시간 동안 가상 환경 또는 비디오 게임이 다른 사용자와 비디오 게임의 상호 작용을 통해 변경된 것을 알 수 있다. 이러한 변경에는 시뮬레이션된 물리적 공간의 변경, 사용자 인벤토리의 변경, 다른 사용자의 인벤토리 변경, 비-사용자 캐릭터에 의해 경험된 변경, 또는 다른 변경이 포함될 수 있다.
Ⅳ. 색맹 표시 개체
CBIO는 사용자가 색맹이라는 기능적 지시를 생성하기 위해 사용될 수 있는 가상 환경 내 임의의 가상 개체일 수 있다. 일 실시예에서, 사용자의 색맹의 CBIO의 기능적 지시는 그 설계, 배치, 및 충돌 정보에 의해 구현된다.
CBIO의 컬러 계획(scheme)은 단일 이색성 시각 스펙트럼(프로타노피아, 듀테라노피아, 및 트리타노피아) 내에서 눈에 띄게(visibly) 구별가능(예를 들어, 대비(contrasting))하도록 구성된다. 당업자는 각각의 이색성 시각 스펙트럼이 지각가능한 컬러 주파수(즉, 특정 색)가 각각의 이색성 시각 스펙트럼에 걸쳐 다르게 나타나도록 지각가능한 컬러 제한을 갖는다는 것을 인지할 것이다. 각각의 CBIO는 단일 이색성 시각 스펙트럼으로 구별될 수 있지만 다른 유형의 이색성 색맹으로는 구별될 수 없는 색을 갖도록 구성될 수 있다. 예를 들어, CBIO는 프로타노피아 시각 스펙트럼 내에서 다른 컬러로 눈에 띄게 구별될 수 있지만, 듀테라노피아 및 트리타노피아 시각 스펙트럼 내에서 눈에 띄게 구별될 수 없는 상이한 RGB 값(예를 들어, 컬러 주파수)의 두 가지 컬러로 구성될 수 있다. 이 결과는 컬러의 RGB 값(즉, 가시 색상 주파수)이 동일한 컬러를 나타내는 이색성 시각 스펙트럼의 컬러 주파수 범위 내에 포함될 때 발생할 수 있다.
이와 같이, 각각의 CBIO는 가상 환경 내에서 사용자의 이색성 시각 결함 유형의 지표(indicator)로 기능할 수 있다. 단일(즉, 특정) 이색성 시각 스펙트럼 내에서 눈에 띄게 구별될 수 있도록 설계된 CBIO는 각각의 이색성 시각 결함 유형으로 카테고리화된다. 예를 들어, 트리타노피아 시각 스펙트럼 내에서 눈에 띄게 구별가능한 컬러 설계를 가지는 CBIO는 가상 환경 내에서 트리타노피아 유형 CBIO로 카테고리화된다.
단일 이색성 시각 스펙트럼에서만 지각가능할 수 있는 CBIO에 대한 컬러 팔레트를 생성하는 능력(capacity)은 이색성 시각 스펙트럼의 컬러 주파수 한계로 인해 달성할 수 있다. 본 개시 내용의 도면에서 CBIO에 대해 사용된 컬러는 단일 이색성 시각 결함 유형(프로타노피아, 듀테라노피아, 및 트리아노피아) 내에서만 구별될 수 있는 색상의 근사치이다. CBIO에 대한 컬러 팔레트는 본 개시의 도면에 사용된 특정 컬러로 제한될 필요는 없다.
또한, 본 개시는 제한이 아닌 단순성을 위해 2가지 컬러를 가지는 CBIO를 도시한다. CBIO는 단일 이색성 시각 스펙트럼 내에서 눈에 띄게 대비되는 한 쌍의 컬러로 제한될 필요는 없다. CBIO의 대안적인 구성은 단일 이색성 시각 스펙트럼 내에서 눈에 띄게 대비되는 하나 이상의 컬러 또는 배열(arrangement)을 포함할 수 있다. 예를 들어, CBIO는 정의된 이색성 시각 스펙트럼 내에서 지각가능한 하나 이상의 패턴을 생성하는 특정 컬러 설계를 포함할 수 있다.
가상 환경은 사용자에게 지각가능한 CBIO와 상호작용하는 사용자를 필요로 하는 대물렌즈 내에서 CBIO를 활용할 수 있다. 이색성 시각 스펙트럼의 CBIO 설계 및 물리적 컬러 주파수 제한으로 인해, 이색성 색맹인 사용자는 특정 이색성 시각 결함 유형으로 카테고리화된 CBIO만 구별될 수 있다. 이색성 색맹 사용자는 가상 환경 내에서 지각할 수 있는 CBIO와 상호작용할 가능성이 있다. 게임 애플리케이션은 사용자의 CBIO와의 상호 작용에 기초하여 인에이블할 적절한 색맹 설정을 결정할 수 있다.
예를 들어, 프로타노피아 색맹을 나타내도록 구성된 CBIO는 프로타노피아 시각 컬러 스펙트럼 내에서 눈에 띄게 구별되는 컬러를 포함할 수 있다. CBIO는 듀테라노피아 및 트리아노피아 시각 스펙트럼 내에서 구별될 수 없는 것으로 보일 것이다. 이와 같이, 프로타노피아 색맹을 가지는 색맹 사용자는 프로타노피아 CBIO를 지각하고 상호작용할 수 있을 것이다.
일부 실시예에서, 가상 환경은 사용자가 구별가능한 컬러 설계를 가지는 것으로 지각하는 하나 이상의 CBIO와의 사용자 상호작용을 요구하는 오브젝티브를 완료하도록 사용자에게 프롬프트할 수 있다. 게임 애플리케이션은 사용자 액션을 모니터링하여 하나 이상의 CBIO와의 사용자의 상호 작용을 결정할 수 있다. 일부 실시예에서, CBIO와의 사용자 상호 작용을 요구하는 오브젝티브는 사용자 인터랙티브 내러티브 내에서 발생하는 스크립트된 이벤트이다.
오브젝티브 동안 각각의 이색 시각 결함 유형으로 카테고리화된 적어도 하나의 CBIO를 인스턴스화함으로써, 게임 애플리케이션은 사용자가 색맹인지 여부를 결정하도록 구성될 수 있다. 색맹이 아닌 사용자는 세 가지 CBIO와 상호작용할 수 있다. 사용자가 단일 카테고리화된 유형의 CBIO와 상호작용하는 인스턴스는 CBIO의 카테고리화된 이색성 결함 유형과 관련하여 사용자가 이색성 색맹임을 나타낼 수 있다. CBIO의 활용은 가상 환경 내에서 사용자의 이색성 시각 결함을 결정하고 해당 색맹 접근성 설정을 인에이블링하는 유리하고 효율적인 솔루션일 수 있다.
당업자는 가상 환경 내에서 CBIO의 구현 및 구성에 대한 무수한 변형을 이해할 수 있다. CBIO 구현 및 구성의 변형이, 이에 제한되지 않으며, 단일 또는 여러 내 하나 이상의 컬러, 가상 객체, 캐릭터, 환경, 지형(terrain), 스카이박스(skybox), 텍스트, 경로(pathway), 지침(guideline), 목적 지점(destination point), UI 요소, 또는 적어도 하나의 시각적으로 구별하거나 구별될 수 없는 컬러화된 가상 요소를 색맹 사용자에게 제공하는 것인 임의의 다른 가상 또는 애니메이션화된 렌디션(rendition)을 대비하는 것을 포함함으로써 게임 애플리케이션은 사용자의 지가가능한 컬러 스펙트럼을 결정하도록 구성될 수 있다. 이와 같이, 당업자는 가상 환경에서 CBIO의 구현이 동적, 정적, 미리 정의된, 미리 제조된(prefabricated), 글로벌, 로컬, 원격, 휘발성, 또는 지속성 객체, 시스템 또는 방법으로 구현될 수 있음을 인지해야 한다.
가상 환경에 대한 사용자 인터랙티브 내러티브는 개발 팀에 의해 생성된 미리 정의된 오브젝티브 및 경험으로 제한되지 않는다. 가상 환경의 사용자 인터랙티브 내러티브는 절차적으로 생성되거나 사용자가 생생한 컨텐츠를 포함할 수 있다. 가상 환경에 대한 사용자 인터랙티브 내러티브는 선형 및 비-선형 스토리 모드, 캠페인, 튜토리얼(tutorial), 질문, 미션, 오브젝티브, 및 다른 사용자 완료가능 태스크와 같은 이벤트 시퀀스가 포함되지만 이에 제한되지는 않는다.
a. 색맹 표시 광
도 2a는 가상 환경 내에서 사용하기 위한 색맹 표시 객체(아이템 200, 210, 220)의 예시적인 실시예를 도시한다.
예시된 실시예에서, CBIO(200, 210 및 220)는 이색성 시각 결함 유형(프로타노피아, 듀테라노피아, 및 트리타노피아)의 기능적 지시에 의해 카테고리화된다. CBIO(아이템 200, 210, 220)는 외부 하우징(아이템 201, 211, 221) 및 내부 광 요소(아이템 202, 212 및 222)를 포함한다. 각각의 CBIO는 CBIO의 카테고리화된 이색성 시각 결함 유형에 대응하는 이색성 시각 스펙트럼 내에서 서로 눈에 띄게 대비되는 컬러들로 구성된다.
예시를 위해, CBIO(200)는 분홍색(pink)으로 컬러화된 외부 하우징(201) 및 오렌지색(orange)으로 내부 광(202)을 포함한다. 외부 하우징(201) 및 내부 광(202) 간의 컬러의 차이는 프로타노피아 시각 스펙트럼 내에서 구별될 수 있는데, CBIO(200)가 프로타노피아 지표로 카테고리화되기 때문이다. CBIO(210)는 엷은 녹색(light green)으로 컬러화된 외부 하우징(211) 및 밝은 녹색(bright green)으로 착색된 내부 광(212)을 포함한다. 외부 하우징(211) 및 내부 광(212) 간의 컬러의 차이는 듀테라노피아 시각 스펙트럼 내에서 구별될 수 있는데, CBIO(210)가 듀테라노피아 지표로 카테고리화되기 때문이다. CBIO(220)는 자주색(purple)으로 컬러화된 외부 하우징(221) 및 진한 파란색(dark blue)로 컬러화된 내부 광(222)을 포함한다. 외부 하우징(221) 및 내부 광(222) 간의 컬러의 차이는 트리타노피아 시각 스펙트럼 내에서 구별될 수 있는데, CBIO(220)가 트리타노피아 지표로 카테고리화되기 때문이다.
CBIO(아이템 200, 210, 220)는 가상 환경에서 이색성 시각 결함 유형에 대한 기능성 지표로 사용될 수 있다. 이색성 색맹 사용자에 대한 적절한 이색성 색맹 접근성 설정은 게임 플레이세션 동안 CBIO와의 사용자의 상호작용에 기초하여 결정하고 인에이블될 수 있다.
예를 들어, 사용자 인터랙티브 내러티브 동안, 사용자는 사용자가 구별가능한 컬러화된 요소를 가지는 것으로 지각하는 CBIO(아이템 200, 210 또는 220)와 상호작용하도록 가상 환경에 의해 프롬프트될 수 있다. CBIO의 특정 컬러 팔레트(아이템 200, 210, 220)로 인해, 이색성 시각 결함이 있는 색맹 사용자는 일반적으로 하나의 CBIO를 구별가능한 컬러화된 요소를 가지는 것으로 지각할 수 있을 것이다. 이와 같이, 가상 캐릭터(230)는 CBIO와 상호작용하기 위해 사용자에 의해 이용될 수 있다. 상호작용에 기초하여, 게임 애플리케이션은 적절한 색맹 접근성 설정을 결정하고 인에이블할 수 있다. 일부 실시예에서, 게임 애플리케이션은 가상 환경 내에서 사용자의 시점(viewpoint)을 사용할 수 있다. 예를 들어, 게임 애플리케이션은 사용자가 자신의 시야(view)를 각각의 CBIO로 향하는(direct) 시간의 양을 모니터링할 수 있다.
도 2b는 CBIO의 이색성 지각을 예시한다. 도 2a는 CBIO (아이템 200, 210, 220)의 각각의 이색성 지각을 설명하기 위해 3개의 서브 그룹으로 분할된다.
프로타노피아 지각 서브 그룹(203)은 가상 환경 내에서의 프로타노피아 색맹 사용자의 시각(perspective)을 도시한다. CBIO(200)는 프로타노피아 컬러 스펙트럼 내에서 외부 하우징(201) 및 내부 광(202)에 구별가능한 컬러를 가지는 것으로 보일 것이다. CBIO(210 및 220)의 외부 하우징(아이템 211, 221) 및 내부 광(212, 222) 요소에 사용된 컬러는 프로타노피아 시각 스펙트럼 내에서 함께 블렌드될 수 있고, 210(a) 및 220(a)에 의해 도시된 바와 같이 CBIO(210 및 220)을 프로타노피아 시각적 스펙트럼 내에서 하나의 단색(solid color)으로 나타낸다.
듀테라노피아 지각 서브 그룹(213)은 가상 환경 내에서의 듀테라노피아 색맹 사용자의 시각(perspective)을 도시한다. CBIO(210)는 듀테라노피아 컬러 스펙트럼 내에서 외부 하우징(211) 및 내부 광(212)에 구별가능한 컬러를 가지는 것으로 보일 것이다. CBIO(200 및 220)의 외부 하우징(아이템 201, 221) 및 내부 광(202, 222) 요소에 사용된 컬러는 듀테라노피아 시각 스펙트럼 내에서 함께 블렌드될 수 있고, 200(b) 및 220(b)에 의해 도시된 바와 같이 CBIO(200 및 220)을 듀테라노피아 시각적 스펙트럼 내에서 하나의 단색(solid color)으로 나타낸다.
트리타노피아 지각 서브 그룹(223)은 가상 환경 내에서의 트리타노피아 색맹 사용자의 시각(perspective)을 도시한다. CBIO(220)는 트리타노피아 컬러 스펙트럼 내에서 외부 하우징(221) 및 내부 광(222)에 구별가능한 컬러를 가지는 것으로 보일 것이다. CBIO(200 및 210)의 외부 하우징(아이템 201, 211) 및 내부 광(202, 212) 요소에 사용된 컬러는 트리타노피아 시각 스펙트럼 내에서 함께 블렌드될 수 있고, 200(c) 및 210(c)에 의해 도시된 바와 같이 CBIO(200 및 210)을 트리타노피아 시각적 스펙트럼 내에서 하나의 단색(solid color)으로 나타낸다.
가상 환경 내에서 CBIO를 이용하는 것은 이색성 색맹 사용자가 복수의 가상 객체 중에서 특정 가상 객체를 지각하고 구별될 수 있는 메커니즘을 제공할 수 있다. 이색성 색맹 사용자가 CBIO와 수행하는 상호작용은 사용자의 시각 결함을 결정하고 적절한 색맹 접근성 설정을 인에이블하기 위해 사용될 수 있다.
b. 색맹 표시 타겟
도 3a 및 3b는 CBIO의 추가 예를 도시한다. 도 3a는 예시적인 색맹 타겟(300, 310 및 320)을 도시한다. 도 2a의 광과 유사하게, 색맹 타겟(300, 310 및 320)은 이색성 시각 결함 유형(프로타노피아, 듀테라노피아, 및 트리타노피아)에 의해 카테고리화된다. 각각의 CBIO는 서로 눈에 띄게 대비되는 두 가지 컬러를 가진다. 이 실시예에서, 각각의 CBIO(아이템 300, 310, 320)의 바디(아이템 302, 312, 322) 및 외부 쉴드 요소(아이템 301, 311, 321)는 카테고리화된 이색성 시각 결함 유형에 대응하는 이색성 시각 스펙트럼에 기초하여 서로 눈에 띄게 대비되는 컬러들로 구성된다. CBIO(300)은 프로타노피아 시각 스펙트럼에 연관되고, CBIO(310)은 듀테라노피아 시각 스펙트럼에 연관되고, CBIO(320)은 트리타노피아 시각 스펙트럼에 연관된다.
도 3b는 색맹 타겟의 이색성 지각을 도시한다. 도 3b는 색맹 타겟(도 3의 아이템 300, 310, 320)의 각각의 이색성 지각을 설명하기 위해 3개의 서브 그룹으로 분할된다. 도 2b에서 추가로 논의된 바와 같이, 이색성 시각 스펙트럼 내의 컬러를 가지는 CBIO는 사용자에게 구별될 수 있는 반면에, 다른 이색성 시각 스펙트럼 내의 컬러는 단일(single) 컬러로서 함께 블렌딩될 수 있다.
색맹 타겟(아이템 300, 310 및 320)은 예로 휴머노이드로서 도시되어 있다. CBIO로서, 색맹 타겟은 휴머노이드 형태로 제한될 필요는 없으며 가상 환경 내의 임의의 가상 객체 또는 그래픽 표현일 수 있다.
c. 색맹 표시 객체 세트
도 4a 및 4b는 CBIO의 추가 예를 도시한다. 도 4a는 각각의 이색성 시각 결함 유형에 대한 세트(아이템 400, 410, 420)를 예시하기 위해 3개의 서브 그룹으로 분할된다. 프로타노피아, 듀테라노피아, 및 트리타노피아 색맹 타겟(각각 아이템 400, 410, 420) 각각은 각각의 이색성 시각 스펙트럼 내에서 구별되는 CBIO를 함유한다. 색맹 타겟(400, 410, 420)은 이색성 시각 결함 유형(프로타노피아, 듀테라노피아, 및 트리타노피아)으로 카테고리화된다. 각각의 CBIO는 서로 눈에 띄게 대비되는 두 가지 컬러를 가진다. 이 실시예에서, 410 내의 CBIO는 제1 컬러인 내부 바디(아이템 403, 406, 413, 416, 423) 및 제2 컬러인 외부 실드(항목 402, 405, 412, 415, 422, 425, 428)를 가지는 휴머노이드형 가상 객체(아이템 401, 404, 411, 414, 421, 424, 427)이다. 제1 및 제2 컬러는 카테고리화된 이색성 시각 결함 유형에 대응하는 이색성 시각 스펙트럼에 기초하여 서로 눈에 띄게 대비된다. CBIO 세트(400)는 프로타노피아 시각 스펙트럼에 연관되고, CBIO 세트(410)는 듀테라노피아 시각 스펙트럼에 연관되고, CBIO 세트(420)는 트리타노피아 시각 스펙트럼에 연관된다.
도 4b는 게임 애플리케이션의 가상 환경(450)에서 색맹 타겟 세트의 게임 내 구현을 도시한다. 일부 실시예에서, 가상 환경은 슛팅 범위(shooting range)로서 배열된다. 사용자는 가상 환경 내에서 사용자가 구별가능한 컬러를 가지는 것으로 지각하는 가상 색맹 표시 타겟에 대한 슛팅에 의해 색맹 타겟과 상호작용하도록 프롬프트될 수 있다. 일부 실시예에서, 가상 환경은 스포츠 이벤트를 위한 필드이다. 가상 환경은 사용자가 구별가능한 컬러를 가지는 것으로 지각하는 가상 색맹 표시 타겟을 향해 가상 볼을 패스함으로써 색맹 타겟과 상호작용하도록 사용자에게 프롬프트할 수 있다.
Ⅴ. 색맹 결정 프로세스
도 5a는 게임 애플리케이션의 런타임 동안 적절한 색맹 접근성 설정을 결정하기 위한 프로세스(500)의 블록도를 도시한다.
블록(502)에서, 게임 애플리케이션의 런타임 동안, 복수의 CBIO는 가상 환경 내에서 인스턴스화될 수 있다. 각각의 CBIO는 이색성 시각 결함의 정의된 유형(예를 들어, 프로타노피아, 듀테라노피아, 및 트리타노피아)에 연관될 수 있다. 게임 애플리케이션은 이색성 시각 결함의 각각의 유형에 대해 적어도 하나의 CBIO를 인스턴스화하도록 구성될 수 있다.
블록(504)에서, 게임 애플리케이션은 하나 이상의 CBIO와 상호작용하도록 사용자를 위해 가상 환경 내에서 프롬프트 또는 오브젝티브를 생성할 수 있다. 프롬프트는 CBIO와 상호 작용하기위한 명령을 포함할 수 있다. 일부 실시예에서, 사용자 오브젝티브의 프롬프트로부터의 명령은 CBIO와 성공적으로 상호작용하도록 사용자를 위해 하나 이상의 방법을 특정할 수 있으며, 이에 제한되지 않지만, 이는 플레이어가 CBIO를 향하도록 지시하는 것, 사용자에 의해 제어되는 가상 캐릭터가 가상 환경에서 CBIO와 접촉하도록 야기하는 것, 사용자에 의해 제어되는 가상 캐릭터가 CBIO를 향해 가상 객체를 투영하도록 야기하는 것, 사용자가 CBIO를 직접 선택하도록 인에이블하는 가상 환경 내 요소를 생성하는 것을 포함한다. 일부 실시예에서, CBIO의 요소의 컬러 집단(population)은 CBIO의 인스턴스화 동안 발생한다. 대안적인 실시예에서, CBIO 요소는 개발 시간 동안 미리 정의된 베이킹된 텍스처(baked texture)이다.
블록(506)에서, 게임 애플리케이션은 CBIO와의 사용자 상호작용을 모니터링할 수 있다. 게임 애플리케이션은 각각의 CBIO와의 사용자 상호작용의 특성을 모니터링할 수 있다. 예를 들어, 게임 애플리케이션은 각각의 CBIO와의 직접적인 상호작용, 각각의 CBIO에 대한 가상 환경 내 사용자의 위치(position), 각각의 CBIO와의 상호작용에 소요된 시간, CBIO로 향하게된(directed) 사용자의 시점에 소요된 시간, 및 가상 환경 내 다른 유형의 상호작용을 결정할 수 있다.
블록(508)에서, 게임 애플리케이션은 CBIO와의 사용자의 상호작용이 게임 애플리케이션 내에서 하나 이상의 색맹 설정을 인에이블링하기 위한 임계값을 충족시키는지 여부를 결정한다. 게임 애플리케이션은 상호작용의 하나 이상의 미리 정의된 임계값을 포함할 수 있다. 일부 실시예에서, 상호작용의 미리 정의된 임계값은 하나 이상의 CBIO와의 사용자 상호작용의 요구되는(desired) 수준(level)을 나타내는 값이다. 일부 실시예에서, 상호작용의 미리 정의된 임계값은 CBIO와의 상호작용에 소비된 사용자의 시간을 측정할 수 있고, 이에 제한되지 않지만, 이는 가상 캐릭터가 CBIO를 향해 객체를 보거나, 선택, 파괴, 이동, 수정, 또는 투사하는데 소비된 시간을 포함한다. 일부 실시예에서, 상호작용의 미리 정의된 임계값은 사용자가 CBIO와 상호작용하는 정도(degree) 또는 크기(extent)를 측정할 수 있으며, 이에 제한되지 않지만, 이는 CBIO의 사용자의 직시(direct view)의 정확성 또는 세차(precession)을 포함한다. 게임 애플리케이션은 사용자의 상호작용 분석에 기초하여 사전 정의된 임계 값이 충족되는지를 판단할 수 있다.
색맹에 대한 하나 이상의 임계값이 충족되지 않으면, 게임 애플리케이션은 CBIO (들)과의 사용자 상호작용을 계속 모니터링할지 또는 색맹 진단 프로세스를 종료할지를 결정할 수 있다. 색맹 타겟과의 사용자 상호작용이 이색성 시각 결함 임계값을 충족시키지 않으면, (2)에서 게임 애플리케이션은 결정 프로세스를 재시작하거나 계속하고 블록(502)으로 리턴할 것이다. 색맹 타겟과의 사용자 상호작용이 각각의 이색성 시각 결함 임계값을 충족시키는 경우, (3)에서 가상 환경은 사용자가 모든 색맹 타겟을 지각할 수 있기 때문에 사용자가 이색성 색맹이 아니라고 결정한다. 게임 애플리케이션은 블록(512)로 진행하여 결정 프로세스를 종료하고 이색성 색맹 접근성 설정을 적용하지 않을 것이다.
블록(510)에서, 상호작용의 임계값이 색맹의 유형 중에서 적어도 하나에 대해 충족되면, 게임 애플리케이션은 게임 애플리케이션 내에서 하나 이상의 색맹 설정을 자동으로 인에이블할 수 있다. 예를 들어, 하나 이상의 색맹 타겟과의 사용자 상호작용이 듀테라노피아에 대한 이색성 시각 결함 임계값을 충족하는 경우, 듀테라노피아 색맹 접근성 설정은 인에이블될 것이다. 일부 실시예에서, 이색성 접근성 설정의 인에이블먼트는 가상 환경이 사용자가 사용자 인터랙티브 내러티브의 다음 부분으로 진행하게 허용한다.
게임 애플리케이션 내에서 색맹 설정을 인에이블링함으로써, 사용자에게 생성되고 출력되는 시각 출력은 검출된 이색성 색맹의 유형을 다루기 위해 변경될 수 있다. 예를 들어, 가상 환경을 나타내는데 사용되는 컬러 팔레트가 이동되거나 수정될 수 있다. 일부 실시예에서, 게임 애플리케이션은 이색성 색맹의 검출된 유형에 기초하여 사용자에게 제시되는 권장사항(recommendation)을 생성할 수 있다. 그런 다음 사용자는 권장사항을 확인하고 색맹 설정 인에이블링을 진행할 수 있다. 설정이 인에이블된 후, 프로세스가 종료될 수 있다. 일부 실시예에서, 색맹 설정을 인에이블먼트한 후에, 게임 애플리케이션은 도 5b의 프로세스(550)와 관련하여 설명되는 것과 같은 색맹 조정 프로세스를 실행할 수 있다.
도 5b는 이색성 색맹 접근성 설정 조정 프로세스의 블록도를 도시한다.
일부 실시예에서, 블록(510)에서 색맹 접근성 설정이 인에이블된 후에 게임 애플리케이션은 색맹 조정 프로세스를 실행할 수 있다. 블록(514)에서, 게임 애플리케이션은 색맹 접근성 설정을 조정할지 여부를 결정한다. 조정이 필요한지 여부를 결정하기 위해, 게임 애플리케이션은 모니터링된 색맹 타겟과의 사용자 상호작용을 분석하여 사용자가 색맹 타겟 세트 내의 모든 색맹 타겟과 상호작용하지 않았는지 식별할 수 있다. 사용자가 색맹 타겟 세트의 모든 색맹 타겟과 상호작용에 실패한 경우, 게임 애플리케이션은 사용자가 그들의 이색성 시각적 결함 유형으로 카테고리화된 세트 내의 모든 색맹 타겟을 구별될 수 없다고 결정할 수 있고, 사용자는 색맹 접근성 설정을 인에이블먼트한 후에도 구별될 수 없는 일부 색을 계속 찾을 수 있다. 이는 사람 지각의 자연적 차이 및/또는 다른 하드웨어 디스플레이들 간에 표시되는 컬러의 차이 때문일 수 있습니다.
인에이블된 색맹 접근성 설정에 대한 조정이 필요하지 않은 경우, (2)에서 게임 애플리케이션은 블록(526)으로 진행하여 사용자가 현재의 색맹 접근성 설정과 사용자 인터랙티브 내러티브를 계속하게 허용할 수 있다. 인에이블된 색맹 접근성 설정에 대한 조정이 필요한 것으로 결정되면, (1)에서 가상 환경은 블록(516)으로 진행할 것이다.
블록(516)에서는 모니터링된 사용자 상호작용에 기초하여 색맹 타겟 세트 생성 비율을 계산한다. 컬러 생성 비율은 이색성 시각 결함 임계값의 카테고리화된 이색성 시각 스펙트럼 내에서 구별가능한 색을 나타내는 비율 값이다. 일부 실시예에서, 컬러 생성 비율은 그 값이 사용자가 이전에 구별가능한 것으로 지각하지 못한 컬러 주파수의 범위를 나타내도록 구성될 수 있다. 다른 실시예에서, 컬러 생성 비율은 그 값이 특정 RBG 값을 나타내도록 구성될 수 있다. 대안적인 실시예에서, 가상 환경은 컬러 생성 비율의 임의의 수를 이용할 수 있으며, 각각의 값은 독립적 인 값 구성이 가능할 수 있다. 가상 환경은 컬러 생성 비율을 계산하기 위해 사용자에게 구별될 수 없는 것으로 결정된 색맹 타겟으로부터 식별된 컬러를 이용할 수 있다.
블록(518)에서, 게임 애플리케이션은 컬러 생성 비율에 기초하여 색맹 타겟을 인스턴스화할 수 있다. 일 실시예에서, 인스턴스화된 색맹 타겟은 사용자가 구별될 수 없는 것으로 밝혀진 컬러로 구성된 요소를 갖는 CBIO이다. 예를 들어, 컬러 생성 비율은 구별될 수 없는 컬러에 기초하여 약간의 컬러 변화인 복수의 CBIO를 생성하기위해 사용될 수 있다.
블록(520)에서, 게임 애플리케이션은 인스턴스화된 색맹 타겟과 상호작용하도록 사용자에게 프롬프트할 수 있다. 블록(522)에서, 게임 애플리케이션은 인스턴스화된 색맹 타겟과의 사용자 상호작용을 모니터링하여 조정된 CBIO와의 사용자 상호작용을 결정할 수 있다.
블록(524)에서, 게임 애플리케이션은 사용자의 상호작용이 조정 임계값을 충족시키는지 여부를 결정한다. 조정 임계값은 사용자가 인스턴스화된 색맹 타겟의 충분한 양과 상호작용했음을 나타내고, 사용자가 인스턴화된 색맹 타겟 내 컬러를 적절히 구별될 수 있는 능력을 갖는 것을 나타내는 값이다. 사용자가 조정 임계값을 충족하는 경우, 프로세스는 블록(526)으로 진행할 수 있고 게임 애플리케이션은 현재 색맹 접근성 설정으로 사용자 인터랙티브 내러티브를 계속할 수 있다.
조정 임계값이 충족되지 않는 경우, 게임 애플리케이션은 블록(528)으로 진행할 수 있다. 블록(528)에서, 게임 애플리케이션은 색맹 접근성 설정에 조정을 적용할 수 있다. 일부 실시예에서, 색맹 접근성 설정에 대한 조정은 달토니제이션(daltonization)과 같은 포스트 프로세스 파라미터 변경을 포함하지만 이에 제한되지는 않는다. 바람직한 실시예에서, 색맹 접근성 설정에 대한 조정은 모니터링된 색맹 타겟과의 사용자 상호작용에 기초하여 이루어진다. 색맹 접근성 설정에 조정을 적용한 후, 프로세스는 블록(518)으로 진행할 수 있다. 게임 애플리케이션은 프로세스를 재수행하여 조정이 적용된 인스턴스화된 타겟과의 사용자 상호작용을 모니터링할 수 있다. 그 후, 블록(524)에서 조정 임계값에 도달하는 경우, 가상 환경이 재결정될 것이다. 충족되지 않으면, 블록(524)에서 사용자가 조정 임계값을 충족시킬 때까지 조정의 인터랙티브 프로세스는 자동으로 발생한다.
Ⅵ. 컴퓨팅 장치
도 6은 본 개시에 따른 컴퓨팅 장치(10)의 실시예를 도시한다. 컴퓨팅 장치(10)의 다른 변형은 컴퓨팅 장치(10)의 구성요소(component)를 제거하거나 또는 추가하는 것과 같이, 본 명세서에 명시적으로 제시된 예를 대체할 수 있다. 컴퓨팅 장치(10)는 게임 장치, 스마트 폰, 태블릿, 개인용 컴퓨터, 랩탑, 스마트 텔레비전, 자동차 콘솔 디스플레이, 서버 등을 포함할 수 있다. 도시된 바와 같이, 컴퓨팅 장치(10)는 컴퓨팅 장치(10)의 다른 구성요소들 및 외부 구성요소들과 상호작용하는 프로세싱 유닛(20)을 포함한다. 미디어(12)와 통신하는 미디어 리더기(22)가 포함될 수 있다. 미디어 리더기(22)는 CD-ROM 또는 DVD 등의 광 디스크를 판독할 수 있는 광 디스크 리더기, 또는 미디어(12)로부터 데이터를 수신 및 판독할 수 있는 임의의 다른 유형의 리더기일 수 있다. 하나 이상의 컴퓨팅 장치가 본 명세서에 개시된 하나 이상의 시스템을 구현하는데 사용될 수 있다.
컴퓨팅 장치(10)는 별도의 그래픽 프로세서(24)를 포함할 수 있다. 일부 경우에, 그래픽 프로세서(24)는 프로세싱 유닛(20)에 내장될 수 있다. 이러한 일부 경우에, 그래픽 프로세서(24)는 랜덤 액세스 메모리(RAM)를 프로세싱 유닛(20)과 공유할 수 있다. 대안적으로 또는 추가적으로, 컴퓨팅 장치(10)는 프로세싱 유닛(20)과 분리된 별도의 그래픽 프로세서(24)를 포함할 수 있다. 이러한 일부 경우에, 그래픽 프로세서(24)는 프로세싱 유닛 (20)으로부터 별도의 RAM을 가질 수 있다. 컴퓨팅 장치(10)는 휴대용 비디오 게임 장치, 전용 게임 콘솔 컴퓨팅 시스템, 범용 랩탑 또는 데스크탑 컴퓨터, 스마트 폰, 태블릿, 자동차 콘솔, 또는 다른 적절한 시스템일 수 있다.
컴퓨팅 장치(10)는 또한 I/O(32), 사용자 I/O(34), 디스플레이 I/O(36) 및 네트워크 I/O(38)와 같은 입력/출력을 가능하게 하는 다양한 구성 요소들을 포함한다. I/O(32)는 컴퓨팅 장치(10)를 위한 저장소를 제공하기 위해 장치(42)를 통해 저장소 요소(40) 및 이동식 저장소 미디어(44)와 상호작용한다. 프로세싱 유닛(20)은 데이터를 저장하기 위해 I/O(32)를 통해 통신할 수 있다. 저장소(40) 및 이동식 저장소 미디어(44) 외에, ROM(Read-Only Memory)(46) 및 RAM(48)을 포함하는 컴퓨팅 장치 (10)가 도시되어 있다. RAM(48)은 자주 액세스되는 데이터를 위해 사용될 수 있다.
사용자 I/O(34)는 프로세싱 유닛(20)과 키보드 또는 게임 컨트롤러와 같은 사용자 장치 사이에서 커맨드를 송수신하는데 사용된다. 일부 실시예에서, 사용자 I/O는 터치 스크린을 포함할 수 있다. 터치 스크린은 정전식 터치 스크린, 저항성 터치 스크린, 또는 사용자로부터 촉각적 입력을 통해 사용자 입력을 수신하도록 구성된 다른 유형의 터치 스크린 기술일 수 있다. 디스플레이 I/O(36)은 이미지를 표시하는 데 사용되는 입력/출력 기능을 제공한다. 네트워크 I/O(38)은 네트워크를 위한 입력/출력 기능들을 위해 사용된다. 네트워크 I/O(38)는 클라이언트가 네트워크를 통해 서버에 연결될 때와 같이 실행 동안 사용될 수 있다.
디스플레이 I/O(36)에 의해 생성된 디스플레이 출력 신호는 그래픽, 사용자 인터페이스, 비디오 및/또는 다른 시각적 컨텐츠와 같은 디스플레이 장치 상에 컴퓨팅 장치(10)에 의해 생성된 시각적 컨텐츠를 표시하기 위한 신호를 포함한다. 컴퓨팅 장치(10)는 디스플레이 I/O(36)에 의해 생성된 디스플레이 출력 신호를 수신하도록 구성된 하나 이상의 통합형 디스플레이를 포함할 수 있다. 일부 실시예에 따르면, 디스플레이 I/O(36)에 의해 생성된 디스플레이 출력 신호는 또한 디스플레이(16)와 같은 컴퓨팅 장치(10) 외부의 하나 이상의 디스플레이 장치로 출력될 수 있다.
컴퓨팅 장치(10)는 또한 클록(50), 플래시 메모리(52) 및 다른 구성요소와 같은 다른 특징을 포함할 수 있다. 오디오/비디오 플레이어(56)는 또한 영화와 같은 비디오 시퀀스를 플레이하는데 사용될 수 있다. 다른 구성 요소들이 컴퓨팅 장치(10)에 제공될 수 있으며 동일한 기술 분야에 관한 지식을 가진 기술자(당업자)는 컴퓨팅 장치(10)의 다른 변형을 이해할 수 있는 것으로 이해되어야 한다.
프로그램 코드는 ROM(46), RAM(48) 또는 저장소(40)(하드 디스크, 다른 자기 저장 장치(magnetic storage), 광학 저장 장치(optical storage), 다른 비휘발성 저장 장치(non-volatile storage) 또는 이들의 조합 또는 이들의 변형을 포함할 수 있음)에 저장 될 수 있다. 프로그램 코드의 일부는 프로그램 가능한 ROM (ROM, PROM, EPROM, EEPROM 등)에 저장될 수 있고, 프로그램 코드의 일부는 저장소(40) 및/또는 게임 미디어(12)와 같은 이동식 미디어(CD-ROM, 카트리지, 메모리 칩 등일 수 있거나, 필요에 따라 네트워크 또는 기타 전자 채널을 통해 획득될 수 있음)에 저장될 수 있다. 일반적으로, 프로그램 코드는 유형(tangible)의 비일시적(non-transitory) 신호 베어링(signal-bearing) 매체에 구현되어 있는 것으로 발견될 수 있다.
랜덤 액세스 메모리(RAM)(48) (및 가능한 다른 저장 장치)는 변수 및 다른 게임 및 프로세서 데이터를 필요에 따라 저장하는데 사용될 수 있다. RAM은 애플리케이션의 실행 동안 생성된 데이터를 보유하며, 이들의 일부는 또한 프레임 버퍼, 애플리케이션 상태 정보 및/또는 사용자 입력을 해석하고 디스플레이 출력을 생성하는데 필요하거나 사용될 수 있는 기타 데이터를 위해 사용될 수 있다. 일반적으로, RAM(48)은 휘발성 저장 장치이고, RAM(48) 내에 저장된 데이터는 컴퓨팅 장치(10)가 꺼지거나 전력을 잃었을 때 손실될 수 있다.
컴퓨팅 장치(10)가 미디어(12)를 판독하고 애플리케이션을 제공함에 따라, 정보는 미디어(12)로부터 판독되고 RAM(48)과 같은 메모리 장치에 저장될 수 있다. 또한, 저장소(40), ROM(46), 네트워크(도시되지 않음)를 통해 액세스된 서버들, 또는 이동식 저장소 미디어(46)로부터의 데이터가 RAM(48)으로 판독되거나 로딩될 수 있다. 데이터가 RAM(48)에서 발견되는 것으로 설명되었지만, 데이터는 RAM(48)에 저장되어야만 하는 것은 아니고, 프로세싱 유닛(20)이 액세스할 수 있는 다른 메모리 또는 미디어(12) 및 저장소(40)와 같은 여러 미디어에 분산된 다른 메모리에 저장될 수 있는 것으로 이해할 것이다.
상기 설명은 예시적인 것이며 제한적이지 않는 것으로 이해되어야 한다. 많은 다른 구현들은 상기 설명을 읽고 이해함에 따라 당업자에게 명백할 것이다. 그러므로, 본 개시의 범위는 그러한 청구 범위가 부여되는 균등물의 전체 범위와 함께 첨부된 청구 범위를 참조하여 결정되어야 한다.
상기 설명에서, 많은 세부 사항이 설명된다. 그러나, 당업자에게는 본 발명이 이러한 특정 세부 사항 없이도 실시될 수 있음이 명백할 것이다. 일부 예에서, 잘 알려진 구조 및 장치는 본 발명을 모호하게하는 것을 피하기 위해 상세하게 보다는 블록도 형태로 도시된다.
상기 상세한 설명의 일부 부분은 컴퓨터 메모리 내의 데이터 비트에 대한 동작의 상징적 표현으로 표시된다. 이러한 알고리즘적 설명 및 표현은 데이터 처리 분야의 당업자가 자신의 작업의 내용을 다른 당업자에게 가장 효과적으로 전달하기 위해 사용하는 수단이다. 여기서 알고리즘은 일반적으로 원하는 결과를 도출하는 단계의 일관된 시퀀스인 것으로 생각된다. 이 단계는 물리량을 물리적으로 조작해야 하는 것이다. 일반적으로, 반드시 그런 것은 아니지만, 이러한 양은 저장, 전송, 결합, 비교 및 달리 조작될 수 있는 전기 또는 자기 신호의 형태를 취한다. 이들 신호를 비트, 값, 요소, 심볼, 문자, 용어, 숫자 등으로 지칭하는 것이 주로 일반적인 사용의 이유로 때때로 편리한 것으로 입증되었다.
본 발명은 또한 본 명세서에서의 동작을 수행하기위한 장치에 관한 것이다. 이 장치는 필요한 목적을 위해 특별히 구성될 수 있거나, 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터를 포함할 수 있다. 이러한 컴퓨터 프로그램은 플로피 디스크, 광 디스크, CD-ROM 및 자기-광학 디스크를 포함하는 임의의 유형의 디스크, 판독 전용 메모리 (ROM), 랜덤 액세스 메모리(RAM), EPROM, EEPROM, 자기 또는 광학 카드, 또는 각각 컴퓨터 시스템 버스에 연결된 전자 명령을 저장하기에 적합한 임의의 유형의 미디어를 포함할 수 있지만 이에 한정되는 것은 아니다.
본 발명은 컴퓨터 프로그램 제품 또는 소프트웨어로서 제공될 수 있으며, 그 위에 명령을 저장한 기계-판독가능한 매체를 포함할 수 있으며, 이는 컴퓨터 시스템(또는 다른 전자 장치)에 따라 프로세스를 수행하도록 프로그램될 수 있다. 기계-판독가능한 매체는 기계(예를 들어, 컴퓨터)에 의해 판독가능한 형태로 정보를 저장 또는 전송하기위한 임의의 메커니즘을 포함한다. 예를 들어, 기계-판독가능한(예를 들어, 컴퓨터-판독가능한) 매체는 기계 (예를 들어, 컴퓨터) 판독가능 저장 매체(예를 들어, 판독 전용 메모리("ROM"), 랜덤 액세스 메모리("RAM"), 자기 디스크 저장 매체, 광 저장 매체, 플래시 메모리 장치 등)를 포함할 수 있다.

Claims (20)

  1. 게임 어플리케이션의 게임플레이 세션 동안 사용자의 시각 결함 유형을 결정하기 위한 컴퓨터 구현 방법에 있어서,
    적어도 하나의 하드웨어 컴퓨팅 장치에서 실행 가능한 기계-판독가능 명령들에 의해 구성된 상기 게임 어플리케이션에 의한,
    시각 결함 유형으로 카테고리화된 하나 이상의 가상 색맹 표시 객체를 인스턴스화하는 단계 - 상기 하나 이상의 가상 색맹 표시 객체 각각은 정의된 시각 스펙트럼 내에서 시각적으로 눈에 띄게 구별가능한 컬러들 세트를 포함함 -;
    상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하는 단계;
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용을 모니터링하는 단계;
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 시각 결함 임계값을 충족시키는지 여부를 결정하는 단계; 및
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용에 의해 충족되는 상기 시각 결함 임계값에 기초하여 색맹 접근성 설정을 인에이블링하는 단계 - 상기 색맹 접근성 설정은 상기 게임 어플리케이션의 런타임 동안 프레임 렌더링에 사용되는 컬러들을 조정함 -
    를 포함하고,
    상기 게임 애플리케이션은,
    상기 하나 이상의 가상 색맹 표시 객체를 인스턴스화하기 위해 가상 환경 내에서 가상 위치를 지정하는,
    방법.
  2. 제1항에 있어서,
    상기 시각 결함 유형은,
    프로타노피아(protanopia), 듀테라노피아(deuteranopia), 및 트리아노피아(tritanopia)
    를 포함하는 방법.
  3. 제2항에 있어서,
    상기 가상 색맹 표시 객체는,
    정의된 이색성 시각 결함 유형 세트의 일부인,
    방법.
  4. 제1항에 있어서,
    가상 색맹 표시 객체의 상기 컬러들은,
    단일 이색성 시각 스펙트럼 내에서 지각가능한 패턴을 형성하는,
    방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하는 단계는,
    상기 가상 환경 내 상기 지정된 가상 위치에서 사용자에 의해 제어되는 가상 엔티티의 도래 후에 발생하는,
    방법.
  7. 제1항에 있어서,
    상기 사용자 상호작용을 모니터링하는 단계는,
    시각 결함 유형에 의해 가상 색맹 표시 객체와의 사용자 상호작용을 카테고리화하는 단계
    를 더 포함하는 방법.
  8. 제1항에 있어서,
    시각 결함 임계값은,
    상기 시각 결함 유형으로 카테고리화된 가상 색맹 표시 객체와의 사용자 상호작용의 정도를 요구하는,
    방법.
  9. 제1항에 있어서,
    가상 색맹 표시 객체와의 사용자 상호작용에 기초하여 컬러 생성 비율을 계산하는 단계;
    상기 컬러 생성 비율에 기초하여 하나 이상의 가상 색맹 표시 객체 세트를 인스턴스화하는 단계;
    하나 이상의 가상 색맹 표시 객체와 상호작용하도록 상기 사용자에게 프롬프팅하는 단계;
    상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 모니터링하는 단계;
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 조정 임계값을 충족시키는지 여부를 결정하는 단계; 및
    조정 임계값을 충족시키는 상기 사용자에 응답하여 이색성 시각 결함 설정을 조정하는 단계
    를 더 포함하는 방법.
  10. 제9항에 있어서,
    상기 가상 환경이 상기 색맹 접근성 설정을 조정하도록 야기하는 것은,
    달토니제이션(daltonization)에 적용하는 것
    을 포함하는 방법.
  11. 제9항에 있어서,
    컬러 생성 비율은,
    이색성 시각 결함 스펙트럼 내 컬러들을 나타내는 값
    을 포함하는 방법.
  12. 시스템에 있어서,
    컴퓨팅 장치에서 실행 가능한 기계 판독 가능 명령들로 구성된 적어도 하나의 프로세서
    를 포함하고,
    상기 기계 판독 가능 명령들은 상기 적어도 하나의 하드웨어 프로세서가,
    게임 애플리케이션을 실행하고 - 상기 게임 애플리케이션은 가상 환경을 포함함 -;
    상기 가상 환경 내에서 이색성 시각 결함 유형으로 카테고리화된 하나 이상의 가상 색맹 표시 객체를 인스턴스화하고 - 상기 하나 이상의 가상 색맹 표시 객체 각각은 상기 카테고리화된 시각 스펙트럼 내에서 시각적으로 눈에 띄게 구별가능한 컬러들 세트를 포함함 -;
    상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하고;
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용을 모니터링하고;
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 이색성 시각 결함 임계값을 충족시키는지 여부를 결정하고; 및
    이색성 시각 결함 유형으로 카테고리화된 상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용에 의해 충족되는 상기 이색성 시각 결함 임계값에 기초하여 이색성 색맹 접근성 설정을 인에이블링하도록 - 상기 이색성 색맹 접근성 설정은 상기 게임 애플리케이션의 런타임 동안 프레임 렌더링에 사용되는 컬러들을 조정함 -
    구성하고,
    상기 게임 애플리케이션은,
    상기 하나 이상의 가상 색맹 표시 객체를 인스턴스화하기 위해 상기 가상 환경 내에서 가상 위치를 지정하는,
    시스템.
  13. 제12항에 있어서,
    상기 카테고리화된 이색성 시각 결함 유형은,
    프로타노피아, 듀테라노피아, 및 트리아노피아
    를 포함하는 시스템.
  14. 제12항에 있어서,
    상기 하나 이상의 가상 색맹 표시 객체는 세트에 속하는, 시스템.
  15. 삭제
  16. 제12항에 있어서,
    가상 색맹 표시 객체의 상기 컬러들은,
    단일 이색성 시각 스펙트럼 내에서 지각가능한 패턴을 형성하는,
    시스템.
  17. 제12항에 있어서,
    상기 가상 환경 내 상기 지정된 가상 위치에서 상기 사용자에 의해 제어되는 가상 엔티티의 도래는,
    상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 프롬프팅하는 것을 야기하는,
    시스템.
  18. 제12항에 있어서,
    상기 기계 판독 가능 명령들은,
    사용자 상호작용을 모니터링할 때 시각 결함 유형에 의해 가상 색맹 표시 객체와의 사용자 상호작용을 카테고리화하도록 더 구성된,
    시스템.
  19. 제12항에 있어서,
    각 이색성 시각 결함 임계값은,
    정의된 시각 결함 유형으로 카테고리화된 상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용의 정도를 요구하는,
    시스템.
  20. 제12항에 있어서,
    상기 기계 판독 가능 명령들은,
    가상 색맹 표시 객체와의 사용자 상호작용에 기초하여 컬러 생성 비율을 계산하고;
    상기 컬러 생성 비율에 기초하여 하나 이상의 가상 색맹 표시 객체 세트를 인스턴스화하고;
    상기 하나 이상의 가상 색맹 표시 객체와 상호작용하도록 상기 사용자를 프롬프트하고;
    상기 하나 이상의 가상 색맹 표시 객체와의 사용자 상호작용을 모니터하고;
    상기 하나 이상의 가상 색맹 표시 객체와의 상기 사용자 상호작용이 조정 임계값을 충족시키는지 여부를 결정하고; 및
    조정 임계값을 충족시키는 상기 사용자에 응답하여 상기 이색성 시각 결함 설정을 조정하도록 더 구성된,
    시스템.
KR1020200049745A 2020-02-14 2020-04-24 색맹 진단 시스템 KR102360430B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/792,030 2020-02-14
US16/792,030 US11504625B2 (en) 2020-02-14 2020-02-14 Color blindness diagnostic system

Publications (2)

Publication Number Publication Date
KR20210103907A KR20210103907A (ko) 2021-08-24
KR102360430B1 true KR102360430B1 (ko) 2022-02-09

Family

ID=77227667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049745A KR102360430B1 (ko) 2020-02-14 2020-04-24 색맹 진단 시스템

Country Status (3)

Country Link
US (2) US11504625B2 (ko)
KR (1) KR102360430B1 (ko)
CN (1) CN113262479A (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US20240058698A1 (en) * 2022-08-17 2024-02-22 Sony Interactive Entertainment Inc. Automated detection of visual impairment and adjustment of settings for visual impairment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018520820A (ja) * 2015-06-12 2018-08-02 ルーク アンダーソンLuke ANDERSON 視覚の様相を検査する方法及びシステム
US10314477B1 (en) * 2018-10-31 2019-06-11 Capital One Services, Llc Systems and methods for dynamically modifying visual content to account for user visual impairment
JP2019162400A (ja) * 2018-03-19 2019-09-26 株式会社リコー 色覚検査装置、色覚検査方法、色覚検査プログラム及び記憶媒体

Family Cites Families (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5274801A (en) 1988-04-29 1993-12-28 International Business Machines Corp. Artifical intelligence delivery system
US5548798A (en) 1994-11-10 1996-08-20 Intel Corporation Method and apparatus for solving dense systems of linear equations with an iterative method that employs partial multiplications using rank compressed SVD basis matrices of the partitioned submatrices of the coefficient matrix
CN1183841A (zh) 1995-02-13 1998-06-03 英特特拉斯特技术公司 用于安全交易管理和电子权利保护的系统和方法
US5982389A (en) 1996-06-17 1999-11-09 Microsoft Corporation Generating optimized motion transitions for computer animated objects
JP2918499B2 (ja) 1996-09-17 1999-07-12 株式会社エイ・ティ・アール人間情報通信研究所 顔画像情報変換方法および顔画像情報変換装置
US5999195A (en) 1997-03-28 1999-12-07 Silicon Graphics, Inc. Automatic generation of transitions between motion cycles in an animation
US6064808A (en) 1997-08-01 2000-05-16 Lucent Technologies Inc. Method and apparatus for designing interconnections and passive components in integrated circuits and equivalent structures by efficient parameter extraction
US6636219B2 (en) 1998-02-26 2003-10-21 Learn.Com, Inc. System and method for automatic animation generation
EP1037134A2 (en) 1999-03-16 2000-09-20 Matsushita Electric Industrial Co., Ltd. Virtual space control data receiving apparatus and method
EP1039417B1 (en) 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
JP3942335B2 (ja) 2000-02-28 2007-07-11 東芝テック株式会社 ウインドウのデザイン変更方法およびシステム
JP2002109560A (ja) 2000-10-02 2002-04-12 Sharp Corp アニメーション再生装置、アニメーション再生システム、アニメーション再生方法、アニメーション再生方法を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
US7363199B2 (en) 2001-04-25 2008-04-22 Telekinesys Research Limited Method and apparatus for simulating soft object movement
US6956582B2 (en) 2001-08-23 2005-10-18 Evans & Sutherland Computer Corporation System and method for auto-adjusting image filtering
JP2005516503A (ja) 2002-01-24 2005-06-02 ニューポート コースト インヴェストメンツ エルエルシー 無線周波数(rf)通信の動的選択およびスケジューリング
US7110598B2 (en) 2002-08-28 2006-09-19 Micron Technology, Inc. Automatic color constancy for image sensors
US7006090B2 (en) 2003-02-07 2006-02-28 Crytek Gmbh Method and computer program product for lighting a computer graphics image and a computer
US7333111B2 (en) 2003-04-25 2008-02-19 Honda Giken Kogyo Kabushiki Kaisha Joint component framework for modeling complex joint behavior
US7307633B2 (en) 2003-05-14 2007-12-11 Pixar Statistical dynamic collisions method and apparatus utilizing skin collision points to create a skin collision response
US7944449B2 (en) 2003-05-14 2011-05-17 Pixar Methods and apparatus for export of animation data to non-native articulation schemes
US20040227761A1 (en) 2003-05-14 2004-11-18 Pixar Statistical dynamic modeling method and apparatus
US7788071B2 (en) 2004-12-03 2010-08-31 Telekinesys Research Limited Physics simulation apparatus and method
WO2006102599A2 (en) 2005-03-23 2006-09-28 Electronic Arts Inc. Computer simulation of body dynamics including a solver that solves in linear time for a set of constraints
WO2006102655A2 (en) 2005-03-23 2006-09-28 Electronic Arts Inc. Computer simulation of body dynamics including a solver that solves for position-based constraints
WO2006102623A2 (en) 2005-03-23 2006-09-28 Electronic Arts Inc. Computer simulation of body dynamics including a solver that solves in linear time for a set of constraints using vector processing
US20060274070A1 (en) 2005-04-19 2006-12-07 Herman Daniel L Techniques and workflows for computer graphics animation system
US7415152B2 (en) 2005-04-29 2008-08-19 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
US7403202B1 (en) 2005-07-12 2008-07-22 Electronic Arts, Inc. Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models
US7616204B2 (en) 2005-10-19 2009-11-10 Nvidia Corporation Method of simulating dynamic objects using position based dynamics
US7545379B2 (en) 2005-10-28 2009-06-09 Dreamworks Animation Llc Artist directed volume preserving deformation and collision resolution for animation
US8395626B2 (en) 2006-04-08 2013-03-12 Alan Millman Method and system for interactive simulation of materials
US8281281B1 (en) 2006-06-07 2012-10-02 Pixar Setting level of detail transition points
US20080049015A1 (en) 2006-08-23 2008-02-28 Baback Elmieh System for development of 3D content used in embedded devices
JP4709723B2 (ja) 2006-10-27 2011-06-22 株式会社東芝 姿勢推定装置及びその方法
US8142282B2 (en) 2006-11-15 2012-03-27 Microsoft Corporation Console integrated downloadable game service
US20080111831A1 (en) 2006-11-15 2008-05-15 Jay Son Efficient Panoramic Image Generation
US8128476B1 (en) 2007-02-02 2012-03-06 Popcap Games, Inc. Electronic game, such as a computer game involving removing pegs
GB2447095B (en) 2007-03-01 2010-07-28 Sony Comp Entertainment Europe Entertainment device and method
JP5427343B2 (ja) 2007-04-20 2014-02-26 任天堂株式会社 ゲームコントローラ
US20080268961A1 (en) 2007-04-30 2008-10-30 Michael Brook Method of creating video in a virtual world and method of distributing and using same
US7868885B2 (en) 2007-06-22 2011-01-11 Microsoft Corporation Direct manipulation of subdivision surfaces using a graphics processing unit
US8154544B1 (en) 2007-08-03 2012-04-10 Pixar User specified contact deformations for computer graphics
US8390628B2 (en) 2007-09-11 2013-03-05 Sony Computer Entertainment America Llc Facial animation using motion capture data
US8197313B2 (en) 2007-10-29 2012-06-12 Microsoft Corporation User to user game referrals
GB2454681A (en) 2007-11-14 2009-05-20 Cybersports Ltd Selection of animation for virtual entity based on behaviour of the entity
US8379036B2 (en) 2008-02-22 2013-02-19 Pixar Mesh transfer
US8648863B1 (en) 2008-05-20 2014-02-11 Pixar Methods and apparatus for performance style extraction for quality control of animation
US8154524B2 (en) 2008-06-24 2012-04-10 Microsoft Corporation Physics simulation-based interaction for surface computing
JP4439572B2 (ja) 2008-07-11 2010-03-24 任天堂株式会社 ディジタルデータ補正プログラムおよびディジタルデータ補正装置
US8730245B2 (en) 2008-12-01 2014-05-20 Naturalmotion Ltd. Defining an animation of a virtual object within a virtual world
US8207971B1 (en) 2008-12-31 2012-06-26 Lucasfilm Entertainment Company Ltd. Controlling animated character expressions
CN104815428B (zh) 2009-03-27 2018-12-25 罗素品牌有限责任公司 监测体育锻炼事件
US20100251185A1 (en) 2009-03-31 2010-09-30 Codemasters Software Company Ltd. Virtual object appearance control
US9067097B2 (en) 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
CN101877137B (zh) 2009-04-30 2013-01-02 国际商业机器公司 突出显示主题元素的方法及其系统
US20110187731A1 (en) 2009-07-10 2011-08-04 Yasuhiro Tsuchida Marker display control device, integrated circuit, and marker display control method
US20110012903A1 (en) 2009-07-16 2011-01-20 Michael Girard System and method for real-time character animation
US9672646B2 (en) 2009-08-28 2017-06-06 Adobe Systems Incorporated System and method for image editing using visual rewind operation
KR101615719B1 (ko) 2009-09-18 2016-04-27 삼성전자주식회사 사용자의 3차원 얼굴 표정 추출 방법 및 장치
US20110074807A1 (en) 2009-09-30 2011-03-31 Hitachi, Ltd. Method of color customization of content screen
US8406528B1 (en) 2009-10-05 2013-03-26 Adobe Systems Incorporated Methods and apparatuses for evaluating visual accessibility of displayable web based content and/or other digital images
US8795072B2 (en) 2009-10-13 2014-08-05 Ganz Method and system for providing a virtual presentation including a virtual companion and virtual photography
KR101098834B1 (ko) 2009-12-02 2011-12-26 한국전자통신연구원 동역학 기반 동작 생성 장치 및 방법
FR2954986B1 (fr) 2010-01-05 2012-02-10 St Microelectronics Grenoble 2 Procede de detection d'orientation de contours.
US9177409B2 (en) 2010-04-29 2015-11-03 Naturalmotion Ltd Animating a virtual object within a virtual world
US8599206B2 (en) 2010-05-25 2013-12-03 Disney Enterprises, Inc. Systems and methods for animating non-humanoid characters with human motion data
US8860732B2 (en) 2010-09-27 2014-10-14 Adobe Systems Incorporated System and method for robust physically-plausible character animation
US20120083330A1 (en) 2010-10-05 2012-04-05 Zynga Game Network, Inc. System and Method for Generating Achievement Objects Encapsulating Captured Event Playback
US20120115580A1 (en) 2010-11-05 2012-05-10 Wms Gaming Inc. Wagering game with player-directed pursuit of award outcomes
JP5118220B2 (ja) 2011-02-16 2013-01-16 株式会社スクウェア・エニックス 動作モデリング装置及び方法、並びにプログラム
JP6302614B2 (ja) 2011-02-25 2018-03-28 任天堂株式会社 通信システム、情報処理装置、プログラム及び情報処理方法
US8267764B1 (en) 2011-04-21 2012-09-18 Wms Gaming Inc. Wagering game having enhancements to queued outcomes
US9050538B2 (en) 2011-05-26 2015-06-09 Sony Corporation Collision detection and motion simulation in game virtual space
US8526763B2 (en) 2011-05-27 2013-09-03 Adobe Systems Incorporated Seamless image composition
JP5396434B2 (ja) 2011-06-07 2014-01-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置、画像生成方法、プログラム及び情報記憶媒体
JP5732353B2 (ja) 2011-08-31 2015-06-10 株式会社キーエンス 拡大観察装置、拡大観察方法および拡大観察プログラム
JP5754312B2 (ja) 2011-09-08 2015-07-29 カシオ計算機株式会社 画像処理装置及び画像処理方法、並びにプログラム
CN102509272B (zh) 2011-11-21 2013-07-10 武汉大学 一种基于颜色恒常性的彩色图像增强方法
JP2015510610A (ja) 2012-01-19 2015-04-09 マイクロソフト コーポレーション マルチプル・コンテンツ・アイテムの同時の表示
US9449416B2 (en) 2012-02-29 2016-09-20 Zynga Inc. Animation processing of linked object parts
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
US9529486B2 (en) 2012-03-29 2016-12-27 FiftyThree, Inc. Methods and apparatus for providing a digital illustration system
US9304669B2 (en) 2012-05-15 2016-04-05 Capso Vision Inc. System and method for displaying annotated capsule images
US9251618B2 (en) 2012-06-27 2016-02-02 Pixar Skin and flesh simulation using finite elements, biphasic materials, and rest state retargeting
US9616329B2 (en) 2012-06-28 2017-04-11 Electronic Arts Inc. Adaptive learning system for video game enhancement
CN103546736B (zh) 2012-07-12 2016-12-28 三星电子株式会社 图像处理设备和方法
JP5624224B2 (ja) 2012-07-31 2014-11-12 株式会社スクウェア・エニックス データ提供システム、提供装置、実行装置、制御方法、プログラム、及び記録媒体
US20140066196A1 (en) * 2012-08-30 2014-03-06 Colin William Crenshaw Realtime color vision deficiency correction
LU92074B1 (en) 2012-09-18 2014-03-19 Iee Sarl Depth image enhancement method
CN104981830A (zh) 2012-11-12 2015-10-14 新加坡科技设计大学 服装搭配系统和方法
US9659397B2 (en) 2013-01-11 2017-05-23 Disney Enterprises, Inc. Rig-based physics simulation
US9892539B2 (en) 2013-01-11 2018-02-13 Disney Enterprises, Inc. Fast rig-based physics simulation
US9786085B2 (en) 2013-03-15 2017-10-10 Dreamworks Animation L.L.C. Method and system for directly manipulating the constrained model of a computer-generated character
US9117134B1 (en) 2013-03-19 2015-08-25 Google Inc. Image merging with blending
US9370299B2 (en) * 2013-05-16 2016-06-21 Successfactors, Inc. Display accessibility for color vision impairment
US9317954B2 (en) 2013-09-23 2016-04-19 Lucasfilm Entertainment Company Ltd. Real-time performance capture with on-the-fly correctives
US9761033B2 (en) 2013-10-18 2017-09-12 Apple Inc. Object matching in a presentation application using a matching function to define match categories
GB2518019B (en) 2013-12-13 2015-07-22 Aveva Solutions Ltd Image rendering of laser scan data
US9418465B2 (en) 2013-12-31 2016-08-16 Dreamworks Animation Llc Multipoint offset sampling deformation techniques
US9990754B1 (en) 2014-02-04 2018-06-05 Electronic Arts Inc. System for rendering using position based finite element simulation
US9779775B2 (en) 2014-02-24 2017-10-03 Lyve Minds, Inc. Automatic generation of compilation videos from an original video based on metadata associated with the original video
CN104134226B (zh) 2014-03-12 2015-08-19 腾讯科技(深圳)有限公司 一种虚拟场景中的声音模拟方法、装置及客户端设备
WO2015139231A1 (en) 2014-03-19 2015-09-24 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method
WO2015181162A1 (en) 2014-05-28 2015-12-03 Thomson Licensing Method and system for touch input
EP2960905A1 (en) 2014-06-25 2015-12-30 Thomson Licensing Method and device of displaying a neutral facial expression in a paused video
WO2016025941A1 (en) 2014-08-15 2016-02-18 University Of Central Florida Research Foundation, Inc. Control interface for robotic humanoid avatar system and related methods
KR102199218B1 (ko) 2014-09-05 2021-01-07 삼성디스플레이 주식회사 표시 장치, 표시 제어 장치 및 표시 방법
KR101643573B1 (ko) 2014-11-21 2016-07-29 한국과학기술연구원 얼굴 표정 정규화를 통한 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102261422B1 (ko) 2015-01-26 2021-06-09 삼성디스플레이 주식회사 표시 장치
US20160220903A1 (en) * 2015-02-02 2016-08-04 Kuato Games (UK) Limited Systems and Methods for Dynamically Creating Personalized Storybooks based on User Interactions within a Virtual Environment
US9827496B1 (en) 2015-03-27 2017-11-28 Electronics Arts, Inc. System for example-based motion synthesis
US10022628B1 (en) 2015-03-31 2018-07-17 Electronic Arts Inc. System for feature-based motion adaptation
GB2537636B (en) 2015-04-21 2019-06-05 Sony Interactive Entertainment Inc Device and method of selecting an object for 3D printing
US9858700B2 (en) 2015-05-13 2018-01-02 Lucasfilm Entertainment Company Ltd. Animation data transfer between geometric models and associated animation models
US9532709B2 (en) * 2015-06-05 2017-01-03 Jand, Inc. System and method for determining distances from an object
KR101639066B1 (ko) 2015-07-14 2016-07-13 한국과학기술연구원 가상 공간에 형성된 가상 모델을 제어하는 방법 및 시스템
US9928663B2 (en) 2015-07-27 2018-03-27 Technische Universiteit Delft Skeletal joint optimization for linear blend skinning deformations utilizing skeletal pose sampling
US10755466B2 (en) 2015-09-21 2020-08-25 TuringSense Inc. Method and apparatus for comparing two motions
US9741146B1 (en) 2015-09-30 2017-08-22 Electronic Arts, Inc. Kinetic energy smoother
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
US9818217B2 (en) 2015-11-10 2017-11-14 Disney Enterprises, Inc. Data driven design and animation of animatronics
US20170301316A1 (en) 2016-04-13 2017-10-19 James Paul Farell Multi-path graphics rendering
US9984658B2 (en) * 2016-04-19 2018-05-29 Apple Inc. Displays with improved color accessibility
US10403018B1 (en) 2016-07-12 2019-09-03 Electronic Arts Inc. Swarm crowd rendering system
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US10118097B2 (en) 2016-08-09 2018-11-06 Electronic Arts Inc. Systems and methods for automated image processing for images with similar luminosities
US9826898B1 (en) 2016-08-19 2017-11-28 Apple Inc. Color vision assessment for displays
US10726611B1 (en) 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
US20180068178A1 (en) 2016-09-05 2018-03-08 Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. Real-time Expression Transfer for Facial Reenactment
GB2555605B (en) 2016-11-03 2020-10-21 Naturalmotion Ltd Animating a virtual object in a virtual world
WO2018112112A1 (en) 2016-12-13 2018-06-21 DeepMotion, Inc. Improved virtual reality system using multiple force arrays for a solver
US10417483B2 (en) 2017-01-25 2019-09-17 Imam Abdulrahman Bin Faisal University Facial expression recognition
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
CN111417987A (zh) 2017-07-28 2020-07-14 北奥拜勃工作室有限公司 用于实时复杂角色动画和交互性的系统和方法
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10535174B1 (en) 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
US10657677B2 (en) * 2017-12-04 2020-05-19 International Business Machines Corporation Cognitive situation-aware vision deficiency remediation
US10860838B1 (en) 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
US20200310541A1 (en) 2019-03-29 2020-10-01 Facebook Technologies, Llc Systems and methods for control schemes based on neuromuscular data
CN110135226B (zh) 2018-02-09 2023-04-07 腾讯科技(深圳)有限公司 表情动画数据处理方法、装置、计算机设备和存储介质
US11062494B2 (en) 2018-03-06 2021-07-13 Didimo, Inc. Electronic messaging utilizing animatable 3D models
WO2019209431A1 (en) 2018-04-23 2019-10-31 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
US10198845B1 (en) 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
GB201810309D0 (en) 2018-06-22 2018-08-08 Microsoft Technology Licensing Llc System for predicting articulatd object feature location
US10937199B2 (en) * 2018-07-12 2021-03-02 Dell Products, L.P. Handling color vision deficiencies in virtual, augmented, and mixed reality (xR) applications
CN112543901A (zh) 2018-08-08 2021-03-23 三星电子株式会社 根据外部对象的位置的改变显示与外部对象相对应的替身的电子装置
CN109672780A (zh) * 2018-10-30 2019-04-23 努比亚技术有限公司 一种显示控制方法、终端和计算机可读存储介质
KR102286037B1 (ko) 2018-11-12 2021-08-05 한국전자통신연구원 기계 학습을 위한 학습 데이터 셋 생성 장치 및 방법
WO2020149581A1 (en) 2019-01-14 2020-07-23 Samsung Electronics Co., Ltd. Electronic device for generating avatar and method thereof
CN111460870A (zh) 2019-01-18 2020-07-28 北京市商汤科技开发有限公司 目标的朝向确定方法及装置、电子设备及存储介质
KR102659357B1 (ko) 2019-02-07 2024-04-19 삼성전자주식회사 아바타 애니메이션을 제공하기 위한 전자 장치 및 그에 관한 방법
US10953334B2 (en) 2019-03-27 2021-03-23 Electronic Arts Inc. Virtual character generation from image or video data
US20200364303A1 (en) 2019-05-15 2020-11-19 Nvidia Corporation Grammar transfer using one or more neural networks
US10818065B1 (en) 2019-05-17 2020-10-27 Adobe Inc. Inverse kinematic solution blending in digital character animation
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11276231B2 (en) 2020-03-04 2022-03-15 Disney Enterprises, Inc. Semantic deep face models
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
KR20230003059A (ko) 2020-04-24 2023-01-05 로브록스 코포레이션 2d 이미지로부터 3d 객체 메시의 템플릿 기반 생성
US11386633B2 (en) 2020-06-13 2022-07-12 Qualcomm Incorporated Image augmentation for analytics
US11276214B2 (en) 2020-07-15 2022-03-15 De-Ideniification Ltd. System and a method for artificial neural-network based animation
US11557149B2 (en) 2020-08-14 2023-01-17 Fujitsu Limited Image synthesis for balanced datasets
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks
US20220222892A1 (en) 2021-01-11 2022-07-14 Pinscreen, Inc. Normalized three-dimensional avatar synthesis and perceptual refinement
US20220398795A1 (en) 2021-06-10 2022-12-15 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US20220398797A1 (en) 2021-06-10 2022-12-15 Electronic Arts Inc. Enhanced system for generation of facial models and animation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018520820A (ja) * 2015-06-12 2018-08-02 ルーク アンダーソンLuke ANDERSON 視覚の様相を検査する方法及びシステム
JP2019162400A (ja) * 2018-03-19 2019-09-26 株式会社リコー 色覚検査装置、色覚検査方法、色覚検査プログラム及び記憶媒体
US10314477B1 (en) * 2018-10-31 2019-06-11 Capital One Services, Llc Systems and methods for dynamically modifying visual content to account for user visual impairment

Also Published As

Publication number Publication date
US11504625B2 (en) 2022-11-22
US20210252403A1 (en) 2021-08-19
US20230146141A1 (en) 2023-05-11
CN113262479A (zh) 2021-08-17
KR20210103907A (ko) 2021-08-24
US11872492B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
KR102360430B1 (ko) 색맹 진단 시스템
US11110353B2 (en) Distributed training for machine learning of AI controlled virtual entities on video game clients
US10835824B2 (en) Seasonal reward distribution system
US11724191B2 (en) Network-based video game editing and modification distribution system
US20230283669A1 (en) Dynamic online game implementation on a client device
CN113171608B (zh) 用于基于网络的视频游戏应用程序的系统和方法
KR102432011B1 (ko) 게임 애플리케이션의 사용자 인터페이스 요소를 햅틱 피드백으로 트랜스크라이빙하기 위한 시스템 및 방법
US20230336792A1 (en) Display method and apparatus for event livestreaming, device and storage medium
JP7447296B2 (ja) 仮想道具のインタラクティブ処理方法、装置、電子機器及びコンピュータプログラム
US8043149B2 (en) In-game shot aiming indicator
US20220409998A1 (en) Request distribution system
US20230124014A1 (en) Image display method and apparatus, device and storage medium
CN113144617B (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
US11921918B2 (en) Heads up display in virtual reality
Nadkarni et al. Thunder Force-First Person Shooting FPS Game
Zhou et al. Data Feel: Exploring Visual Effects in Video Games to Support Sensemaking Tasks

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right