KR20210093936A - 인지 장애 검사 및 치료를 위한 오디오-전용 간섭 훈련 - Google Patents

인지 장애 검사 및 치료를 위한 오디오-전용 간섭 훈련 Download PDF

Info

Publication number
KR20210093936A
KR20210093936A KR1020217017435A KR20217017435A KR20210093936A KR 20210093936 A KR20210093936 A KR 20210093936A KR 1020217017435 A KR1020217017435 A KR 1020217017435A KR 20217017435 A KR20217017435 A KR 20217017435A KR 20210093936 A KR20210093936 A KR 20210093936A
Authority
KR
South Korea
Prior art keywords
audio
sensor input
processing
signal
parameter
Prior art date
Application number
KR1020217017435A
Other languages
English (en)
Inventor
제이슨 존슨
제이슨 트리스
엘레나 카나다스 에스피노사
Original Assignee
아킬리 인터랙티브 랩스 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아킬리 인터랙티브 랩스 인크. filed Critical 아킬리 인터랙티브 랩스 인크.
Publication of KR20210093936A publication Critical patent/KR20210093936A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/75Electric tinnitus maskers providing an auditory perception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Abstract

오디오 간섭 프로세싱 시스템에서 복수의 오디오-기반 사용자 프롬프트들을 포함하는 오디오 파일의 하나 이상의 오디오 시퀀스들 및/또는 스펙트럼 변조들을 갖는 하나 이상의 오디오 신호들을 생성, 렌더링 및 출력한다. 오디오 간섭 프로세싱 시스템 및 방법은, 오디오 간섭 프로세싱 세션의 인스턴스를 개시하는 것, 하나 이상의 세션 파라미터들을 구성하는 것, 하나 이상의 트랜스듀서들에 훈련 오디오 출력을 렌더링/출력하는 것, 하나 이상의 트랜스듀서들에 하나 이상의 오디오 구별 및 오디오 내비게이션 신호들을 렌더링/출력하는 것, 하나 이상의 트랜스듀서들에 하나 이상의 오디오 구별 및 오디오 내비게이션 신호들을 렌더링/출력하는 것에 응답하여 2개 이상의 센서 입력들을 수신하는 것, 2개 이상의 센서 입력들을 프로세싱하는 것, 및 하나 이상의 모달리티들을 통해 사용자에게 피드백 출력을 제공하는 것을 포함한다.

Description

인지 장애 검사 및 치료를 위한 오디오-전용 간섭 훈련
관련 출원의 교차 참조
본 출원은 2018년 11월 9일자로 출원된 미국 임시 출원 제62/758,464호의 우선권을 주장하며, 그 전체가 적어도 원용되어 본원에 포함된다.
기술분야
본 개시내용은 컴퓨터로 구현된 진단 및 치료 시스템의 분야에 관한 것으로, 특히 인지 장애의 검사 및 치료를 위한 오디오-전용 간섭 훈련 시스템 및 방법에 관한 것이다.
인지 감퇴 및 결핍은 정상적인 노화와 관련된 감퇴, 특정 정신병리 및 신경 장애를 포함하는 광범위한 장애, 질환 및 상태와 연관된다. 일부 인지 결핍은, 청각 및 시각 데이터의 프로세싱, 예를 들어, 까다로운(시끄럽고, 시간 제한이 있으며, 주의를 요하는) 조건을 갖는 환경에서의 운동 기능의 커맨드와 관련된다.
인지 감퇴 또는 인지 질환 또는 장애를 앓고 있는 뇌로부터 정상적인(neurotypical) 뇌를 구별하는 데 있어서 한 가지 결핍은 방해하고 주의를 산만하게 하는 자극의 존재 하에서도 인지 수행(cognitive performance)을 유지하는 뇌의 능력이다. 그 밖의 다른 결핍에는 주의산만(distraction)이 있는 상태에서 태스크를 수행하는 데 집중하지 못하는 것과 멀티-태스킹하지 못하는 것이 포함될 수 있다.
종래의 해결책들은, 노화하는 사람, 인지 장애를 겪는 사람, 또는 인지 능력을 향상시키기 원하는 건강한 사람의 인지 능력을 다양한 방법론에 따라 개선시키기 위한, 컴퓨터로 구현된 다양한 방법, 시스템, 및 툴을 제공하는 것을 시도하였다. 이러한 방법론 중 한 가지는, 주의산만이 있는 상태에서 멀티-태스크를 행하고 태스크를 수행하는 것에 집중하는 개인의 능력을 향상시키기 위해 다양한 태스크 및 자극을 채용하려고 하는 간섭 훈련(interference training)이다. 예를 들어, 가잘리(Gazzaley)의 미국 특허 제9940844B2호(이하, "가잘리 특허")는 인지 기능에서 간섭을 처리하는 개인의 능력을 개선시킴으로써 개인의 인지를 향상시키기 위한 컴퓨터로 구현된 방법 및 툴을 제공한다. 가잘리 특허는, 수행할 태스크를 개인에게 제시하는 것, 간섭을 개인에게 제시하는 것, 개인으로부터 입력을 수신하는 것을 수반하는 특정 인지 훈련 방법을 제공한다. 간섭이 주의산만인 경우, 개인은 간섭을 무시하게 된다. 간섭이 인터럽터(interrupter)인 경우, 개인은 보조 태스크로서 그 인터럽터에게 응답하도록 명령받으며, 이 시점에서 개인은 멀티-태스킹 중이다. 입력은 또한, 이러한 보조 태스크에 속하는 개인으로부터 수신되고, 개인의 분석을 수행하고 개인으로부터 피드백을 생성하는 것을 포함한다. 분석은 각각의 유형의 간섭을 갖거나 갖지 않는 성능들의 비교를 포함하고, 어떤 경우에는, 태스크의 난이도는 이러한 비교의 함수로서 변조된다.
가잘리 특허에 의해 교시된 것들과 같은 간섭 훈련을 구현하기 위한 이전의 기술들은 일정한 태스크 및 타겟 구별 태스크를 해 나가게 하기 위해 시청각(audio-visual) 경험에 의존하였다. 이러한 방법 및 시스템은 신체 장애 또는 어려움, 특히 시각 장애를 갖거나, 그렇지 않으면 시각적 표시에 유효하게 관여할 수 없는 상황 또는 상태에 처해 있는 사람들에게는 적합하지 않다.
본 출원인은 개인의 하나 이상의 인지 능력을 개선시키기 위해 간섭 훈련을 구현하기 위한 현재의 시스템, 툴 및 방법이 갖는 다수의 결함들 및 문제점들을, 이에 쏟아부은 노력과, 창의력과, 혁신을 통해, 확인하였다. 본 출원인은 본 발명에 의해 구현되는 해결책을 개발하였고, 그 실시형태들을 아래에 상세하게 설명한다.
다음은 본 발명의 기본적인 이해를 제공하기 위해 본 발명의 일부 실시형태들의 간략화된 요약을 제시한다. 이 요약은 본 발명의 광범위한 개요는 아니다. 이는, 본 발명의 핵심/중요 엘리먼트들을 식별하거나 본 발명의 범위를 기술하도록 의도되지 않는다. 그 유일한 목적은 다음의 보다 상세한 설명에 대한 서두로서 간략화된 형태로 본 발명의 특정 예시적인 실시형태들을 제시하는 것이다.
본 개시내용의 특정 양태는, 컴퓨터로 구현된 오디오 간섭 프로세싱을 위한 방법을 제공하며, 이 방법은: 프로세싱 유닛을 통해, 제1 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제1 신호 시퀀스 또는 제1 변조 파라미터를 포함하는 제1 오디오 신호를 제시하는 단계; 프로세싱 유닛을 통해, 제2 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제2 신호 시퀀스 또는 제2 변조 파라미터를 포함하는 제2 오디오 신호를 제시하는 단계; 오디오 출력 디바이스를 통해, 제1 오디오 신호 및 제2 오디오 신호 각각을 오디오 간섭 프로세싱 세션의 인스턴스를 포함하는 2개 이상의 주기적 시점(periodic time point)들에서 적어도 하나의 오디오 출력 디바이스에 출력하는 단계; 프로세싱 유닛을 통해, 2개 이상의 시점들에서 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 단계; 프로세싱 유닛을 통해, 2개 이상의 시점들에서 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신하는 단계; 및 프로세서를 통해, 타이밍 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터에 따라 제1 센서 입력 및 제2 센서 입력을 프로세싱하는 단계를 포함한다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 방법을 제공하며, 여기서 제1 센서 입력은 오디오 타겟 구별 입력(audio target discrimination input)을 포함하고, 제1 오디오 간섭 프로세싱 태스크는 오디오 타겟 구별 태스크이다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 방법을 제공하며, 여기서 제2 센서 입력은 오디오 내비게이션 입력(audio navigation input)을 포함하고, 제2 오디오 간섭 프로세싱 태스크는 오디오 내비게이션 태스크이다.
오디오 간섭 프로세싱 방법의 특정 실시형태는, 프로세싱 유닛을 통해, 오디오 간섭 프로세싱 세션의 인스턴스에서 오디오 간섭 출력을 포함하는 제3 오디오 신호를 제시하는 단계를 더 포함할 수 있다.
오디오 간섭 프로세싱 방법의 특정 실시형태는, 프로세서를 통해, 제1 센서 입력 및 제2 센서 입력을 프로세싱하는 것에 응답하여 적어도 하나의 입력 파라미터를 적어도 하나의 태스크 성능 파라미터에 따라 수정하는 단계를 더 포함할 수 있다.
오디오 간섭 프로세싱 방법의 특정 실시형태는, 프로세서를 통해, 제1 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 제1 오디오 신호의 제1 신호 시퀀스 또는 제1 변조 파라미터를 적어도 하나의 태스크 수정 파라미터에 따라 수정하는 단계를 더 포함한다.
오디오 간섭 프로세싱 방법의 특정 실시형태는, 프로세서를 통해, 제1 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 제2 오디오 신호의 제2 신호 시퀀스 또는 제2 변조 파라미터를 적어도 하나의 태스크 수정 파라미터에 따라 수정하는 단계를 더 포함할 수 있다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 방법을 제공하며, 여기서 제1 오디오 신호는 대상 오디오 타겟을 포함하는 랜덤으로 생성된 오디오 시퀀스를 포함한다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 방법을 제공하며, 여기서 제2 센서 입력은 모바일 전자 디바이스를 스테레오 필드 내의 제2 오디오 신호의 방향으로 회전시키는 것을 포함한다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 방법을 제공하며, 여기서 제1 오디오 신호는 대상 오디오 타겟을 포함하는 랜덤으로 생성된 오디오 시퀀스를 포함하고, 제2 오디오 신호는 방향성(directional) 오디오 프롬프트를 포함하는 패닝 변조(panning modulation)를 포함한다.
본 개시내용의 추가적인 양태는 오디오 간섭 프로세싱을 위한 시스템을 제공하며, 이 시스템은: 적어도 하나의 스피커 또는 헤드폰들을 포함하는 적어도 하나의 오디오 출력 디바이스; 적어도 하나의 센서를 포함하고 적어도 하나의 오디오 출력 디바이스에 오디오 신호를 제공하도록 작동 가능하게 구성된 모바일 전자 디바이스; 모바일 전자 디바이스와 통신가능하게 맞물린 통합 또는 원격 프로세서; 및 실행될 때 프로세서로 하여금: 제1 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제1 신호 시퀀스 또는 제1 변조 파라미터를 포함하는 제1 오디오 신호를 렌더링하는 것; 제2 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제2 신호 시퀀스 또는 제2 변조 파라미터를 포함하는 제2 오디오 신호를 렌더링하는 것; 2개 이상의 주기적 시점들에서 제1 오디오 신호 및 제2 오디오 신호 각각을 오디오 간섭 프로세싱 세션의 인스턴스를 포함하는 적어도 하나의 오디오 출력 디바이스에 출력하는 것; 2개 이상의 시점들에서 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 것; 2개 이상의 시점들에서 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신하는 것; 및 타이밍 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터에 따라 제1 센서 입력 및 제2 센서 입력을 프로세싱하는 것을 포함하는, 하나 이상의 동작을 수행하게 하는 명령어들이 저장된 비일시적 컴퓨터 판독가능 매체를 포함한다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 시스템을 제공하는데, 여기서 적어도 하나의 센서는 터치 센서 및 모션 센서 중 적어도 하나를 포함한다.
오디오 간섭 프로세싱 시스템의 특정 실시형태는, 프로세서로 하여금 랜덤 시퀀스 생성기 및 변조기 중 적어도 하나를 포함하는 하나 이상의 오디오 프로세싱 모듈들에 따라 제1 오디오 신호 및 제2 오디오 신호를 생성하게 하기 위한 하나 이상의 동작을 더 포함할 수 있다.
오디오 간섭 프로세싱 시스템의 특정 실시형태는, 프로세서로 하여금 오디오 간섭 프로세싱 세션의 인스턴스 내에 오디오 간섭 출력을 포함하는 제3 오디오 신호를 렌더링하게 하기 위한 하나 이상의 동작을 더 포함할 수 있다.
오디오 간섭 프로세싱 시스템의 특정 실시형태는, 프로세서로 하여금 적어도 하나의 성능 파라미터에 따라 제1 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 제1 오디오 신호의 제1 신호 시퀀스 또는 제1 변조 파라미터를 수정하게 하기 위한 하나 이상의 동작을 더 포함할 수 있다.
오디오 간섭 프로세싱 시스템의 특정 실시형태는, 프로세서로 하여금 제1 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 제2 오디오 신호의 제2 신호 시퀀스 또는 제2 변조 파라미터를 적어도 하나의 성능 파라미터에 따라 수정하게 하기 위한 하나 이상의 동작을 더 포함할 수 있다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 시스템을 제공하며, 여기서 제2 센서 입력은 모바일 전자 디바이스를 스테레오 필드 내의 제1 오디오 신호 또는 제2 오디오 신호의 방향으로 회전시키는 것을 포함한다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 시스템을 제공하며, 여기서 제1 변조 파라미터 또는 제2 변조 파라미터는 오디오 내비게이션 파라미터를 포함하는 패닝 변조이다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 시스템을 제공하며, 여기서 하나 이상의 동작은 제1 센서 입력 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 피드백 신호를 모바일 전자 디바이스에 제공하는 것을 더 포함한다.
본 개시내용의 특정 실시형태는 오디오 간섭 프로세싱 시스템을 제공하며, 여기서 제1 오디오 간섭 프로세싱 태스크는 오디오 타겟 구별 태스크를 포함하고, 제2 오디오 간섭 프로세싱 태스크는 오디오 내비게이션 태스크를 포함한다.
본 개시내용의 또 다른 양태는 하나 이상의 프로세서들에게 오디오 간섭 프로세싱을 위한 방법의 동작들을 실행하게 하는 명령을 내리기 위한 명령어들로 인코딩된 비일시적 컴퓨터-판독가능 매체를 제공하는데, 여기서 동작들은: 시퀀싱 파라미터 및 변조 파라미터 중 적어도 하나를 포함하는 하나 이상의 오디오 프로세싱 파라미터들에 따라, 제1 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하는 제1 오디오 신호와, 제2 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하는 제2 오디오 신호를 프로세싱하는 것; 2개 이상의 시점들에서 제1 오디오 신호 및 제2 오디오 신호 각각을 오디오 간섭 프로세싱 세션의 인스턴스를 포함하는 오디오 출력 디바이스에 출력하는 것; 2개 이상의 시점들에서 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 것; 2개 이상의 시점들에서 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 것; 2개 이상의 시점들에서 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신하는 것; 및 타이킹 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터에 따라 제1 센서 입력 및 제2 센서 입력을 프로세싱하는 것을 포함한다.
전술한 내용은, 후속하는 본 발명의 상세한 설명이 더 잘 이해될 수 있고 본 기술 분야에 대한 본 발명의 기여가 더욱 충분하게 인식될 수 있도록, 본 발명의 더욱 적절하고 중요한 특징들을 다소 광범위하게 요약하였다. 본 발명의 청구범위들의 주제를 형성하는 본 발명의 추가적인 특징들이 이하에서 설명될 것이다. 개념 및 개시된 특정 방법들 및 구조들이 본 발명의 동일한 목적들을 수행하기 위한 다른 구조들을 수정 또는 설계하기 위한 기초로서 용이하게 활용될 수 있다는 점이 당업자들에 의해 이해되어야 한다. 이러한 등가의 구조들이 첨부된 청구범위들에 기재된 바와 같은 본 발명의 사상 및 범위로부터 벗어나지 않는다는 것이 당업자들에 의해 인식되어야 한다.
본 개시내용의 상기 및 다른 목적들, 특징들 및 이점들은 첨부 도면과 함께 취해진 다음의 상세한 설명으로부터 더욱 명백해질 것이다.
도 1은 본 개시내용의 하나 이상의 양태들이 구현될 수 있는 컴퓨팅 디바이스의 예시적인 실시형태이다.
도 2는 본 개시내용의 하나 이상의 양태들이 구현될 수 있는 컴퓨팅 시스템의 예시적인 실시형태이다.
도 3은 본 개시내용의 하나 이상의 양태들이 구현될 수 있는 시스템 아키텍쳐의 예시적인 실시형태이다.
도 4a는 본 개시내용의 일 실시형태에 따른 타겟 오디오 훈련 인스턴스를 포함하는 타겟 오디오 시퀀스의 시간/진폭 도면이다.
도 4b는 본 개시내용의 일 실시형태에 따른 오디오 구별 인스턴스를 포함하는 타겟 오디오 시퀀스 및 비-타겟 오디오 시퀀스의 시간/진폭 도면이다.
도 4c는 본 개시내용의 일 실시형태에 따라 배경 오디오 파일의 존재시에 오디오 구별 인스턴스를 포함하는 타겟 오디오 시퀀스 및 비-타겟 오디오 시퀀스의 시간/진폭 도면이다.
도 5는 본 개시내용의 일 실시형태에 따라 오디오 내비게이션 인스턴스를 포함하는 오디오 출력을 위한 패닝 변조의 시간/진폭 도면이다.
도 6은 본 개시내용의 일 실시형태에 따라 오디오 간섭 프로세싱 세션을 포함하는 오디오 출력의 시간/진폭 도면이다.
도 7은 본 개시내용의 특정 양태들에 따라 오디오-전용 간섭 프로세싱 시스템 및 방법의 기능 블록도이다.
도 8은 본 개시내용의 특정 양태들에 따라 오디오-전용 간섭 프로세싱 시스템 및 방법의 루틴의 기능 블록도이다.
도 9는 본 개시내용의 특정 양태들에 따라 오디오-전용 간섭 프로세싱 시스템 및 방법의 루틴의 기능 블록도이다.
도 10은 본 개시내용의 하나 이상의 양태들에 따라 오디오 간섭 프로세싱 세션의 인스턴스에서의 센서 입력들과 오디오 출력들 사이의 시간적 관계를 도시하는 시간/진폭 도면이다.
도 11 내지 도 21은 본 개시내용의 특정 예시적인 실시형태들에 따라 오디오-전용 간섭 프로세싱 세션의 하나 이상의 인스턴스들을 포함하는 오디오 출력들에 응답하는 다양한 사용자 입력들의 기능 도면들이다.
도 22는 본 개시내용의 일 양태에 따른 오디오-전용 간섭 프로세싱 방법의 방법 흐름도이다.
이제 여러 도면들에 걸쳐 유사한 참조 부호가 유사한 엘리먼트들을 나타내는 도면들을 묘사적으로 참조하면, 도 1은 본 발명의 특정 예시된 실시형태들이 구현될 수 있는 컴퓨팅 시스템을 도시한다.
이제 도 1을 참조하면, 본 개시내용의 하나 이상의 양태들이 구현될 수 있는 프로세서-구현 컴퓨팅 디바이스가 도시된다. 일 실시형태에 따르면, 프로세싱 시스템(100)은 일반적으로, 버스 또는 버스들의 그룹(110)을 통해 함께 커플링된, 적어도 하나의 프로세서(102), 프로세싱 유닛 또는 복수의 프로세서들, 메모리(104), 적어도 하나의 입력 디바이스(106) 및 적어도 하나의 출력 디바이스(108)를 포함할 수 있다. 특정 실시형태들에서, 입력 디바이스(106) 및 출력 디바이스(108)는 동일한 디바이스일 수 있다. 인터페이스(112)는 또한 프로세싱 시스템(100)을 하나 이상의 주변 디바이스들에 커플링하기 위해 제공될 수 있는데, 예를 들어, 인터페이스(112)는 PCI 카드 또는 PC 카드일 수 있다. 적어도 하나의 데이터베이스(116)를 하우징하는 적어도 하나의 저장 디바이스(114)가 또한 제공될 수 있다. 메모리(104)는, 임의의 형태의 메모리 디바이스, 예를 들어, 휘발성 또는 비-휘발성 메모리, 고체 상태 저장 디바이스, 자기 디바이스 등일 수 있다. 프로세서(102)는, 예를 들어, 프로세싱 시스템(100) 내에서 상이한 기능들을 핸들링하기 위해 하나 초과의 별개의 프로세싱 디바이스를 포함할 수 있다. 입력 디바이스(106)는 입력 데이터(118)를 수신하고, 예를 들어, 키보드, 포인터 디바이스, 예컨대 펜형 디바이스 또는 마우스, 음성 제어 활성화를 위한 오디오 수신 디바이스, 예컨대 마이크로폰, 데이터 수신기 또는 안테나, 예컨대, 모뎀 또는 무선 데이터 어댑터, 데이터 획득 카드 등을 포함할 수 있다. 입력 데이터(118)는 상이한 소스들, 예를 들어, 네트워크를 통해 수신된 데이터와 함께 키보드 명령어들로부터 나올 수 있다. 출력 디바이스(108)는 출력 데이터(120)를 생산하거나 생성하고, 예를 들어 디스플레이 디바이스 또는 모니터(이 경우, 출력 데이터(120)가 시각적임), 프린터(이 경우, 출력 데이터(120)가 인쇄됨), 포트, 예컨대 USB 포트, 주변 컴포넌트 어댑터, 데이터 송신기 또는 안테나, 예컨대 모뎀 또는 무선 네트워크 어댑터 등을 포함할 수 있다. 출력 데이터(120)는, 상이한 출력 디바이스들, 예를 들어 네트워크에 송신된 데이터와 함께 모니터 상의 시각적 디스플레이와는 별개일 수 있고/있거나 그로부터 파생될 수 있다. 사용자는, 예를 들어 모니터 상에서 또는 프린터를 사용하여 데이터 출력 또는 데이터 출력의 해석을 볼 수 있다. 저장 디바이스(114)는, 임의의 형태의 데이터 또는 정보 저장 수단, 예를 들어 휘발성 또는 비-휘발성 메모리, 고체 상태 저장 디바이스, 자기 디바이스 등일 수 있다.
사용시, 프로세싱 시스템(100)은, 데이터 또는 정보가 유선 또는 무선 통신 수단을 통해 적어도 하나의 데이터베이스(116)에 저장 및/또는 그로부터 회수(retrieve)되도록 적응된다. 인터페이스(112)는, 프로세싱 유닛(102)과 특수 목적으로 사용될 수 있는 주변 컴포넌트들 사이의 유선 및/또는 무선 통신을 허용할 수 있다. 일반적으로, 프로세서(102)는 입력 디바이스(106)를 통해 입력 데이터(118)로서 명령어들을 수신할 수 있고, 출력 디바이스(108)를 활용함으로써 프로세싱된 결과들 또는 다른 출력을 사용자에게 디스플레이할 수 있다. 1개 초과의 입력 디바이스(106) 및/또는 출력 디바이스(108)가 제공될 수 있다. 프로세싱 시스템(100)은 임의의 형태의 단말, 서버, 특수 하드웨어 등일 수 있음을 이해해야 한다.
프로세싱 시스템(100)은 네트워크화된 통신 시스템의 일부일 수 있음을 이해해야 한다. 프로세싱 시스템(100)은 네트워크, 예를 들어, 인터넷 또는 WAN에 접속할 수 있다. 입력 데이터(118) 및 출력 데이터(120)는 네트워크를 통해 다른 디바이스와 통신할 수 있다. 네트워크를 통한 정보 및/또는 데이터의 전송은 유선 통신 수단 또는 무선 통신 수단을 사용하여 달성할 수 있다. 서버는 네트워크와 하나 이상의 데이터베이스들 사이의 데이터의 전송을 용이하게 할 수 있다. 서버 및 하나 이상의 데이터베이스(들)은 적합한 정보 소스의 일 예를 제공한다.
따라서, 도 1에 예시된 프로세싱 컴퓨팅 시스템 환경(100)은 하나 이상의 원격 컴퓨터들로의 논리적 접속들을 사용하여 네트워크화된 환경에서 동작할 수 있다. 실시형태들에서, 원격 컴퓨터는 퍼스널 컴퓨터, 서버, 라우터, 네트워크 PC, 피어 디바이스, 또는 다른 공통 네트워크 노드일 수 있고, 통상적으로는 앞서 설명된 엘리먼트들의 대부분 또는 전부를 포함한다.
도 1에 도시된 논리적 접속은 로컬 영역 네트워크(LAN; local area network) 및 광역 네트워크(WAN; wide area network)를 포함하지만, 개인 영역 네트워크(PAN; personal area network)와 같은 다른 네트워크들을 또한 포함할 수 있다는 점이 더 이해되어야 한다. 이러한 네트워킹 환경은 사무실, 전사적(enterprise-wide) 컴퓨터 네트워크, 인트라넷 및 인터넷에서 흔한 것이다. 예를 들어, LAN 네트워킹 환경에서 사용될 때, 컴퓨팅 시스템 환경(100)은 네트워크 인터페이스 또는 어댑터를 통해 LAN에 접속된다. WAN 네트워킹 환경에서 사용될 때, 컴퓨팅 시스템 환경은 통상적으로 인터넷과 같은 WAN을 통한 통신을 확립하기 위한 모뎀 또는 다른 수단을 포함한다. 내장형 또는 외장형일 수 있는 모뎀은 사용자 입력 인터페이스를 통해 또는 다른 적절한 메커니즘을 통해 시스템 버스에 접속될 수 있다. 네트워크화된 환경에서, 컴퓨팅 시스템 환경(100) 또는 그 일부와 관련하여 도시된 프로그램 모듈은 원격 메모리 저장 디바이스에 저장될 수 있다. 도 1의 도시된 네트워크 접속들은 예시적이며, 다수의 컴퓨터들 사이에 통신 링크를 확립하는 다른 수단들이 사용될 수 있다는 점이 이해되어야 한다.
도 1은 본 발명의 실시형태들이 구현될 수 있는 예시적인 및/또는 적합한 예시적인 환경의 간략하고 일반적인 설명을 제공하도록 의도된다. 즉, 도 1은 적합한 환경의 일 예일 뿐이며, 본원에 예시된 본 발명의 실시형태들의 구조, 사용 범위, 또는 기능에 관해 어떠한 제한을 제안하는 것으로 의도되지 않는다. 특정 환경은 예시된 동작 환경에 예시된 컴포넌트들 중 임의의 하나 또는 이들의 특정 조합에 관한 임의의 의존성 또는 요건을 갖는 것으로 해석되지 않아야 한다. 예를 들어, 특정 경우에, 환경의 하나 이상의 엘러먼트들은 필요하지 않는 것으로 간주되어 생략될 수 있다. 다른 경우에, 하나 이상의 다른 엘리먼트들이 필요하고 추가되는 것으로 간주될 수 있다.
후술하는 설명에서, 특정 실시형태들은 도 1의 컴퓨팅 시스템 환경(100)과 같은 하나 이상의 컴퓨팅 디바이스에 의해 수행되는 행위 및 동작의 상징적 표현을 참조하여 설명될 수 있다. 이와 같이, 때때로 컴퓨터-실행되는 것으로 지칭되는 이러한 행위 및 동작은 구조화된 형태로 데이터를 나타내는 전기 신호의 컴퓨터의 프로세서에 의한 조작을 포함한다는 점이 이해될 것이다. 이 조작은 데이터를 변환하거나 컴퓨터의 메모리 시스템 내의 위치에 데이터를 유지하며, 이는 당업자에 의해 통상적으로 이해되는 방식으로 컴퓨터의 동작을 재구성하거나 그렇지 않으면 변경한다. 데이터가 유지되는 데이터 구조는 데이터의 포맷에 의해 정의된 특정 특성을 갖는 메모리의 물리적 위치이다. 그러나, 특정 실시형태가 전술한 맥락에서 설명될 수 있지만, 본 개시내용의 범위는 이에 제한되는 것을 의미하지 않으며, 이는 본 기술분야의 당업자들이 이후에 설명되는 행위 및 동작이 또한 하드웨어로 구현될 수 있다는 점을 인식할 것이기 때문이다.
실시형태는 다수의 다른 범용 또는 특수-목적 컴퓨팅 디바이스 및 컴퓨팅 시스템 환경 또는 구성으로 구현될 수 있다. 본 발명의 실시형태와 함께 사용하기에 적합할 수 있는 잘 알려진 컴퓨팅 시스템, 환경, 구성의 예는, 퍼스널 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 개인 휴대정보 단말기(PDA: personal digital assistant), 멀티프로세서 시스템, 마이크로프로세서-기반 시스템, 셋톱 박스, 프로그래밍 가능한 가전 제품, 네트워크, 미니컴퓨터, 서버 컴퓨터, 게임 서버 컴퓨터, 웹 서버 컴퓨터, 메인프레임 컴퓨터 및 전술한 시스템 또는 디바이스 중 임의의 것을 포함하는 분산된 컴퓨팅 환경을 포함하지만, 이에 제한되지 않는다.
실시형태는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터 실행가능 명령어의 일반적인 맥락에서 설명될 수 있다. 일반적으로, 프로그램 모듈은 특정 태스크를 수행하거나 특정 추상 데이터 유형을 구현하는 루틴, 프로그램, 객체, 컴포넌트, 데이터 구조 등을 포함한다. 실시형태는 또한 통신 네트워크를 통해 링크되는 원격 프로세싱 디바이스에 의해 태스크가 수행되는 분산된 컴퓨팅 환경에서 실행될 수 있다. 분산된 컴퓨팅 환경에서, 프로그램 모듈은 메모리 저장 디바이스를 포함하는 로컬 및 원격 컴퓨터 저장 매체 둘 다에 위치될 수 있다.
도 1의 예시적인 컴퓨팅 시스템 환경(100)이 일반적으로 도시되고 위에서 논의됨에 따라, 인지 장애의 검사 및 치료를 위한 오디오-전용 간섭 훈련을 위한 시스템 및 방법에 일반적으로 관련된 본 발명의 예시된 실시형태를 이제 설명할 것이다. 본 명세서에 설명된 방법의 특정 양태는 오디오 간섭 프로세싱 세션의 인스턴스를 개시하는 것, 하나 이상의 세션 파라미터들을 구성하는 것, 훈련 오디오 출력을 하나 이상의 트랜스듀서들에 렌더링/출력하는 것, 하나 이상의 오디오 구별 및 오디오 내비게이션 신호들을 하나 이상의 트랜스듀서들에 렌더링/출력하는 것, 하나 이상의 오디오 구별 및 오디오 내비게이션 신호들을 하나 이상의 트랜스듀서들에 렌더링/출력하는 것에 응답하여 2개 이상의 센서 입력들을 수신하는 것, 2개 이상의 센서 입력들을 프로세싱하는 것, 및 하나 이상의 모달리티들(modalities)을 통해 사용자에게 피드백 출력을 제공하는 것을 포함한다는 점이 이해되고 인식되어야 한다.
본 발명 및 본 발명의 특정 예시적인 실시형태가 설명되기 전에, 본 발명은 설명된 특정 실시형태로 제한되지 않으며 물론 다양할 수 있다는 점이 이해되어야 한다. 본 발명의 범위가 첨부된 청구범위에 의해서만 제한될 것이기 때문에, 본원에 사용되는 용어는 특정 실시형태들만을 설명하기 위한 목적일 뿐 제한하는 것으로 의도되지 않는다는 점이 이해되어야 한다.
값들의 범위가 제공되는 경우, 문맥이 그와 다른 것으로 명백하게 나타내지 않는 한 하한 단위의 10분의 1에 이르는, 그 범위의 상한과 하한 사이의 각각의 중간 값 및 그 언급된 범위 내의 임의의 다른 언급된 또는 중간 값이 본 발명에 포함되는 것으로 이해된다. 이러한 더 작은 범위들의 상한 및 하한은 독립적으로 더 작은 범위에 포함될 수 있고, 또한 언급된 범위에서 임의의 구체적으로 배제된 한계를 조건으로 하여 본 발명에 의해 포함된다. 언급된 범위가 종점(endpoint) 한계 중 하나 또는 둘 모두를 포함하는 경우, 이들 포함된 종점 중 하나 또는 둘 다를 배제한 범위도 또한 본 발명의 범위에 포함된다.
달리 정의되지 않는 한, 본원에 사용된 모든 기술적 및 과학적 용어는 본 발명이 속하는 기술 분야의 당업자에 의해 통상적으로 이해되는 것과 동일한 의미를 갖는다. 본원에 설명된 것과 유사하거나 동등한 임의의 방법 및 물질이 또한 본 발명의 실시 또는 시험에 사용될 수 있지만, 예시적인 방법 및 물질이 이제 설명된다. 본원에 언급된 모든 간행물들은 간행물이 인용되는 것과 관련하여 방법 및/또는 물질을 개시하고 설명하기 위해 본원에 참조로 포함된다.
본 명세서 및 첨부된 청구범위에 사용되는 바와 같이, 단수 형태 "a", "an," 및 "the"는 문맥상 다르게 지시하지 않는 한 복수의 지시 대상을 포함한다는 점을 주의해야 한다. 따라서, 예를 들어, "자극"에 대한 언급은 복수의 이러한 자극을 포함한다. "신호"에 대한 언급은 하나 이상의 신호, 하나 이상의 신호 시퀀스, 디지털 파일 포맷으로 저장되거나 구현되거나 음향 출력으로 렌더링된 사운드의 하나 이상의 표현, 및 당업자에게 공지된 이들의 등가물 등에 대한 참조를 포함한다.
본원에 논의된 모든 간행물들은 본 출원의 출원일 이전의 그들의 개시내용만 제공한다. 본원의 그 어떠한 것도 본 발명이 종래 발명에 의한 이러한 공개에 선행할 자격이 없다는 것을 인정하는 것으로 해석되어서는 안 된다. 또한, 제공된 공개일은 실제 공개일과 다를 수 있고, 이는 개별적으로 확인할 필요가 있을 수 있다.
이제 도 2를 참조하면, 본 개시내용의 하나 이상의 양태가 구현될 수 있는 컴퓨팅 시스템(200)의 예시적인 실시형태가 도시된다. 일 실시형태에 따르면, 컴퓨팅 시스템(200)은 트랜스듀서(222R 및 222L)와 통신가능하게 맞물린 컴퓨팅 디바이스(202)로 구성된다. 특정 실시형태들에서, 컴퓨팅 디바이스(202)는 입/출력(I/O) 디바이스(220)와 작동 가능하게 맞물린다. 컴퓨팅 디바이스(202)는 프로세싱 유닛(204), 메모리(206), 하나 이상의 센서들(208), 및 오디오 코덱(210)으로 작동 가능하게 구성될 수 있다. 특정 실시형태들에서, 컴퓨팅 디바이스(202)는 도 1의 예시적인 컴퓨팅 시스템 환경(100)으로서 구현될 수 있다. 메모리(206)는 프로세싱 유닛(204)으로 하여금 오디오 간섭 프로세싱 시스템 및 컴퓨터로 구현된 방법에 따라 특정 기능 및 동작을 수행하게 하는 명령어들을 포함하는 복수의 모듈을 포함할 수 있다. 일 실시형태에 따라, 메모리(206)는 오디오 프로세싱 모듈(212), 프로세서 실행가능 명령어(214), 컴퓨팅 모듈(216), 및 데이터 저장소(218)를 포함할 수 있다. 오디오 프로세싱 모듈(212)은 프로세서가 하나 이상의 오디오 프로세싱 기능을 수행하게 하는 특정 오디오 프로세싱 소프트웨어를 포함할 수 있다. 오디오 프로세싱 모듈(212)은 오디오 믹싱 기능, 오디오 효과 기능, 오디오 렌더링 기능, 및 오디오 출력 기능을 포함하는 하나 이상의 오디오 신호 프로세싱 기능을 포함할 수 있다. 오디오 프로세싱 모듈(212)은, 타겟 신호 또는 캐리어의 하나 이상의 특성, 예컨대 효과, 스펙트럼 변조, 또는 시퀀싱(sequencing)을 조작하기 위한 제어 파라미터를 포함하는 하나 이상의 소프트웨어-기반 변조기를 포함할 수 있다. 오디오 프로세싱 모듈(212)은 피치, 볼륨, 팬, 필터 컷오프, 웨이브테이블 인덱스, 및 효과 제어를 변조하기 위해 변조 소스를 라우팅하도록 구성될 수 있다. 특정 실시형태에 따르면, 하나 이상의 소프트웨어-기반 변조기는 저주파수 발진기, ADSR 엔벨로프, 변조 휠, 및 스텝 시퀀서 중 하나 이상을 포함할 수 있다. 오디오 프로세싱 모듈(212)은 하나 이상의 오디오 시퀀스를 프로세싱하고 렌더링하기 위한 명령어들을 포함할 수 있다. 특정 실시형태에 따르면, 오디오 시퀀스는 스텝 시퀀서 모듈과 같은 변조기 기능, 또는 랜덤 시퀀스 생성기 또는 MIDI 생성기와 같은 신호 생성기 기능의 적용을 통해 생성될 수 있다. 스텝 시퀀서 또는 신호 생성기 기능은 컴퓨팅 모듈(216)에 의해 동적으로 구성될 수 있는 하나 이상의 제어 파라미터를 포함할 수 있다. 오디오 프로세싱 모듈(212)은 스테레오 필드의 사운드 신호의 분포 및/또는 기타 공간적 효과를 변조하도록 구성된 스펙트럼 효과 모듈을 포함할 수 있다.
컴퓨팅 모듈(216)은 하나 이상의 컴퓨팅 디바이스 상에서 오디오 간섭 프로세싱 애플리케이션을 실행하기 위한 애플리케이션 로직을 포함할 수 있다. 컴퓨팅 모듈(216)은, 하나 이상의 오디오 프로세싱 기능를 동적으로 제어하기 위한 명령어들을 포함하여, 오디오 프로세싱 모듈(212)의 하나 이상의 오디오 프로세싱 기능을 제어하기 위한 명령어들을 포함할 수 있다. 컴퓨팅 모듈(216)은 일반적으로 하나 이상의 오디오 간섭 프로세스 제어를 구성하고, 센서 입력을 프로세싱하고, 하나 이상의 애플리케이션 또는 오디오 프로세싱 제어 파라미터들을 동적으로 수정하기 위한 명령어들을 제공할 수 있다. 프로세서 실행가능 명령어(214)는 컴퓨팅 모듈(216)의 하나 이상의 제어 파라미터들에 의해 동적으로 수정되거나 통지될 수 있고, 또한 프로세서 실행가능 명령어들은 프로세싱 유닛(204)으로 하여금 오디오 간섭 프로세싱 방법의 복수의 동작들을, 즉 오디오 간섭 프로세싱 세션의 인스턴스를 개시하는 것, 훈련 오디오 출력을 코덱(210)에 렌더링/출력하는 것, 하나 이상의 오디오 구별 및 오디오 내비게이션 신호들을 코덱(210)에 렌더링/출력하는 것, I/O 디바이스(220)로부터의 센서 입력 및 사용자 입력을 수신하는 것, 2개 이상의 센서 입력들 및 사용자 입력들을 프로세싱하는 것, 및 I/O 디바이스(220) 및/또는 다른 출력 모달리티들을 통해 사용자에게 피드백 출력을 제공하는 것을 포함하는 복수의 동작들을, 실행할 수 있게 하는 명령어를 포함할 수 있다. 데이터 저장소(218)는, 애플리케이션 제어, 애플리케이션 데이터 및 오디오 파일을 저장하도록 동작가능할 수 있고, 하나 이상의 데이터베이스를 포함할 수 있다. 센서(들)(208)은 하나 이상의 터치 센서 또는 모션 센서, 예컨대 용량성 MEMS 가속도계, 압전저항 가속도계, 압전 가속도계, 자이로스코프, e-컴패스, 5-와이어(또는 4-와이어) 저항성 센서, 표면 용량성 센서, 투영형 용량성 센서, 표면 탄성파 센서 및 적외선 센서 등을 포함할 수 있다. 특정 실시형태들에서, I/O 디바이스(220)는 또한 위에서 제공된 것들과 같은 하나 이상의 터치 센서 또는 모션 센서를 포함할 수 있다.
코덱(210)은 하나 이상의 오디오 구별 및 오디오 내비게이션 신호의 디지털-아날로그 변환을 실행하고 트랜스듀서들(222R 및 222L)로 출력하도록 동작가능한 하드웨어 오디오 코덱일 수 있다. 특정 실시형태에서, 코덱(210)은 디지털-아날로그 변환기를 대체할 수 있다. 트랜스듀서들(222R 및 222L)은 음향 음파를 출력하도록 동작할 수 있는 임의의 유형의 음향 트랜스듀서를 포함할 수 있다. 특정 실시형태에서, 트랜스듀서(222R)는 스테레오 필드에서 우측 스피커로서 구현되고, 트랜스듀서(222L)는 스테레오 사운드 필드에서 좌측 스피커로서 구현된다. 특정 실시형태에서, 트랜스듀서들(222R 및 222L)은 한 쌍의 헤드폰으로서 구현된다. 다른 실시형태에서, 컴퓨팅 시스템(200)은 모노럴(monaural) 사운드 필드에서 단일 트랜스듀서(222)로 구성될 수 있다. 대안적으로, 컴퓨팅 시스템(200)은 180도와 360도 사이의 입체음향(stereophonic) 사운드 필드에서 동작하는 3개 이상의 트랜스듀서(222)로 구성될 수 있다.
특정 실시형태에서, 컴퓨팅 디바이스(202)는 스마트 폰 또는 태블릿 컴퓨터를 포함할 수 있다. 이러한 실시형태에서, I/O 디바이스(220)는 터치 스크린 디스플레이로서 구성될 수 있고 컴퓨팅 디바이스(202)와 일체형으로 구성될 수 있다. I/O 디바이스(220)는 마우스, 조이스틱, 게이밍 제어기 등과 같은 외부 입력 디바이스를 더 포함할 수 있다. I/O 디바이스(220)는, 다수의 입력 모달리티, 예컨대, 하나 이상의 비디오 카메라, 마이크로폰, 웨어러블 센서, 및 터치 스크린 인터페이스 및 다수의 출력 디바이스, 예컨대 하나 이상의 시각적 디스플레이, 오디오 스피커, 및 햅틱 출력 디바이스, 예컨대 웨어러블 전자 디바이스로 구성될 수 있다. 특정 실시형태들에서, 컴퓨팅 디바이스(202)는, I/O 디바이스(220)가 마이크로폰 입력 및 오디오 스피커 출력을 포함하는 하나 이상의 음향 트랜스듀서를 포함하도록, 완전히 오디오-기반 포맷으로 구현될 수 있다.
이제 도 3을 참조하면, 본 개시내용의 하나 이상의 양태가 구현될 수 있는 분산형 컴퓨팅 환경(300)의 예시적인 실시형태가 도시된다. 일 실시형태에 따르면, 오디오 간섭 프로세싱 시스템은 모바일 전자 디바이스(302), 컴퓨팅 디바이스(306), 및 하나 이상의 원격 서버(310)를 포함하는 분산형 컴퓨팅 환경(300)으로 구현된다. 모바일 전자 디바이스(302), 컴퓨팅 디바이스(306), 및 원격 서버(310)는 네트워크 인터페이스(312)(예를 들어, 인터넷 접속)을 통해 통신 네트워크(308)(예를 들어, 인터넷)을 통해 통신가능하게 맞물릴 수 있다. 앞서 도 2에 도시되고 설명된 바와 같이, 컴퓨팅 디바이스(202)의 컴포넌트들, 모듈들 및 기능들 각각은 모바일 전자 디바이스(302), 컴퓨팅 디바이스(306), 및 원격 서버(310) 중 하나 이상에 걸쳐 분산될 수 있다. 특정 실시형태에 따르면, 사용자(33)는 하나 이상의 오디오 프롬프트를 수신하고 하나 이상의 오디오 태스크들을 실행하기 위해 모바일 전자 디바이스(302) 및 헤드폰(304)과 맞물림으로써 오디오 간섭 프로세싱 세션의 인스턴스를 실행한다. 모바일 전자 디바이스(302)는 오디오 간섭 프로세싱 세션에 따라 하나 이상의 오디오 신호를 제공하기 위해 무선 또는 유선 통신 인터페이스(314)를 통해 헤드폰(304)과 통신가능하게 맞물릴 수 있다. 헤드폰(304)은 하나 이상의 오디오 태스크 프롬프트, 오디오 간섭(들) 또는 디스트랙터(distractor)(들), 및 오디오 명령어들을 포함하는 음향 오디오 출력(318)을 렌더링할 수 있다. 사용자(33)는, 앞서 도 2에 설명된 것들과 같은 하나 이상의 입력 모달리티를 통해 오디오 출력(318)에 응답하여 모바일 전자 디바이스(302)에 복수의 사용자 입력(316)을 제공할 수 있다. 모바일 전자 디바이스(302)는 사용자 입력(316)을 수신하여 사용자 입력(316)을 하나 이상의 디지털 데이터 포맷으로 프로세싱할 수 있다. 모바일 전자 디바이스(302)는 사용자 입력(316)에 대한 후속 프로세싱 단계들을 수행할 수 있고/있거나 통신 인터페이스(312)를 통해 컴퓨팅 디바이스(306) 및/또는 원격 서버(310)에 사용자 입력(316)과 연관된 디지털 데이터를 통신할 수 있다.
컴퓨팅 디바이스(306) 및/또는 원격 서버(310)는 오디오 간섭 프로세싱 세션의 인스턴스와 연관된 하나 이상의 데이터 프로세싱 또는 분석 단계(들) 및/또는 계속 진행중인(ongoing) 오디오 간섭 프로세싱 요법과 연관된 하나 이상의 데이터 프로세싱 또는 분석 단계(들)을 수행할 수 있다. 오디오 간섭 프로세싱 요법은 오디오 간섭 프로세싱 세션의 다수의 인스턴스들과 연관된 이력 데이터, 분석 및 애플리케이션 제어를 포함할 수 있다. 컴퓨팅 디바이스(306) 및/또는 원격 서버(310)는 하나 이상의 애플리케이션 제어를 동적으로 구성하거나 하나 이상의 의료계 종사자, 간병인(caregiver), 보험자, 및/또는 사용자에게 임상적 또는 통계적 인사이트를 제공하기 위한 목적으로 오디오 간섭 프로세싱 요법에 참여하는 다수의 사용자에 걸쳐 데이터를 비교 및 분석하기 위한 하나 이상의 HIPAA 준수 데이터 프로세싱 프로토콜을 더 포함할 수 있다. 특정 실시형태들에서, 컴퓨팅 디바이스(306)는 의료계 종사자, 간병인, 보험자, 및/또는 행정관리 사용자와 같은 오디오 간섭 프로세싱 요법에 참여하는 사용자 이외의 사용자 사람과 연관된다. 원격 서버(310)는 음악을 스트리밍하거나 그렇지 않으면 디지털 오디오 파일에 액세스하기 위한 하나 이상의 제3자 애플리케이션 서버(들), 예컨대, 미디어 서버를 포함할 수 있다.
이제 도 4a를 참조하면, 오디오 타겟 훈련 인스턴스(40) 내의 오디오 타겟(402)의 시간/진폭 다이어그램이 도시된다. 오디오 타겟(402)은 음조(note), 음색(tone), 효과(effect), 변조(modulation), 또는 다른 구별가능한 오디오 특성들의 반복 또는 특성 시퀀스로 구성될 수 있다. 예시적인 실시형태에 따르면, 오디오 타겟(402)은 3개의 음조/음색의 세트로부터 랜덤하게 생성되는 2개 또는 3개의 음조/음색 시퀀스로 이루어진 오디오 시퀀스를 포함할 수 있다. 예시에 의해, 3개의 노트들의 세트는 LOW, MEDIUM, 및 HIGH로서 주석될 수 있다. 오디오 타겟(402)랜덤으로 생성된 시퀀스, 예컨대, LOW-LOW; LOW-HIGH; MEDIUM-HIGH; LOW-LOW-LOW; HIGH-MEDIUM-LOW; 및 다른 조합으로 구현될 수 있다. 오디오 타겟(402)은 오디오 타겟 훈련 인스턴스(40) 내에서 사용자에게 제시될 수 있으며, 여기서 오디오 타겟(402)은 오디오 출력(402a-402n)으로서 주기적으로 반복되어 사용자가 오디오 타겟(402)을 학습/기억할 수 있다.
이제 도 4b를 참조하면, 오디오 타겟 구별 인스턴스(42)를 포함하는 오디오 타겟(402) 및 비-타겟 오디오 신호(404)의 시간/진폭 다이어그램이 도시된다. 특정 실시형태에서, 오디오 타겟 구별 인스턴스(42)는 오디오 타겟 구별 태스크에 대응하는 오디오 출력을 포함하고, 사용자는 오디오 타겟 구별 인스턴스(42) 동안 오디오 타겟(402)과 비-타겟 오디오 신호(404) 사이를 구별하기 위한 사용자의 능력에 대응하는 사용자 입력을 제공하도록 프롬프트된다. 특정 실시형태에 따르면, 비-타겟 오디오 신호(404)는 음조, 음색, 효과, 변조, 또는 다른 구별가능한 오디오 특성의 반복 또는 특성 시퀀스로 구성될 수 있다. 비-타겟 오디오 신호(404)는, 사용자가 어느 정도의 주의 및 인지를 적용하여 오디오 타겟(402)과 비-타겟 오디오 신호(404) 사이를 구별할 수 있도록, 오디오 타겟(402)의 특성과 유사한 특성을 포함해야 한다. 특정 실시형태에 따르면, 비-타겟 오디오 신호(404)는 오디오 타겟(402)과 동일한 세트의 음조/음색으로 이루어지지만 유사하지만 별개의 패턴으로 배열되는 오디오 시퀀스로 구성될 수 있다. 예를 들어, 오디오 타겟(402)이 시퀀스: HIGH-MEDIUM-HIGH로 구성되는 경우, 비-타겟 오디오 신호(404)는 시퀀스: HIGH- MEDIUM-LOW로 구성될 수 있다. 사용자는 오디오 타겟 구별 인스턴스(42)를 포함하는 2개 이상의 시점에서 하나 이상의 오디오 타겟(402a-402n) 및 하나 이상의 비-타겟 오디오 신호(404a-404n)를 주기적으로 제공받을 수 있다.
이제 도 4c를 참조하면, 오디오 타겟 구별 인스턴스(44) 내의 배경 오디오 파일(406)의 존재 시에 제시되는 오디오 타겟(402) 및 비-타겟 오디오 신호(404)의 시간/진폭 다이어그램이 도시된다. 특정 실시형태에 따르면, 배경 오디오 파일(406)은 음악 또는 다른 레코딩된 콘텐츠를 포함하는 디지털 오디오 파일을 포함할 수 있고/있거나, 음색, 효과, 변조, 또는 다른 오디오 특성의 하나 이상의 시퀀스로 구성될 수 있다. 배경 오디오 파일(406)은 오디오 타겟 구별 인스턴스(44) 내에 인터럽터(interrupter) 또는 디스트랙터(distractor)를 포함할 수 있다. 예를 들어, 배경 오디오 파일(406)은 주의산만에 도움이 되는 특정 오디오 특성을 포함하는 노래, 예를 들어, 빠른, 시끄러운 및/또는 악기를 써서(instrumentally) 복잡한 노래로서 구성될 수 있다. 오디오 타겟(402) 및 비-타겟 오디오 신호(404)는 오디오 타겟 구별 인스턴스(44) 내의 배경 오디오 파일(406)과 중첩될 수 있다. 특정 실시형태들에서, 배경 오디오 파일(406)의 지속시간은 오디오 타겟 구별 인스턴스(44)의 지속시간을 정의한다. 예를 들어, 특정 예시적인 실시형태에서, 오디오 타겟 구별 인스턴스(44)는 배경 오디오 파일(406)(여기서, 배경 오디오 파일(406)은 선택적으로 노래임)을 포함하는 음향 오디오 출력을 렌더링하는 것 및 배경 오디오 파일(406)의 존재 시에 2개 이상의 시점에서 하나 이상의 오디오 타겟(402a-402n) 및 하나 이상의 비-타겟 오디오 신호(404a-404n)을 주기적으로 제시하는 것을 포함한다.
이제 도 5를 참조하면, 오디오 내비게이션 신호(502)의 주기적 제시를 포함하는 오디오 내비게이션 인스턴스(50)를 예시하는 기능 다이어그램(500)이 도시된다. 특정 실시형태에 따르면, 오디오 내비게이션 인스턴스(50)는 오디오 간섭 프로세싱 시스템에서 오디오 내비게이션 태스크에 대응하는 오디오 출력을 포함한다. 일 실시형태에 따르면, 오디오 내비게이션 인스턴스(50)는 패닝 변조(602)에 따라 오디오 내비게이션 신호(502)를 스테레오 필드(506) 내의 공간 위치에 있는 사용자(508)에게 제시하도록 구성된다. 오디오 내비게이션 태스크에 따라, 오디오 내비게이션 인스턴스(50) 동안의 오디오 내비게이션 신호(502)의 제시는 스테레오 필드(508) 내의 내비게이션 신호(502)의 공간 위치를 나타내는 입력을 사용자(508)에게 제공하기 위한 프롬프트를 포함한다. 오디오 내비게이션 신호(502)의 공간 위치 또는 팬(pan)을 구별함으로써(예를 들어, 좌측-우측), 사용자(508)는 스테레오 필드 오디오 내비게이션 인스턴스(50)를 "내비게이팅하는 것"으로서 특징지어질 수 있다. 오디오 내비게이션 신호(502)는 하나 이상의 음조, 음색, 효과, 변조, 또는 신호 특성을 포함하는 오디오 내비게이션 타겟을 포함할 수 있다. 특정 실시형태에서, 오디오 내비게이션 신호(502)는 팬의 점진적인 이동(shift), 볼륨 변화, 또는 음조/음색과 같은 다가오는 오디오 내비게이션 타겟의 표시를 포함할 수 있다.
패닝 변조(602)는, 오디오 내비게이션 신호(502)가 오디오 내비게이션 인스턴스(50)의 특정 시점에서는 우측 트랜스듀서(504R)에 주로 제시되도록 오디오 내비게이션 신호(502)의 출력을 우측 트랜스듀서(504R) 및 좌측 트랜스듀서(504L)로 패닝하도록 구성된다. 패닝 변조(602)는, 오디오 내비게이션 신호(502)가 스테레오 필드(506) 내의 여러 "위치"의 사용자(508)에 의해 청취되도록 공간 효과를 생성하기 위해 오디오 내비게이션 신호(502)의 팬을 변조하도록 구성된다. 패닝 변조(602)는, 오디오 내비게이션 신호(502)의 팬이 0도 팬, 즉 우측 트랜스듀서(504R)에서만의 신호 출력과 180도 팬, 즉, 좌측 트랜스듀서(504L)에서만의 신호 출력 사이에서 교번할 수 있도록, 교번하는 "하드 팬(hard pan)"으로서 구성될 수 있다. 대안적으로, 패닝 변조(602)는 스테레오 필드(506) 내의 0도 팬과 180도 팬 사이의 다양한 공간 위치에서 패닝하도록 동적으로 구성될 수 있다. 서라운드 사운드 환경을 포함하는 3개 이상의 트랜스듀서를 갖는 실시형태에서, 패닝 변조(602)는 스테레오 필드(506) 내의 0도와 360도 사이의 다양한 공간 위치들에서 패닝하도록 동적으로 구성될 수 있다. 패닝 변조(602)는 오디오 내비게이션 태스크에서의 다양한 난이도 파라미터에 따라 구성될 수 있다. 예를 들어, 0도와 180도 사이에서 교번하는 하드 팬은 "더 쉬운" 오디오 내비게이션 파라미터를 정의할 수 있는 반면, 30도 팬 또는 240도 팬은 더욱 "어려운" 오디오 내비게이션 파라미터를 정의할 수 있다. 특정 실시형태에서, 오디오 내비게이션 신호(502)는 전적으로 패닝 변조(602)로(즉, 내비게이션 타겟 음색 또는 사운드의 특정 제시 없이) 구성될 수 있다. 이러한 실시형태들에서, 패닝 변조(602)는 스테레오 필드(506) 내의 다양한 공간 위치들에 걸쳐 오디오 트랙의 팬을 연속적으로 변조시킬 수 있고, 여기서 사용자(508)는 스테레오 사운드 필드(506) 내의 팬의 공간 배치에 응답하여 연속적인 모션 센서 입력을 제공하도록 프롬프트된다.
이제 도 6을 참조하면, 오디오 간섭 프로세싱 인스턴스(60)를 포함하는 시간/진폭 다이어그램(600)이 도시된다. 본 개시내용의 일 실시형태에 따르면, 오디오 간섭 프로세싱 인스턴스(60)는, 오디오 타겟 구별 태스크 및 오디오 내비게이션 태스크, 예를 들어, 도 4c에 설명된 오디오 타겟 구별 태스크 및 도 5에 설명된 오디오 내비게이션 태스크의 동시 제시에 대응하는 오디오 출력을 포함한다. 오디오 간섭 프로세싱 인스턴스(60)는 2개 이상의 시점에서, 선택적으로는 디스트랙터 또는 인터럽터 오디오 신호를 포함하는 배경 오디오 파일(406)의 존재 시에, 하나 이상의 오디오 타겟(402a-402n) 및 하나 이상의 비-타겟 오디오 신호(404a-404n)를 주기적으로 제시하는 것을 포함할 수 있다. 오디오 간섭 프로세싱 인스턴스(60)는 패닝 변조(602)에 따라 하나 이상의 오디오 내비게이션 신호들(502a-502n)을 주기적으로 제시하는 것을 포함할 수 있다. 특정 실시형태들에 따르면, 하나 이상의 오디오 타겟(402a-402n)은 사용자가 오디오 타겟 구별 태스크에 대응하는 센서 입력을 제공하게 하기 위한 일련의 주기적인 사용자 프롬프트들을 포함한다. 하나 이상의 비-타겟 오디오 신호(404a-404n)는 오디오 타겟 구별 태스크와 연관된 일련의 주기적인 디스트랙션(distraction) 또는 인터럽션(interruption)을 포함한다. 하나 이상의 오디오 내비게이션 신호(502a-502n)는 사용자가 오디오 내비게이션 태스크에 대응하는 센서 입력을 제공하게 하기 위한 일련의 주기적인 사용자 프롬프트를 포함한다. 특정 실시형태에 따르면, 오디오 타겟 구별 태스크 및 오디오 내비게이션 태스크의 동시 제시는 오디오-전용 간섭 프로세싱 시스템 내의 오디오 멀티-태스킹 환경을 가능하게 하도록 구성된다.
이제 도 7을 참조하면, 오디오 간섭 프로세싱 시스템의 프로세스 흐름(700)을 예시하는 기능 블록도가 도시된다. 본 개시내용의 특정 양태에 따르면, 사용자는 오디오 간섭 프로세싱 세션(702)의 인스턴스를 개시한다. 오디오 간섭 프로세싱 시스템은 세션(704)에 대한 오디오 및 제어/프로세싱 파라미터를 구성한다. 오디오 구성은 오디오 타겟 구별 태스크에 대응하는 타겟 오디오 시퀀스 및 비-타겟 오디오 시퀀스를 생성하도록 동작가능한 신호 생성 모듈(706), 및 오디오 내비게이션 태스크에 대응하는 스펙트럼 변조(또는 다른 변조)를 구성하도록 동작가능한 신호 변조 모듈(708)과 같은 하나 이상의 오디오 프로세싱 기능를 실행하는 것을 포함할 수 있다. 프로세스 흐름(700)은 오디오 타겟 구별 태스크에 대응하는 타겟 오디오 시퀀스를 학습/기억하기 위해 사용자에게 훈련 오디오 출력(710)을 제시함으로써 계속된다. 프로세스 흐름(700)은 하나 이상의 오디오 태스크(712)에 대응하는 오디오 출력을 사용자에게 제시함으로써 계속된다. 특정 실시형태에 따르면, 하나 이상의 오디오 태스크(712)는 오디오 타겟 구별 태스크(714)(예컨대, 앞서 도 4b 및 도 4c에 설명된 오디오 타겟 구별 태스크) 및 오디오 내비게이션 태스크(716)(예컨대, 앞서 도 5에 설명된 오디오 내비게이션 태스크)를 포함할 수 있다. 오디오 타겟 구별 태스크(714) 및 오디오 내비게이션 태스크(716)는 오디오 간섭 프로세싱 세션(702)의 하나 이상의 인스턴스들 내에 독립적으로 또는 동시에 제시될 수 있다. 프로세스 흐름(700)은 간섭 프로세싱 세션(718)에서 사용자로부터 센서 입력을 수신함으로써 계속되며, 여기서 사용자 입력은 오디오 타겟 구별 태스크(714) 및/또는 오디오 내비게이션 태스크(716)에 대응하는 오디오 태스크 프롬프트에 대응한다. 시스템은 간섭 프로세싱 세션(702)의 인스턴스 전체에 걸쳐 사용자로부터 센서 입력을 연속적으로 수신할 수 있다. 프로세스 흐름(700)은 하나 이상의 입력 파라미터에 따라 입력을 프로세싱함으로써 그리고 입력 데이터를 메모리(720)에 저장함으로써 계속된다. 특정 실시형태에 따르면, 하나 이상의 입력 파라미터는 태스크 파라미터(예를 들어, 특정 오디오 프롬프트와 연관된 특정 액션), 입력 파라미터(예를 들어, 특정 오디오 프롬프트와 연관된 특정 유형의 입력), 및/또는 타이밍 파라미터(예를 들어, 사용자가 특정 오디오 프롬프트에 응답하여 입력을 제공하도록 요구되는 특정 액션 시간 프레임)을 포함할 수 있다. 프로세스 흐름(700)은 사용자 입력들(722)을 프로세싱하는 것에 응답하여 피드백 출력을 사용자에게 제공함으로써 계속될 수 있다. 피드백 출력은 하나 이상의 입력 파라미터에 따른 사용자의 수행능력을 나타낼 수 있다. 피드백 출력은 오디오 출력뿐만 아니라 하나 이상의 대안적인 출력 모달리티들도 포함할 수 있다. 프로세스 흐름(700)은, 오디오 간섭 프로세싱 세션으로부터의 사용자 입력 데이터를 저장하고, 선택적으로 그 데이터를 분석하여 오디오 간섭 프로세싱 세션(724)의 후속 인스턴스들에 대한 하나 이상의 오디오 구성 및/또는 제어 프로세싱 파라미터를 수정함으로써 계속될 수 있다. 프로세스 흐름(700)은 오디오 간섭 프로세싱 요법(726)에서 사용자 진전(progress)을 분석하기 위해 하나 이상의 과거 인스턴스들로부터의 이력 사용자 입력 데이터에 대해 오디오 간섭 프로세싱 세션의 현재 인스턴스로부터의 사용자 입력 데이터를 분석함으로써 선택적으로 계속될 수 있다. 사용자 진전의 분석은, 정의된 기간에 걸쳐 사용자의 인지 기술 또는 능력에 대한 개선의 하나 이상의 정량적 척도를 포함할 수 있다.
이제 도 8을 참조하면, 오디오-전용 간섭 프로세싱 시스템 및 방법의 루틴(800)의 기능 블록도가 도시된다. 본 개시내용의 특정 양태에 따르면, 루틴(800)은 하나 이상의 오디오 프로세싱 제어, 애플리케이션 제어 및 파라미터, 및 데이터 프로세싱 파라미터를 구성하는 다양한 양태를 제공한다. 루틴(800)은 오디오 간섭 프로세싱 세션(802)의 인스턴스에 대한 오디오 제어 및 파라미터 및 간섭 프로세싱 파라미터를 구성하는 것으로 시작할 수 있다. 루틴(800)은 간섭 프로세싱 세션(804)을 위한 간섭 파라미터(804)를 구성함으로써 계속된다. 특정 실시형태에 따르면, 간섭 파라미터는 난이도 파라미터(810)(예를 들어, 오디오 시퀀스 복잡도 및/또는 오디오 내비게이션 복잡도); 입력 파라미터(812)(예를 들어, 태스크 프롬프트에 대응하는 센서 입력의 유형, 센서 입력의 타이밍, 및 다른 특정 센서 입력 특성); 태스크 파라미터(814)(예를 들어, 내비게이션 구별과 같은 태스크 유형; 태스크의 순서와 같은 태스크 제시; 및 다른 태스크 파라미터)를 포함한다. 루틴(800)은 오디오 간섭 프로세싱 세션의 인스턴스와 연관된 하나 이상의 오디오 출력(806)을 구성함으로써 계속된다. 특정 실시형태에서, 오디오 태스크 프롬프트들이 배경 오디오 파일(808)의 존재 시에 제시되며, 여기서 배경 오디오 파일은 오디오 간섭 프로세싱 세션 내에 디스트랙션 또는 인터럽션을 포함한다. 오디오 구성(806)은 하나 이상의 신호 생성 기능(816) 및/또는 하나 이상의 신호 변조 기능(818)을 더 포함할 수 있다. 신호 생성 기능(816)은, 타겟 오디오 시퀀스(820)를 체계적으로 또는 랜덤하게 생성하도록 작동 가능하게 구성된 하나 이상의 오디오 프로세싱 모듈; 비-타겟 오디오 시퀀스(822)를 체계적으로 또는 랜덤하게 생성하도록 작동 가능하게 구성된 하나 이상의 오디오 프로세싱 모듈; 및 선택적으로, 내비게이션 오디오 타겟(824)을 체계적으로 또는 랜덤하게 생성하도록 작동 가능하게 구성된 하나 이상의 오디오 프로세싱 모듈을 포함할 수 있다. 신호 변조 기능(818)은, 패닝 변조(826)를 체계적으로 또는 랜덤하게 작동 가능하게 구성된 하나 이상의 오디오 프로세싱 모듈; 및/또는 하나 이상의 스펙트럼 효과(828)를 체계적으로 또는 랜덤하게 작동 가능하게 구성된 하나 이상의 오디오 프로세싱 모듈을 포함할 수 있다.
이제 도 9를 참조하면, 오디오-전용 간섭 프로세싱 시스템 및 방법의 루틴(900)의 기능 블록도가 도시된다. 본 개시내용의 특정 양태에 따르면, 루틴(900)은 오디오 간섭 프로세싱 세션의 인스턴스를 실행하는 다양한 양태를 제공한다. 루틴(900)은 오디오 간섭 프로세싱 세션(902)을 개시하는 것으로 시작할 수 있다. 루틴(900)은 하나 이상의 음향 트랜스듀서에 오디오 출력을 렌더링함으로써 계속될 수 있고, 여기서 오디오 출력은 하나 이상의 오디오-기반 태스크(904)에 대응하는 하나 이상의 오디오 프롬프트를 포함한다. 특정 실시형태에 따르면, 오디오 출력은, 특정된 시간 기간에 하나 이상의 시점에서, 타겟 오디오 신호(908), 비-타겟 오디오 신호(910), 및 오디오 내비게이션 타겟/내비게이션 변조(912)를 주기적으로 제시하는 것을 포함할 수 있다. 루틴(900)은 오디오 간섭 프로세싱 세션의 인스턴스의 지속기간 동안 센서 입력(916) 및 센서 입력(918) 중 적어도 하나를 연속적으로 수신함으로써 계속되며, 여기서 센서 입력(916)은 제1 센서 유형(예를 들어, 터치 센서)에 대응하고, 센서 입력(918)은 제2 센서 유형(예를 들어, 모션 센서)에 대응한다. 루틴(900)은 하나 이상의 프로세싱 파라미터에 따라 오디오 간섭 프로세싱 세션 내의 하나 이상의 오디오 태스크 프롬프트에 응답하여 하나 이상의 사용자 입력에 대응하는 센서 입력(920)을 프로세싱함으로써 계속될 수 있다. 특정 실시형태에 따르면, 하나 이상의 프로세싱 파라미터는 태스크 파라미터(922)(예를 들어, 특정 입력 유형을 특정 태스크 프롬프트와 연관시킴) 및 타이밍 파라미터(예를 들어, 특정 태스크 프롬프트에 응답하여 센서 입력이 수신될 수 있는 하나 이상의 시간-윈도우)를 포함할 수 있다. 루틴(900)은 프로세싱된 사용자-입력 데이터를 분석하여 오디오 간섭 프로세싱 태스크의 사용자의 성능과 연관된 하나 이상의 성능 메트릭을 도출시킴으로써 계속될 수 있고, 미래의 회수 및 추가적인 프로세싱을 위해 데이터/분석을 애플리케이션 데이터베이스(926)에 저장할 수 있다.
이제 도 10을 참조하면, 오디오 간섭 프로세싱 인스턴스(1002)의 인스턴스에서의 센서 입력과 오디오 입력 사이의 시간적 관계를 예시하는 시간/진폭 다이어그램(1000)이 도시된다. 본 개시내용의 하나 이상의 양태에 따르면, 오디오 간섭 프로세싱 인스턴스(1002)는, 오디오 타겟 구별 태스크 및 오디오 내비게이션 태스크, 예를 들어 도 4c에 설명된 오디오 타겟 구별 태스크 및 도 5에 설명된 오디오 내비게이션 태스크의 동시 제시에 대응하는 오디오 출력을 포함한다. 오디오 간섭 프로세싱 인스턴스(1002)는 오디오 간섭 프로세싱 인스턴스(1002) 동안 2개 이상의 시점에서 하나 이상의 오디오 타겟(402a-402n) 및 하나 이상의 비-타겟 오디오 신호(404a-404n)를 주기적으로 제시하는 것을 포함할 수 있다. 오디오 간섭 프로세싱 인스턴스(1002)는 패닝 변조(602)에 따라 하나 이상의 오디오 내비게이션 신호(502a-502n)를 주기적으로 제시하는 것을 포함할 수 있다. 특정 실시형태에 따르면, 하나 이상의 오디오 타겟(402a-402n)은 사용자가 오디오 타겟 구별 태스크에 대응하는 센서 입력(1008)을 제공하게 하기 위한 일련의 주기적인 사용자 프롬프트를 포함한다. 특정 실시형태에 따르면, 센서 입력(1010)은 제1 센서 유형(예를 들어, 터치 센서)에 대응한다. 특정 실시형태에 따르면, 오디오 간섭 프로세싱 인스턴스(1002)는, 사용자가 센서 입력(1008)을 제공할 수 있는 제1 센서 입력 시간 윈도우(1004)를 포함할 수 있다. 하나 이상의 비-타겟 오디오 신호(404a-404n)는 오디오 타겟 구별 태스크와 연관된 일련의 주기적인 디스트랙션 또는 인터럽션을 포함한다. 하나 이상의 오디오 내비게이션 신호(502a-502n)는 사용자가 오디오 내비게이션 태스크에 대응하는 센서 입력(1010)을 제공하게 하기 위한 일련의 주기적인 사용자 프롬프트를 포함한다. 특정 실시형태에 따르면, 센서 입력(1008)은 제2 센서 유형(예를 들어, 모션 센서)에 대응한다. 특정 실시형태에 따르면, 오디오 간섭 프로세싱 인스턴스(1002)는, 사용자가 센서 입력(1010)을 제공할 수 있는 제2 센서 입력 시간 윈도우(1006)를 포함할 수 있다. 특정 실시형태에 따르면, 오디오 타겟 구별 태스크 및 오디오 내비게이션 태스크의 동시 제시는 오디오-전용 간섭 프로세싱 시스템 내의 오디오 멀티-태스킹 환경을 가능하게 하도록 구성된다.
이제 도 11 내지 도 21을 참조하면, 오디오-전용 간섭 프로세싱 세션의 하나 이상의 인스턴스를 포함하는 복수의 사용자 상호작용을 나타내는 복수의 기능 다이어그램이 도시된다. 본 개시내용의 하나 이상의 예시적인 실시형태에 따른 것으로서, 도 11은 오디오 간섭 프로세싱 세션 내의 사용자 상호작용(1100)을 도시하고 있는데, 이 사용자 상호작용은 스테레오 필드(506) 내에 배향되며 사용자에게 훈련 오디오 출력(1102)을 제공하는 모바일 전자 디바이스(302)를 포함한다. 사용자는 훈련 오디오 출력(1102)에 응답하여 입력을 제공하지 않는다. 도 12에서, 사용자 상호작용(1200)은 오디오 타겟(1202)의 출력을 포함하고, 사용자는 이 출력에 응답하여 모바일 전자 디바이스(302)를 통해 터치 입력(1008)을 제공하게 된다. 도 13의 사용자 상호작용(1300)은, 특정 입력 윈도우 내의 오디오 타겟(1202)(도 12)에 응답하여 사용자가 정확한 입력을 제공했음을 나타내는 사용자에 대한 피드백 출력(1302)을 포함한다. 피드백 출력은 모바일 전자 디바이스(302) 상의 비주얼 출력으로서 및/또는 오디오 출력 또는 햅틱 출력으로서 구현될 수 있다. 도 14에 도시된 사용자 상호작용(1400)은 오디오 내비게이션 타겟(1402)의 출력을 포함하고, 사용자는 이에 응답하여 모바일 전자 디바이스(302)를 스테레오 필드(506) 내의 오디오 내비게이션 타겟(1402)의 위치를 향해 회전함으로써 모션 입력(1010)을 제공한다. 도 15에서, 사용자 상호작용(1500)은 특정 시간 윈도우 내에서 오디오 내비게이션 타겟(1402)(도 14)에 응답하여 사용자가 정확한 입력을 제공했음을 나타내는 사용자에 대한 피드백 출력(1502)을 포함한다. 도 16의 사용자 상호작용(1600)은 비-타겟 오디오 신호(1602)의 출력을 포함하며, 사용자는 이에 응답하여 모바일 전자 디바이스(302)를 통해 터치 입력(1008)을 제공한다. 도 17의 사용자 상호작용(1700)은, 비-타겟 오디오 신호(1602)에 응답하여 사용자가 부정확한 입력을 제공했음을 나타내는 사용자에 대한 피드백 출력(1702)을 포함한다. 도 18에서, 사용자 상호작용(1800)은 오디오 타겟(1802)의 출력을 포함하며, 사용자는 이에 응답하여 특정 시간 윈도우 밖에 모바일 전자 디바이스(302)를 통해 터치 입력(1008)을 제공한다. 도 19의 사용자 상호작용(1900)은 사용자 입력이 특정 시간 윈도우 밖에 있었거나 또는 그렇지 않으면 입력 파라미터에 따르지 않았음을 나타내는 사용자에 대한 피드백 출력(1902)을 포함한다. 도 20의 사용자 상호작용(2000)은 오디오 타겟(2002) 및 오디오 내비게이션 타겟(2004)의 출력(동시에 또는 거의 연속적으로)을 포함하며, 사용자는 이에 응답하여 모바일 전자 디바이스(302)를 통해 터치 입력(1008)을 제공하고 스테레오 필드(506) 내의 오디오 내비게이션 타겟(2004)의 위치를 향해 모바일 전자 디바이스(302)를 회전함으로써 모션 입력(1010)을(동시에 또는 거의 연속적으로) 제공한다. 도 21의 사용자 상호작용(2100)은, 특정 입력 윈도우 내의 오디오 타겟(2002)(도 20) 및 오디오 내비게이션 타겟(2004)에 응답하여 사용자가 정확한 입력을 제공했음을 나타내는 사용자에 대한 피드백 출력(2102)을 포함한다.
이제 도 22를 참조하면, 오디오 간섭 프로세싱 방법(2200)의 방법 흐름도가 도시된다. 본 개시내용의 양태에 따르면, 오디오-전용 간섭 프로세싱 방법(2200)은, 프로세싱 유닛을 통해, 제1 오디오 간섭 프로세싱 태스크(2202)에 대한 오디오 프롬프트를 포함하며 제1 신호 시퀀스 또는 제1 변조 파라미터를 포함하는 제1 오디오 신호를 렌더링하는 단계를 포함한다. 방법(2200)은, 프로세싱 유닛을 통해, 제2 오디오 간섭 프로세싱 태스크(2204)에 대한 오디오 프롬프트를 포함하며 제2 신호 시퀀스 또는 제2 변조 파라미터를 포함하는 제2 오디오 신호를 렌더링함으로써 계속된다. 방법(2200)은, 오디오 출력 디바이스를 통해, 제1 오디오 신호 및 제2 오디오 신호 각각을 오디오 간섭 프로세싱 세션의 인스턴스를 포함하는 2개 이상의 주기적 시점들(2206)에서 적어도 하나의 오디오 출력 디바이스에 출력함으로써 계속된다. 방법(2200)은, 프로세싱 유닛을 통해, 2개 이상의 시점들(2208)에서 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신함으로써 계속된다. 방법(2200)은, 프로세싱 유닛을 통해, 2개 이상의 시점들(2210)에서 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신함으로써 계속된다. 방법(2200)은, 프로세서를 통해, 타이밍 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터(2212)에 따라 제1 센서 입력 및 제2 센서 입력을 프로세싱함으로써 계속된다. 방법(2200)의 특정 실시형태들에 따르면, 제1 센서 입력은 오디오 타겟 구별 입력을 포함할 수 있으며, 여기서 제1 오디오 간섭 프로세싱 태스크는 오디오 타겟 구별 태스크이고, 제2 센서 입력은 오디오 내비게이션 입력을 포함할 수 있으며, 제2 오디오 간섭 프로세싱 태스크는 오디오 내비게이션 태스크이다.
방법(2200)은, 프로세싱 유닛을 통해, 오디오 간섭 프로세싱 세션의 인스턴스 내에 오디오 간섭 출력을 포함하는 제3 오디오 신호를 렌더링하는 단계를 더 포함할 수 있다. 특정 실시형태들에 따르면, 방법(2200)은, 프로세서를 통해, 제1 센서 입력 및 제2 센서 입력을 프로세싱하는 것에 응답하여 적어도 하나의 입력 파라미터를 적어도 하나의 태스크 성능 파라미터에 따라 수정하는 단계를 더 포함할 수 있다.
방법(2200)의 특정 실시형태들은, 프로세서를 통해, 제1 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 제1 오디오 신호의 제1 신호 시퀀스 또는 제1 변조 파라미터를 적어도 하나의 태스크 성능 파라미터에 따라 수정하는 단계를 더 포함할 수 있다. 방법(2200)은, 프로세서를 통해, 제1 또는 제2 센서 입력을 프로세싱하는 것에 응답하여 제2 오디오 신호의 제2 신호 시퀀스 또는 제2 변조 파라미터를 적어도 하나의 태스크 성능 파라미터에 따라 수정하는 단계를 더 포함할 수 있다. 방법(2200)의 특정 실시형태들에 따르면, 제1 오디오 신호는 대상 오디오 타겟을 포함하는 랜덤으로 생성된 오디오 시퀀스를 포함할 수 있다.
방법(2200)의 특정 실시형태들에 따르면, 제2 센서 입력은 모바일 전자 디바이스를 스테레오 필드 내의 제2 오디오 신호의 방향으로 회전시키는 단계를 포함할 수 있다. 제1 오디오 신호는 대상 오디오 타겟을 포함하는 랜덤으로 생성된 오디오 시퀀스를 포함하고, 제2 오디오 신호는 방향성 오디오 프롬프트를 포함하는 패닝 변조를 포함한다.
당업자에 의해 이해되는 바와 같이, 본 발명은 방법(예를 들어, 컴퓨터로 구현된 프로세스, 비지니스 프로세스, 및/또는 임의의 다른 프로세스를 포함함), 장치(예를 들어, 시스템, 머신, 디바이스, 컴퓨터 프로그램 제품 등을 포함함), 또는 전술한 것들의 조합으로서 구현될 수 있다. 따라서, 본 발명의 실시형태들은 전적으로 하드웨어 실시형태, 전적으로 소프트웨어 실시형태(펌웨어, 상주 소프트웨어, 마이크로-코드 등을 포함함), 또는 본원에서 일반적으로 "시스템"으로서 지칭될 수 있는 소프트웨어 및 하드웨어 양태들을 결합하는 실시형태의 형태를 취할 수 있다. 또한, 본 발명의 실시형태들은 컴퓨터 실행가능 프로그램 코드가 구현되는 컴퓨터 판독가능 매체 상의 컴퓨터 프로그램 제품의 형태를 취할 수 있다.
임의의 적합한 일시적 또는 비일시적 컴퓨터 판독가능 매체가 이용될 수 있다. 컴퓨터 판독가능 매체는, 예를 들어, 전자, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템, 장치 또는 디바이스일 수 있지만, 이에 제한되지 않는다. 컴퓨터 판독가능 매체의 더욱 구체적인 예들은, 하나 이상의 와이어를 갖는 전기 접속; 휴대용 컴퓨터 디스켓, 하드 디스크, 랜덤 액세스 메모리(RAM: random access memory), 판독-전용 메모리(ROM: random access memory), 소거가능 프로그래머블 판독-전용 메모리(EPROM 또는 플래시 메모리), CD-ROM(random access memory), 또는 다른 광학 또는 자기 저장 디바이스와 같은 유형의 저장 매체를 포함하지만, 이에 제한되지 않는다.
본 문헌의 맥락에서, 컴퓨터 판독가능 매체는 명령 실행 시스템, 장치, 또는 디바이스에 의해 또는 이들과 관련하여 사용하기 위한 프로그램을 포함, 저장, 통신, 또는 전송할 수 있는 임의의 매체일 수 있다. 컴퓨터 사용가능 프로그램 코드는, 인터넷, 유선, 광섬유 케이블, 무선 주파수(radio frequency) 신호, 또는 다른 매체를 사용하여 송신될 수 있다.
본 발명의 실시형태의 동작을 수행하기 위한 컴퓨터-실행가능 프로그램 코드는 Java, Perl, Smalltalk, C++ 등과 같은 객체 지향형, 스크립트형 또는 비스크립트형 프로그래밍 언어로 기록될 수 있다. 그러나, 본 발명의 실시형태의 동작을 수행하기 위한 컴퓨터 프로그램 코드는 또한 "C" 프로그래밍 언어 또는 유사한 프로그래밍 언어와 같은 종래의 절차적 프로그래밍 언어로 기록될 수 있다.
본 발명의 실시형태들은, 방법들, 장치들(시스템들), 컴퓨터 프로그램 제품들의 흐름도 예시들 및/또는 블록도들을 참조하여 위에 설명된다. 흐름도 예시들 및/또는 블록도의 각각의 블록, 그리고/또는 흐름도 예시 및/또는 블록도에서의 블록의 조합은 컴퓨터 실행가능 프로그램 코드 부분에 의해 구현될 수 있다는 것이 이해될 것이다. 이러한 컴퓨터-실행가능 프로그램 코드 부분은 특정 머신을 생성하기 위해 범용 컴퓨터, 특수 목적 컴퓨터, 또는 다른 프로그램가능 데이터 프로세싱 장치의 프로세서에 제공되어, 컴퓨터 또는 다른 프로그램가능 데이터 프로세싱 장치의 프로세서를 통해 실행되는 코드 부분이 흐름도 및/또는 블록도 블록 또는 블록들에 특정된 기능들/동작을 구현하기 위한 메커니즘을 생성할 수 있다.
이러한 컴퓨터 실행가능 프로그램 코드 부분은 또한, 컴퓨터 또는 다른 프로그램가능 데이터 프로세싱 장치에게 특정 방식으로 기능하게 하도록 지시할 수 있는 컴퓨터-판독가능 메모리에 저장될 수 있어서, 컴퓨터 판독가능 메모리에 저장된 코드 부분이 흐름도 및/또는 블록도 블록(들)에 특정된 기능/동작을 구현하는 명령 메커니즘을 포함하는 제조 물품을 생성한다.
이러한 컴퓨터 실행가능 프로그램 코드는 또한 컴퓨터 또는 다른 프로그램가능 데이터 프로세싱 장치 상으로 로딩되어 컴퓨터 또는 다른 프로그램가능 장치 상에서 실행되는 코드 부분들이 흐름도 및/또는 블록도 블록(들)에 특정된 기능들/동작들을 구현하기 위한 단계들을 제공하도록 컴퓨터로 구현된 프로세스를 생성하기 위한 일련의 동작 단계들이 컴퓨터 또는 다른 프로그램가능 장치 상에서 실행되게 한다. 대안적으로, 컴퓨터 프로그램 구현 단계 또는 동작은 본 발명의 일 실시형태를 수행하기 위해 운영자 또는 인간 구현 단계 또는 동작과 결합될 수 있다.
어구들이 본원에 사용되는 바와 같이, 프로세서는 예를 들어 하나 이상의 범용 회로가 컴퓨터 판독가능 매체에서 구현된 특정 컴퓨터-실행가능 프로그램 코드를 실행함으로써 기능을 수행하게 하고/하거나 하나 이상의 애플리케이션-특정 회로를 가짐으로써 기능을 수행하게 하는 것을 포함하는 다양한 방식으로 특정 기능을 수행하도록 "구성될" 수 있다.
본 발명의 실시형태는 흐름도 및/또는 블록도를 참조하여 위에 설명된다. 본원에 설명된 프로세스의 단계가 흐름도에 예시된 것과 상이한 순서로 수행될 수 있다는 것이 이해될 것이다. 즉, 흐름도의 블록에 의해 표현되는 프로세스는, 일부 실시형태에서, 예시된 순서가 아닌 순서로 수행될 수 있거나, 결합되거나 분할될 수 있거나, 또는 동시에 수행될 수 있다. 또한, 일부 실시형태에서, 예시된 블록도의 블록은 시스템과 블록도 내의 블록에 의해 예시된 시스템 중 하나 이상 사이의 단지 개념적 묘사(conceptual delineations)이고, 블록도 내에서 블록에 의해 예시된 시스템 중 다른 하나 이상과 결합 또는 하드웨어 및/또는 소프트웨어를 공유할 수 있다는 것이 이해될 것이다. 마찬가지로, 디바이스, 시스템, 장치 등은 하나 이상의 디바이스, 시스템, 장치 등으로 이루어질 수 있다. 예를 들어, 프로세서가 본원에 예시되거나 설명되는 경우, 프로세서는 서로 결합되거나 또는 결합되지 않을 수 있는 복수의 마이크로프로세서 또는 다른 프로세싱 디바이스로 이루어질 수 있다. 마찬가지로, 메모리가 본원에 예시되거나 설명되는 경우, 메모리는 서로 결합되거나 결합되지 않을 수 있는 복수의 메모리 디바이스로 이루어질 수 있다.
특정 예시적인 실시형태가 첨부 도면에 설명되고 도시되었지만, 이러한 실시형태는 단지 예시적인 것이고 본 발명의 넓은 범위를 제한하는 것으로 의도되지 않으며, 본 발명은 도시되고 설명된 특정 구성 및 배열에 제한되지 않는다는 것이 이해되어야 하는데, 이는 상기 단락에 설명된 것 이외에 다양한 다른 변경, 조합, 생략, 수정 및 대체가 가능하기 때문이다. 당업자는 설명된 바로 그 실시형태의 다양한 적응 및 수정이 본 발명의 범위 및 사상으로부터 벗어나지 않고 구성될 수 있다는 것을 인식할 것이다. 따라서, 첨부된 청구범위의 범주 내에서, 본 발명은 본원에서 구체적으로 설명된 것과 다르게 실행될 수 있다는 것이 이해되어야 한다.

Claims (20)

  1. 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법으로서,
    프로세싱 유닛을 통해, 제1 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제1 신호 시퀀스 또는 제1 변조 파라미터를 포함하는 제1 오디오 신호를 제시하는 단계;
    상기 프로세싱 유닛을 통해, 제2 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제2 신호 시퀀스 또는 제2 변조 파라미터를 포함하는 제2 오디오 신호를 제시하는 단계;
    오디오 출력 디바이스를 통해, 상기 제1 오디오 신호 및 상기 제2 오디오 신호 각각을, 인지 훈련 요법(cognitive training regimen)의 인스턴스를 포함하는 2개 이상의 주기적 시점들에서 상기 적어도 하나의 오디오 출력 디바이스에 출력하는 단계;
    상기 프로세싱 유닛을 통해, 상기 2개 이상의 시점들에서 상기 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 단계;
    상기 프로세싱 유닛을 통해, 상기 2개 이상의 시점들에서 상기 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신하는 단계; 및
    상기 프로세서를 통해, 타이밍 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터에 따라 상기 제1 센서 입력 및 상기 제2 센서 입력을 프로세싱하는 단계를 포함하는, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  2. 제1항에 있어서, 상기 제1 센서 입력은 오디오 타겟 구별 입력(audio target discrimination input)을 포함하고, 상기 제1 오디오 간섭 프로세싱 태스크는 오디오 타겟 구별 태스크인, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  3. 제1항에 있어서, 상기 제2 센서 입력은 오디오 내비게이션 입력(audio navigation input)을 포함하고, 상기 제2 오디오 간섭 프로세싱 태스크는 오디오 내비게이션 태스크인, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  4. 제1항에 있어서, 상기 프로세싱 유닛을 통해, 상기 인지 훈련 요법의 인스턴스 내에 오디오 간섭 출력을 포함하는 제3 오디오 신호를 제시하는 단계를 더 포함하는, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  5. 제1항에 있어서, 상기 프로세싱 유닛을 통해, 상기 제1 센서 입력 및 상기 제2 센서 입력을 프로세싱하는 것에 응답하여 상기 적어도 하나의 입력 파라미터를 상기 적어도 하나의 성능 파라미터에 따라 수정하는 단계를 더 포함하는, 오디오-기반 인지 훈련을 위한 컴퓨터-구현 방법.
  6. 제1항에 있어서, 상기 프로세싱 유닛을 통해, 상기 제1 센서 입력 또는 상기 제2 센서 입력을 프로세싱하는 것에 응답하여 상기 제1 오디오 신호의 상기 제1 신호 시퀀스 또는 상기 제1 변조 파라미터를 상기 적어도 하나의 성능 파라미터에 따라 수정하는 단계를 더 포함하는, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  7. 제6항에 있어서, 상기 프로세싱 유닛을 통해, 상기 제1 센서 입력 또는 상기 제2 센서 입력을 프로세싱하는 것에 응답하여 상기 제2 오디오 신호의 상기 제2 신호 시퀀스 또는 상기 제2 변조 파라미터를 상기 적어도 하나의 성능 파라미터에 따라 수정하는 단계를 더 포함하는, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  8. 제1항에 있어서, 상기 제1 오디오 신호는 대상 오디오 타겟을 포함하는 랜덤으로 생성된 오디오 시퀀스를 포함하는, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  9. 제3항에 있어서, 상기 제2 센서 입력은 모바일 전자 디바이스를 스테레오 필드 내의 상기 제2 오디오 신호의 방향으로 회전시키는 단계를 포함하는, 컴퓨터로 구현된 오디오-기반 인지 훈련을 위한 방법.
  10. 개인의 인지를 개선시키기 위한 오디오-기반 시스템으로서,
    적어도 하나의 스피커 또는 헤드폰들을 포함하는 적어도 하나의 오디오 출력 디바이스;
    적어도 하나의 센서를 포함하고 상기 적어도 하나의 오디오 출력 디바이스에 오디오 신호를 제공하도록 작동 가능하게 구성된 모바일 전자 디바이스;
    상기 모바일 전자 디바이스와 통신가능하게 맞물린 통합 또는 원격 프로세서; 및
    실행될 때, 프로세서로 하여금,
    제1 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제1 신호 시퀀스 또는 제1 변조 파라미터를 포함하는 제1 오디오 신호를 렌더링하는 것,
    제2 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하며 제2 신호 시퀀스 또는 제2 변조 파라미터를 포함하는 제2 오디오 신호를 렌더링하는 것,
    상기 제1 오디오 신호 및 상기 제2 오디오 신호 각각을 인지 훈련 요법의 인스턴스를 포함하는 2개 이상의 주기적 시점들에서 상기 적어도 하나의 오디오 출력 디바이스에 출력하는 것,
    상기 2개 이상의 시점들에서 상기 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 것,
    상기 2개 이상의 시점들에서 상기 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신하는 것, 및
    타이밍 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터에 따라 상기 제1 센서 입력 및 상기 제2 센서 입력을 프로세싱하는 것을 포함하는 하나 이상의 동작을 수행하게 하는 명령어들이 저장된 비일시적 컴퓨터 판독가능 매체를 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  11. 제10항에 있어서, 상기 적어도 하나의 센서는 터치 센서 및 모션 센서 중 적어도 하나를 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  12. 제10항에 있어서, 상기 하나 이상의 동작은, 랜덤 시퀀스 생성기 및 변조기 중 적어도 하나를 포함하는 하나 이상의 오디오 프로세싱 모듈들에 따라 상기 제1 오디오 신호 및 상기 제2 오디오 신호를 생성하는 것을 더 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  13. 제10항에 있어서, 상기 하나 이상의 동작은, 상기 인지 훈련 요법의 인스턴스 내에 오디오 간섭 출력을 포함하는 제3 오디오 신호를 렌더링하는 것을 더 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  14. 제10항에 있어서, 상기 하나 이상의 동작은, 상기 제1 센서 입력 또는 상기 제2 센서 입력을 프로세싱하는 것에 응답하여 상기 제1 오디오 신호의 상기 제1 신호 시퀀스 또는 상기 제1 변조 파라미터를 상기 적어도 하나의 성능 파라미터에 따라 수정하는 것을 더 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  15. 제10항에 있어서, 상기 하나 이상의 동작은, 상기 제1 센서 입력 또는 상기 제2 센서 입력을 프로세싱하는 것에 응답하여 상기 제2 오디오 신호의 상기 제2 신호 시퀀스 또는 상기 제2 변조 파라미터를 상기 적어도 하나의 성능 파라미터에 따라 수정하는 것을 더 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  16. 제11항에 있어서, 상기 제2 센서 입력은 상기 모바일 전자 디바이스를 스테레오 필드 내의 상기 제1 오디오 신호 또는 상기 제2 오디오 신호의 방향으로 회전시키는 것을 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  17. 제10항에 있어서, 상기 제1 변조 파라미터 또는 제2 변조 파라미터는 오디오 내비게이션 파라미터를 포함하는 패닝 변조(panning modulation)인, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  18. 제10항에 있어서, 상기 하나 이상의 동작은 상기 제1 센서 입력 또는 상기 제2 센서 입력을 프로세싱하는 것에 응답하여 피드백 신호를 상기 모바일 전자 디바이스에 제공하는 것을 더 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  19. 제11항에 있어서, 상기 제1 오디오 간섭 프로세싱 태스크는 오디오 타겟 구별 태스크를 포함하고, 상기 제2 오디오 간섭 프로세싱 태스크는 오디오 내비게이션 태스크를 포함하는, 개인의 인지를 개선시키기 위한 오디오-기반 시스템.
  20. 하나 이상의 프로세서들에게 오디오-기반 인지 훈련을 위한 방법의 동작들을 실행하게 하는 명령을 내리기 위한 명령어들로 인코딩된 비일시적 컴퓨터 판독가능 매체로서, 상기 동작들은:
    시퀀싱 파라미터 및 변조 파라미터 중 적어도 하나를 포함하는 하나 이상의 오디오 프로세싱 파라미터들에 따라, 제1 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하는 제1 오디오 신호와, 제2 오디오 간섭 프로세싱 태스크에 대한 오디오 프롬프트를 포함하는 제2 오디오 신호를 프로세싱하는 것;
    상기 제1 오디오 신호 및 상기 제2 오디오 신호 각각을 인지 훈련 요법의 인스턴스를 포함하는 2개 이상의 시점들에서 오디오 출력 디바이스에 출력하는 것;
    상기 2개 이상의 시점들에서 상기 제1 오디오 신호를 출력하는 것에 응답하여 제1 센서 입력을 수신하는 것;
    상기 2개 이상의 시점들에서 상기 제2 오디오 신호를 출력하는 것에 응답하여 제2 센서 입력을 수신하는 것; 및
    타이밍 파라미터 및 태스크 파라미터를 포함하는 적어도 하나의 입력 파라미터에 따라 상기 제1 센서 입력 및 상기 제2 센서 입력을 프로세싱하는 것을 포함하는, 비일시적 컴퓨터 판독가능 매체.
KR1020217017435A 2018-11-09 2019-11-12 인지 장애 검사 및 치료를 위한 오디오-전용 간섭 훈련 KR20210093936A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862758464P 2018-11-09 2018-11-09
US62/758,464 2018-11-09
PCT/US2019/061032 WO2020097628A1 (en) 2018-11-09 2019-11-12 Audio-only interference training for cognitive disorder screening and treatment

Publications (1)

Publication Number Publication Date
KR20210093936A true KR20210093936A (ko) 2021-07-28

Family

ID=69779170

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217017435A KR20210093936A (ko) 2018-11-09 2019-11-12 인지 장애 검사 및 치료를 위한 오디오-전용 간섭 훈련

Country Status (8)

Country Link
US (2) US10593221B1 (ko)
EP (1) EP3876841A4 (ko)
JP (1) JP2022506653A (ko)
KR (1) KR20210093936A (ko)
CN (1) CN112969409A (ko)
AU (1) AU2019376177A1 (ko)
CA (1) CA3119101A1 (ko)
WO (1) WO2020097628A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3228053A1 (en) 2021-08-05 2023-02-09 David RUTTENBERG Multi-sensory, assistive wearable technology, and method of providing sensory relief using same

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7228190B2 (en) * 2000-06-21 2007-06-05 Color Kinetics Incorporated Method and apparatus for controlling a lighting system in response to an audio input
JP4211501B2 (ja) * 2003-06-11 2009-01-21 日産自動車株式会社 車両用運転支援装置
US20070293735A1 (en) * 2006-06-09 2007-12-20 Posit Science Corporation Cognitive training using one or more stimulus streams and target attribute matching
US20110256513A1 (en) 2010-03-03 2011-10-20 Harry Levitt Speech comprehension training system, methods of production and uses thereof
US9881515B2 (en) * 2011-04-20 2018-01-30 Sylvain Jean-Pierre Daniel Moreno Cognitive training system and method
CA2720892A1 (en) * 2010-11-12 2012-05-12 The Regents Of The University Of California Enhancing cognition in the presence of distraction and/or interruption
US9808715B2 (en) * 2011-05-30 2017-11-07 Auckland Uniservices Ltd. Interactive gaming system
US20120316884A1 (en) * 2011-06-10 2012-12-13 Curtis Instruments, Inc. Wheelchair System Having Voice Activated Menu Navigation And Auditory Feedback
US9116509B2 (en) * 2013-06-03 2015-08-25 Lumos Labs, Inc. Rhythm brain fitness processes and systems
US20150051508A1 (en) * 2013-08-13 2015-02-19 Sync-Think, Inc. System and Method for Cognition and Oculomotor Impairment Diagnosis Using Binocular Coordination Analysis
US20160005320A1 (en) * 2014-07-02 2016-01-07 Christopher deCharms Technologies for brain exercise training
WO2016044317A1 (en) * 2014-09-17 2016-03-24 The Regents Of The University Of California Methods of enhancing performance on a cognitive task by improved self-regulation of internal distraction and computer readable medium and devices for practicing the same
US11304657B2 (en) * 2016-08-26 2022-04-19 Akili Interactive Labs, Inc. Cognitive platform coupled with a physiological component
WO2018094230A2 (en) * 2016-11-17 2018-05-24 Cognito Therapeutics, Inc. Methods and systems for neural stimulation via auditory stimulation
KR101918631B1 (ko) * 2016-12-13 2018-11-15 (주)인더텍 혼합현실 기반 인지 및 학습 집중력 평가 및 훈련 피드백 시스템
US10736564B2 (en) * 2016-12-16 2020-08-11 Elwha Llc System and method for enhancing learning of a motor task

Also Published As

Publication number Publication date
WO2020097628A1 (en) 2020-05-14
AU2019376177A1 (en) 2021-05-27
EP3876841A1 (en) 2021-09-15
JP2022506653A (ja) 2022-01-17
CN112969409A (zh) 2021-06-15
CA3119101A1 (en) 2020-05-14
US10593221B1 (en) 2020-03-17
US20220060830A1 (en) 2022-02-24
EP3876841A4 (en) 2022-07-27
US11532240B2 (en) 2022-12-20

Similar Documents

Publication Publication Date Title
Parseihian et al. Comparison and evaluation of sonification strategies for guidance tasks
CN104869501A (zh) 音频信号的神经诱导增强
Alonso-Arevalo et al. Curve shape and curvature perception through interactive sonification
US11532240B2 (en) Audio-only interference training for cognitive disorder screening and treatment
Caspo et al. A survey on hardware and software solutions for multimodal wearable assistive devices targeting the visually impaired
WO2015047466A2 (en) Bi-phasic applications of real & imaginary separation, and reintegration in the time domain
WO2021085506A1 (ja) 振動制御装置,振動制御プログラム及び振動制御方法
Bressolette et al. Harnessing audio in auto control: The challenge of sonifying virtual objects for gesture control of cars
Gao et al. Exploring sonification mapping strategies for spatial auditory guidance in immersive virtual environments
Peres et al. Auditory interfaces
Boyer et al. Learning movement kinematics with a targeted sound
Verdugo et al. Feeling the Effort of Classical Musicians-A Pipeline from Electromyography to Smartphone Vibration for Live Music Performance
JP2021065872A (ja) 振動制御装置,振動制御プログラム及び振動制御方法
Neate Interactive spatial auditory display of graphical data
Michailidis et al. Improvising through the senses: a performance approach with the indirect use of technology
US8788557B2 (en) Bi-phasic applications of real and imaginary separation, and reintegration in the time domain
Strumillo et al. A mobile application for interactive sonification of images for the visually impaired
WO2022254732A1 (ja) 振動分配制御装置,振動分配制御プログラム及び振動分配制御方法
US20240017166A1 (en) Systems and methods for generating real-time directional haptic output
JP7319608B2 (ja) 振動体感装置,方法,振動体感装置用プログラム及び振動体感装置用プログラムを記録したコンピュータ読み取り可能な記録媒体
US11847379B1 (en) Audio processing method and system for environmental enrichment therapy
Sun Real-time Sonification of muscle tension for piano players
Bălan et al. Binaural Sound Analysis and Spatial Localization for the Visually Impaired People
Gomez et al. Multisource sonification for visual substitution in an auditory memory game: one, or two fingers?
Ammi et al. Design of haptic stimuli for audio-haptic concurrent coupling