KR20140068080A - 스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들 - Google Patents

스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들 Download PDF

Info

Publication number
KR20140068080A
KR20140068080A KR1020147007288A KR20147007288A KR20140068080A KR 20140068080 A KR20140068080 A KR 20140068080A KR 1020147007288 A KR1020147007288 A KR 1020147007288A KR 20147007288 A KR20147007288 A KR 20147007288A KR 20140068080 A KR20140068080 A KR 20140068080A
Authority
KR
South Korea
Prior art keywords
speaker
sound
tongue
sensor
target
Prior art date
Application number
KR1020147007288A
Other languages
English (en)
Inventor
알렉세이 살라미니
애드리안 에프. 페나케
데이비드 에이. 페나케
고디 티. 로저스
Original Assignee
아티큘레이트 테크놀로지스, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아티큘레이트 테크놀로지스, 인코포레이티드 filed Critical 아티큘레이트 테크놀로지스, 인코포레이티드
Publication of KR20140068080A publication Critical patent/KR20140068080A/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F5/00Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
    • A61F5/58Apparatus for correcting stammering or stuttering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Nursing (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Vascular Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

구강내 방법, 바이오피드백 시스템 및 키트는 사운드 생성 동안 화자의 발음을 나타내는 구강내 피드백을 공급하기 위해 제공되며, 그 피드백은 화자의 발음 정확도를 트레이닝하고 향상시키는데 사용될 수 있다.

Description

스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들{INTRAORAL TACTILE BIOFEEDBACK METHODS, DEVICES AND SYSTEMS FOR SPEECH AND LANGUAGE TRAINING}
본 발명은 조음, 언어 치료 및 언어 학습 분야들에 관한 것이다. 특히, 본 발명은 대상자의 구강과 비외과적인 상호작용에 의해 화자의 발음 정확도를 트레이닝하고 향상시키는 촉각 피드백을 제공하는 상호작용 방법들, 디바이스들 및 시스템들에 관한 것이다.
인간 언어의 음향 신호를 포함하는 언어음들을 발생시키기 위해, 조정된 근육 운동들의 복합 세트가 실현되어야 한다. 각각의 언어음은 고유한 일련의 운동들이 수행되는 것을 필요로 한다. 예를 들어, 혀는 종종 각각의 운동이 특정 언어음의 적어도 하나의 이상적인 발음에 대응하면서 운동들의 정확한 시퀀스로 형상을 변경하며/하거나 구강 내의 다양한 지표들과 접촉해야 한다.
많은 사람들, 특히 아이들은 화자가 특정 언어음을 생성하는데 필요한 특정 일련의 운동들에 영향을 미치지 않을 수 있는 언어음 장애들을 경험한다. 이러한 개인들을 위해, 부적절한 일련의 혀 운동들은 개인의 언어 능력의 전체 이해도에 영향을 미치는 왜곡된 언어음들을 야기할 수 있다. 화자의 모국어 내의 일부 언어음들(소위 "음소들")이 생성되지 않을 수 있거나, 정확하게 생성되지 않을 수 있거나, 정확하게 사용되지 않을 수 없다. 언어음 장애자들은 전형적으로 조음 장애자들("음성 장애자들") 및 음소 장애자들("음운 장애자들")로 분류되지만, 일부 화자들은 조음 및 음운 문제들 둘 다가 존재하는 혼합된 장애로 고통받을 수 있다 (http://www.asha.org/public/speech/disorders/SpeechSoundDisorders.htm 참조).
언어음 장애들을 갖는 화자들에 의해 생성되는 에러들은 생략들(특정 사운드들이 생성되지 않거나, 또는 사운드들의 전체 음절들 또는 클래스들이 삭제될 수 있음), 추가(과잉심음은 의도된 단어들에 추가됨), 왜곡들(사운드들은 의도된 사운드가 인식되지만 사운드가 예를 들어 리스프(lisp)에서와 같이 잘못될 수 있도록 약간 변경됨) 및 치환들(하나 이상의 사운드들이 다른 것으로, 예를 들어 "rabbit"을 "wabbit"으로 치환됨)을 포함할 수 있다. 그러한 에러들의 규모는 화자들 중에서 변화될 수 있고, 일부 에러들은 상이한 사운드들 중의 에러들에서 변화가능한 규모를 입증할 수 있다. 일부 화자들은 본의 아니게 스피킹 동안 하나보다 많은 에러를 입증할 수 있다.
다양한 시도들은 스피치 에러들의 변화하는 규모뿐만 아니라 그러한 에러들에 대한 가능한 원인들의 넓은 어레이를 다루는 방식으로 언어음 장애자들을 진단하고 치료하기 위해 이루어졌다.
미국 특허 제4,112,596호는 예를 들어 스피치 장애들의 진단 및 치료에 사용되는 가성 구개에 관한 것이다. 개시된 가성 구개는 환자의 구개의 윤곽으로 형상화되는 얇은 재료 시트로 형성된다. 전극들의 어레이는 전극들이 그 사이에 미리 결정된 공간들을 갖는 상태에서 시트의 혀 표면 상에 제공된다. 전극들에 부착된 도체들은 환자의 입으로부터의 배출을 위해 구개의 후면부로부터 배출되도록 시트에 내장되고 함께 그룹화된다. 가성 구개가 제자리에 있는 경우, 작은 전압은 환자의 신체, 예를 들어 환자의 손목에 전극을 고정함으로써 인가된다. 도체들은 환자가 지정된 언어음들을 만들거나, 만들려고 시도할 때, 혀의 위치에 대응하는 시각 및/또는 청각 신호들을 제공하는 처리 및 디스플레이 장비와 통신한다.
미국 특허 제6,974,424호는 파라토미터(palatometer) 및 나조미터 장치에 관한 것이다. 파라토미터는 환자의 입에 맞는 전극들을 갖는 가요성 회로 기판을 포함한다. 혀 및 입술들의 위치 및 운동은 전극들과 통신하는 처리 및 디스플레이 장비 상에 표시된다. 나조미터는 상이한 얼굴 만곡들을 갖는 환자들에 맞는 교체가능한 사운드 분리기 플레이트 세트를 포함한다. 마이크로폰들은 스피치의 비음성을 결정하는 코 및 입으로부터 방출된 사운드를 측정하기 위해 각각의 사운드 분리기 플레이트에 부착된다.
미국 특허 제6,971,993호는 스피치 동안 모형 혀와 입 사이의 접촉 위치의 모형 표현을 사용하는 언어 치료를 제공하는 방법에 관한 것이다. 사용자의 혀와 접촉하는 검출을 위한 센서들을 갖는 센서 플레이트를 포함하는 디바이스가 사용된다. 스피치 동안 혀와 구개 사이의 접촉의 표현들은 모형 표현들(예를 들어, 분할 스크린을 갖는 처리 및 디스플레이 디바이스 상의)로 보여지거나 비교될 수 있다. 스피치 향상을 위해 모방될 수 있는 모형 표현들은 센서 플레이트를 사용하는 다른 화자에 의해 또는 전자적으로 저장되었던 컴퓨터 생성 표현들에 의해 생성될 수 있다.
미국 공개 제2009/0138270호 및 제2007/0168187호는 언어 치료 방법들로 통합된 스피치 분석 및 시각화 피드백에 관한 것이다. 미국 공개 제2007/0168187에서, 컴퓨팅 시스템의 오디오 입력은 상대 정확도를 시각화하기 위해 스피치 신호의 이상적 발음과 시각적으로 비교되는 스피치 신호를 수신한다. 미국 공개 제2009/0138270호에서, 복수의 센서들을 갖는 센서 플레이트는 학습자의 구개에 대해 배치된다. 발언 동안 학습자의 혀와 구개 사이의 접촉 패턴을 나타내는 파라미터 세트는 스피치 신호로부터 확인된다. 각각의 파라미터에 대해, 편차는 발언의 이상적인 발음으로부터 대응하는 파라미터 세트에 대해 계산되는 측정값이다. 정확도 스코어는 편차 측정값으로부터 생성된다.
미국 공개 제2008/0228239호는 감각 인식의 손실 및 장애를 수반하는 다수의 조건들의 치료에 대한 감각 치환 및/또는 향상을 위한 시스템들 및 방법들에 관한 것이다. 일부 시스템들은 촉각 정보를 인지될 환경 정보와 상관시키기 위해 대상자들을 트레이닝시키며, 그것에 의해 전정 기능을 개선한다. 일 예에서, 촉각 자극(예를 들어, 혀의 전기 자극)은 심부뇌 자극이 사용되고 사용에 고려되는 응용들에 의존된다.
이러한 공지된 방법들 및 디바이스들은 구강 조음 기관의 정확한 이동 및 배치를 표시하기 위해 복합 시각 및 언어 큐들을 이용한다. 적절한 혀 위치, 형상, 및 이동을 필요로 하는 언어음들은 필요한 혀 위치, 형상, 및 이동이 치아 뒤에서 발생하기 때문에 교시하기가 어렵고, 따라서 환자에게 보여주기 어렵다. 따라서, 환자들은 전통적인 시각 및 언어 큐들로 교시될 때 이러한 타입들의 복합 모터 패턴들을 완전히 이해하기 어렵다. 특히, 적절한 혀 형상 및 운동을 교시하기 위해 사용되는 복합 언어 큐들은 어린 환자들이 처리하기 어려울 수 있다.
이러한 공지된 방법들 및 디바이스들에도 불구하고, 상이한 스피치 병리학의 인식 및 치료를 위한 개선된 접근법들에 대한 요구가 계속된다. 출원인들은 특정 언어음들에 대응하는 적절한 혀 위치를 트레이닝하기 위해 구강내 촉각 피드백을 사용하는 방법들 및 디바이스들을 제공함으로써 이러한 요구를 다루었다(출원인의 공동 계류중인 출원 미국 출원 번호 제12/357,239호 참조, 그의 전체 개시는 본 명세서에 참고문헌으로 포함됨). 출원인의 개시된 방법들 및 디바이스들은 화자의 구강을 내비게이션하고 적절한 혀 위치를 강화하는데 사용하기 위해 화자들, 치료 전문가들 및 가족 구성원(부모님들 및 다른 주요 의료진과 같은)에 의해 직감적으로 사용된다. 출원인의 개시된 방법들 및 디바이스들은 또한 다수 언어음들의 생성을 위한 호환성 및 모듈성, 및 다양한 환경들에서 사용의 장려를 위한 휴대성을 촉진하며, 그것에 의해 화자가 단축된 기간 내에 유익한 결과를 실현하게 한다.
이들 및 추가 속성들은 독립적으로 및 소프트웨어 플랫폼과 협력으로, 구강내 바이오피드백을 제공하는 본 명세서에 개시된 방법들, 디바이스들 및 시스템들에 의해 제공된다.
현재 개시된 발명은 화자의 발음 정확도를 트레이닝하고 향상시키기 위해 구강내 피드백을 제공하는 방법들, 디바이스들 및 시스템들에 관한 실시예들을 포함한다. 본 발명의 일 측면에 따르면, 언어 조음 장애는 타겟 "사운드"의 생성을 위한 혀의 적절한 위치를 표시하기 위해 촉각 피드백을 환자에게 제공함으로써 치료된다. 본 명세서에 사용되는 바와 같은 "사운드"라는 용어는 음소 및 이음이라는 음성 용어들을 포함한다. "사운드"는 또한 일반적으로 임의의 사운드, 사운드 패턴, 단어, 단어 패턴, 문장, 발언, 입술 움직임(발성을 갖거나 갖지 않고 이루어지는지), 호흡 패턴 및 임의의 보완 등가 및 그것의 조합을 지칭한다. "발음"은 일반적으로 입술 움직임들(발성을 갖거나 갖지 않는지)의 생성, 호흡 및 호흡 패턴들의 생성, 혀 차기의 생성 및 임의의 보완 등가 및 그것의 조합을 포함하지만 이들에 제한되지 않는, 본 명세서에 생각되는 바와 같은 임의의 사운드의 생성을 지칭한다.
본 발명은 사운드 생성 동안 화자의 발음을 나타내는 피드백을 제공하는 구강내 방법을 포함하며 구강내 방법은 적어도 하나의 타겟 사운드를 촉각 피드백을 통해 화자에게 트레이닝하기 위해 타겟들을 화자의 구강에 위치시키는 단계를 포함한다. 타겟 위치는 사운드가 트레이닝되는 것에 의존한다. 적어도 하나의 타겟 사운드의 정확한 발음을 위한 화자의 혀의 위치를 표시하는 촉각 피드백을 화자에게 제공하기 위해 하나 이상의 노드들을 갖는 헤드, 하나 이상의 노드들을 화자의 구강에 유지하고 위치시키는 핸들, 및 각각의 디바이스의 적어도 하나의 노드에 있거나 적어도 하나의 노드 근처에 있는 적어도 하나의 센서를 포함하는 적어도 하나의 사운드 트레이닝 디바이스가 제공된다. 적어도 하나의 센서는 타겟 사운드들의 생성을 위한 적절한 혀 위치들에 부합하여 각각의 타겟에 또는 타겟 근처에 위치된다. 센서들은 화자의 구강 내의 디바이스의 삽입이 의도된 타겟에 또는 타겟 근처에 센서들을 자동으로 배치하도록 각각의 디바이스 상의 적어도 하나의 노드에 또는 노드 근처에 제공된다. 센서는 사운드 생성 동안 화자의 혀가 의도된 타겟과 접촉할 때 타겟 사운드의 발음 정확도를 검출한다. 사운드 트레이닝 디바이스는 발음 평가 애플리케이션 또는 일반적 진단 테스트와 같은 소프트웨어 애플리케이션을 실행시키는 컴퓨팅 디바이스와 통신하는 네트워크 연결 디바이스일 수 있다. 바람직하게는, 적어도 하나의 사운드 트레이닝 디바이스는 적어도 하나의 발음 평가 애플리케이션을 실행시키는 하나 이상의 컴퓨팅 디바이스들과 통신하는 네트워크 연결 사운드 트레이닝 디바이스이다.
본 발명은 또한 화자의 발음 정확도를 트레이닝하고 향상시키는 구강내 바이오피드백 시스템을 포함하며 구강내 바이오피드백 시스템은 촉각 피드백을 화자에게 제공하는 하나 이상의 노드들을 구비한 헤드를 갖는 적어도 하나의 사운드 트레이닝 디바이스를 포함한다. 그러한 피드백은 적어도 하나의 타겟 사운드의 정확한 발음을 위한 화자의 혀의 정확한 위치를 표시한다. 사운드 트레이닝 디바이스는 또한 하나 이상의 노드들을 화자의 구강에 유지하고 위치시키는 핸들을 포함한다. 센서들은 화자의 구강 내의 디바이스의 삽입이 의도된 타겟에 있거나 타겟 근처에 있는 센서들을 자동으로 배치하도록 각각의 디바이스 상의 적어도 하나의 노드에 있거나 적어도 하나의 노드 근처에 제공된다. 센서는 사운드 생성 동안 화자의 혀가 의도된 타겟과 접촉하도록 타겟 사운드의 발음 정확도를 검출한다.
사운드 트레이닝 디바이스는 적어도 하나의 발음 평가 애플리케이션을 실행시키는 컴퓨팅 디바이스와 동작적으로 통신하는 네트워크 연결 디바이스일 수 있다. 시스템은 네트워크 연결 디바이스와 통신하는 서버를 더 포함할 수 있다. 서버는 시스템을 네트워크를 통해 네트워크 인터페이스에 의해 액세스하는 것, 및 화자의 발음을 나타내는 피드백을 제공하는 방법을 수행하는 것을 포함하는 동작들을 수행하도록 구성된다. 서버는 소셜 네트워킹 시스템을 네트워크를 통해 액세스하는 것 의도된 타겟 사운드들에 대해 생성될 수 있는 센서 출력들의 프로파일들의 데이터베이스를 구축하고 액세스하는 것 및 데이터베이스 상의 저장을 위해 화자 프로파일 데이터 및 하나 이상의 진단 및 연습 훈련들에 대응하는 데이터 중 적어도 하나를 업로드하는 것 중 적어도 하나를 포함하는 동작들을 수행하도록 구성될 수도 있다.
본 발명은 사운드 생성 동안 화자의 발음을 나타내는 구강내 피드백을 제공하는 키트를 더 포함하며 키트는 사운드 트레이닝 디바이스에 대한 하나 이상의 헤드들을 포함한다. 각각의 헤드는 적어도 하나의 타겟 사운드의 정확한 발음을 위한 화자의 혀의 정확한 위치를 표시하는 촉각 피드백을 화자에게 제공하기 위해 하나 이상의 노드들을 갖는다. 적어도 하나의 센서는 화자의 구강 내의 선택된 디바이스의 삽입이 타겟 사운드에 대응하는 의도된 타겟에 있거나 타겟 근처에 있는 센서들을 자동으로 배치하도록 각각 하나의 노드에 또는 노드 근처에 제공된다. 센서는 사운드 생성 동안 화자의 혀가 의도된 타겟과 접촉할 때 타겟 사운드의 발음 정확도를 검출한다. 키트는 또한 사운드 트레이닝 디바이스에 대한 하나 이상의 핸들들을 포함하며, 각각의 핸들은 화자(또는 다른 사용자)가 노드들을 화자의 구강에 유지하고 위치시킬 수 있게 한다. 헤드들은 화자의 발음을 나타내는 피드백을 제공하는 방법을 수행하기 위해 핸들들과 선택적으로 교환가능하다.
키트는 컴퓨팅 디바이스 상에 로딩가능한 하나 이상의 상호작용 소프트웨어 애플리케이션들을 더 포함할 수 있다. 소셜 네트워크를 통해 다른 사람들과의 협력을 위해 화자에게 인터페이스를 제공하는 플랫폼에 액세스하는 명령어들을 포함하는 소프트웨어 애플리케이션들의 사용을 위한 명령어들이 제공될 수 있다. 키트는 소프트웨어 애플리케이션들이 미리 로딩된 이동 디바이스를 포함할 수도 있다.
본 발명의 다른 실시예는 적어도 하나의 타겟 사운드의 더 정확한 발음을 위한 피드백을 제공하기 위해 대상의 턱, 혀, 입술, 볼, 치아 또는 입과 관련되는 파라미터들의 평가를 위해 본 명세서에 개시되는 시스템 또는 키트의 사용에 관한 것이다. 바람직한 파라미터들은 대상의 턱, 혀, 입술, 볼, 치아 또는 입의 위치, 힘, 가속도, 속도, 변위 또는 크기를 포함한다.
현재 개시된 방법들, 디바이스들 및 시스템들의 추가 측면들은 이하의 상세한 설명으로부터 분명해질 것이다.
본 발명의 본질 및 다양한 장점들은 동일한 참조 부호들이 도처에서 동일한 부분들을 지칭하는 첨부 도면들과 함께 해석되는 이하의 상세한 설명의 고려시에 더 분명해질 것이다.
도 1은 현재 개시된 방법들 및 시스템들의 실시예들이 구현될 수 있는 대표적인 컴퓨팅 환경을 도시한다.
도 2, 도 3 및 도 4는 발음 정확도를 트레이닝하는 방법들의 대표적인 구현들의 흐름도들을 도시한다.
도 5는 타겟 위치들이 다양한 언어음들의 생성을 위한 혀 위치들에 대응하는 상태에서, 센서들이 화자의 구강 내에 배치될 수 있는 타겟 위치들의 예들을 도시한다.
도 6은 /r/ 사운드의 정확한 생성을 트레이닝할 때 화자의 혀의 반전음을 교시하는 대표적인 디바이스의 평면 사시도를 도시한다.
도 6a는 도 6의 디바이스의 부분 측면 사시도를 도시한다.
도 6b는 전략적으로 배치된 센서들을 갖는 도 6의 디바이스의 헤드의 부분 측면도를 도시한다.
도 7은 /r/ 사운드의 정확한 생성을 트레이닝하는 다른 대표적인 디바이스의 측면도를 도시한다.
도 8은 /r/ 사운드의 정확한 생성을 트레이닝할 때 수축 방법을 교시하는 사용에서의 대표적인 디바이스를 도시한다.
도 9는 전동음 /r/을 교시하는 대표적인 디바이스를 도시한다.
도 10은 전동음 /r/을 교시하는 사용에서의 다른 대표적인 디바이스를 도시한다.
도 11은 특정 사운드들의 블렌드(blend)들 또는 시퀀스들을 교시하는 대표적인 디바이스를 도시한다.
도 12는 일본어, 한국어 및 만다린 /l/ 및 /r/을 교시하는 사용에서의 대표적인 디바이스를 도시한다.
도 13 및 도 13a는 /l/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스의 평면 사시도 및 정면도를 각각 도시한다.
도 14 및 도 14a는 /ch/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스의 평면 사시도 및 정면도를 각각 도시한다.
도 15는 /s/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스의 평면 사시도를 도시한다.
도 16은 /sh/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스의 평면 사시도를 도시한다.
도 17은 만다린 /∑/를 교시하는 사용에서의 대표적인 디바이스를 도시한다.
도 18 및 도 18a는 영어 /f/ 또는 /v/ 사운드를 트레이닝하는 사용에서의 대표적인 디바이스를 도시한다.
도 19 및 도 19a 영어 /b/ 또는 /p/ 사운드를 트레이닝하는 사용에서의 대표적인 디바이스를 도시한다.
도 20 및 도 20a는 영어 /th/ 사운드를 트레이닝하는 사용에서의 대표적인 디바이스를 도시한다.
도 21은 /k/ 및 /g/ 사운드들을 트레이닝하는 대표적인 디바이스를 도시한다.
도 21a는 /k/ 및 /g/ 사운드들을 트레이닝하는 사용에서의 도 21의 디바이스를 도시한다.
도 22는 화자의 혀 및 입술들의 적절한 배향에 의해 /r/ 사운드를 트레이닝하는 대표적인 디바이스를 도시한다.
도 22a는 /r/ 사운드를 트레이닝하는 사용에서의 도 22의 대표적인 디바이스를 도시한다.
도 23은 화자의 혀 및 입술들의 적절한 방향에 의해 /∑/ 사운드를 트레이닝하는 사용에서의 대표적인 디바이스를 도시한다.
도 24는 화자의 혀 및 입술들의 적절한 배향에 의해 /l/ 사운드를 트레이닝하는 대표적인 디바이스를 도시한다.
도 24a는 /l/ 사운드를 트레이닝하는 사용에서의 도 24의 대표적인 디바이스를 도시한다.
도 25는 단어 "lion"의 발음 동안 대표적인 L-음소 디바이스에서의 센서에 화자의 혀의 근접의 대표적인 표현을 도시한다
도 26-도 28은 화자들이 발음 능숙을 표시하는 센서 데이터를 유도하기 위해 디바이스들과 상호작용하는 소프트웨어 애플리케이션에 대한 사용자 인터페이스의 대표적인 스크린샷들을 도시한다.
도 29는 사용자가 하나 이상의 스피킹 훈련들을 커스터마이징할 수 있게 하는 소프트웨어 애플리케이션에 대한 사용자 인터페이스의 대표적인 스크린샷을 도시한다.
도 30은 대표적인 전문가 대시보드의 대표적인 스크린샷을 도시한다.
도 31은 다수의 전문가들 및 다수의 화자들 중의 인터커뮤니케이션(intercommunication)을 가능하게 하는 플랫폼에 의해 지원되는 대표적인 소셜 네트워크를 도시한다.
도 32 및 도 33은 모유 수유 품질을 결정하기 위해 압력을 측정하는 대표적인 디바이스를 도시한다.
이제 동일한 번호들이 동일한 요소들을 나타내는 도면들을 참조하면, 본 명세서에 설명되는 바와 같은 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들은 하드웨어, 소프트웨어, 또는 적절한 경우, 둘 다의 조합을 포함하는 컴퓨팅 디바이스(모바일 네트워킹 장치를 포함함)와 관련되어 구현될 수 있다. 도 1은 명세서에 설명된 기능들의 측면을 구현하기 위해 사용될 수 있는 예시적 전기 데이터 처리 기능성(100)을 제시한다. 하나의 경우에, 처리 기능성(100)은 하나 이상의 처리 디바이스들을 포함하는 컴퓨팅 디바이스에 대응할 수 있다. 컴퓨팅 디바이스는 클라이언트 컴퓨터, 서버 컴퓨터, 휴대용 컴퓨터(랩톱 및 태블릿을 포함함), 핸드헬드 컴퓨터, 이동 장치(스마트폰을 포함함), 게임 디바이스, 내장 컨트롤러 및 임의의 조합을 포함하는 컴퓨터, 컴퓨터 시스템 또는 다른 프로그램가능 전자 디바이스, 및/또는 그것의 균등물(비접촉 디바이스들을 포함함)을 포함할 수 있다. 더욱이, 컴퓨팅 디바이스는 예를 들어 클러스터 또는 다른 분산 컴퓨팅 시스템에서 하나 이상의 네트워크 컴퓨터들을 사용하여 구현될 수 있다. 도 1에 예시된 대표적인 환경이 본 개시를 제한하도록 의도되지 않는다는 점, 및 다른 대안적인 하드웨어 및/또는 소프트웨어 환경들이 본 개시의 범주로부터 벗어나는 것 없이 사용될 수 있다는 점이 이해된다.
명확성을 위해, 본 명세서에 사용된 바와 같이, "서버"라는 용어는 하나 이상의 서버들을 포함한다. 서버는 네트워크에서 집중된 자원 또는 서비스에 액세스를 관리하는 하나 이상의 컴퓨터들을 포함할 수 있다. 서버는 자원들을 관리하는 적어도 하나의 프로그램을 포함할 수도 있다(예를 들어, 단일 컴퓨터가 수개의 프로그램들을 즉시 실행할 수 있는 멀티프로세싱 동작 시스템에서). 게다가, "컴퓨팅 디바이스", "컴퓨터 디바이스", "컴퓨터" 및 "기계"라는 용어들은 교환가능한 용어들인 것으로 이해되고 본 명세서에 논의된 방법들의 임의의 하나 이상을 수행하는 명령어 세트(또는 다수의 세트들)를 개별적으로 또는 공동으로 실행하는 컴퓨팅 디바이스들의 임의의 컬렉션을 포함하는 것으로 해석될 것이다.
처리 기능성(100)은 휘발성 메모리(RAM(102)과 같은) 및/또는 비휘발성 메모리(ROM(104) 뿐만 아니라, 캐시 메모리들, 프로그램가능 또는 플래시 메모리들 및 판독 전용 메모리들을 포함하지만 이들에 제한되지 않는 임의의 추가 레벨들의 메모리)를 포함할 수 있다. 처리 기능성은 하나 이상의 처리 디바이스들(106)(예를 들어, 하나 이상의 CPU들(central processing units), 하나 이상의 GPU들(graphics processing units), 하나 이상의 μP(microprocessors) 및 유사 및 보완적 디바이스들) 및 광 매체 디바이스들(108)(예를 들어, 하드 디스크 모듈, 광 디스크 모듈 등)을 포함할 수도 있다.
처리 기능성(100)은 메모리(예를 들어, RAM(102), ROM(104) 또는 다른 경우)에 의해 유지되는 명령어들을 실행하는 처리 디바이스(들)(106)로 상기 확인된 다양한 동작들을 수행할 수 있다. 개시된 방법 및 시스템은 전기적 와이어링 또는 케이블링을 통해, 광섬유를 통해, 무선으로 또는 임의의 다른 형태의 송신을 통해서와 같이 일부 송신 매체를 통해 송신되는 프로그램 코드의 형태로 내장된 커뮤니케이션들을 통해 실행될 수도 있으며, 프로그램 코드가 EPROM, 게이트 어레이, PLD(programable logic device), 클라이언트 컴퓨터 등과 같은 기계로 수신되고 로딩되고 기계에 의해 실행될 때, 기계는 현재 개시된 시스템 및 방법을 실행하는 장치가 된다. 일반 목적 프로세서에서 구현될 때, 프로그램 코드는 프로세서와 조합되어 현재 개시된 시스템 및 방법의 기능성을 불러오도록 동작하는 고유의 장치를 제공한다. 부가적으로, 현재 개시된 방법 및/또는 시스템과 관련되어 사용되는 임의의 저장 기술들은 변함없이 하드웨어 및 소프트웨어의 조합일 수 있다.
또한, 처리 기능성(100)은 사용자(입력 모듈들(112)을 통해)로부터 다양한 입력들을 수신하고 사용자에게 다양한 출력들을 제공하는 입력/출력 모듈(110)을 포함한다. 하나의 특정 출력 메커니즘은 하나 이상의 I/O 디바이스들(디스플레이, 키보드/키패드, 마우스 및/또는 다른 포인팅 디바이스, 트랙볼, 조이스틱, 햅틱 피드백 디바이스, 모션 피드백 디바이스, 음성 인식 디바이스, 마이크로폰, 화자, 터치 스크린, 터치패드, 웹캠, 2-D 및 3-D 카메라들, 및 컴퓨팅 디바이스에서 수신되는 사용자 커맨드들에 동작 응답을 가능하게 하는 유사 및 보완적 디바이스들을 포함하지만 이들에 제한되지 않음)을 통합하는 표현 모듈(114) 및 연관된 GUI(graphical user interface)(116)를 포함할 수 있다.
그렇지 않으면, 사용자 입력은 네트워크를 통해 다른 컴퓨팅 디바이스에 결합되는 컴퓨팅 디바이스를 통해 수신될 수 있다. 처리 기능성(100)은 하나 이상의 커뮤니케이션 콘딧들(conduits)(120)을 통해 데이터를 다른 디바이스들과 교환하는 하나 이상의 네트워크 인터페이스들(118)을 포함할 수도 있다. 하나 이상의 통신 버스들(122)은 상술한 구성 요소들을 함께 통신가능하게 결합한다. 버스(122)는 메모리 버스 또는 메모리 컨트롤러, 주변 버스, 직렬 버스, 가속화된 그래픽 포트, 프로세서 또는 임의의 다양한 버스 아키텍처들을 사용하는 로컬 버스 및 유사 및 보완적 디바이스들을 포함하지만 이들에 제한되지 않는 하나 이상의 버스 구조들 및 타입들을 나타낼 수 있다. 컴퓨팅 디바이스가 서버 또는 다른 형태의 멀티-사용자 컴퓨터로 구현되는 경우, 그러한 컴퓨팅 디바이스는 일부 실시예들에서 독립형 워크스테이션, 데스크톱, 또는 다른 단일 사용자 컴퓨터로 구현될 수도 있지만, 이러한 구성은 바람직할 수 있다. 그러한 구성에서, 컴퓨팅 디바이스는 적어도 하나의 네트워크와 동작적으로 통신하는 네트워크 인터페이스를 포함하는 것이 바람직하다. 네트워크는 LAN, WAN, SAN, 무선 네트워크, 셀룰러 네트워크, 무선 링크들, 광 링크들 및/또는 인터넷일 수 있지만, 네트워크는 이러한 네트워크 선택들에 제한되지 않는다. 컴퓨터 판독가능 및 컴퓨터 실행가능 명령어들 및 데이터를 제공하도록 이용되는 저장 디바이스들은 네트워크를 통해 분배될 수 있다는 점이 당해 기술에서의 통상의 기술자들에게 분명할 것이다.
컴퓨팅 디바이스는 다양한 컴퓨터 소프트웨어 애플리케이션들에서 실행되거나 그렇지 않으면 애플리케이션들에 의존하는 운영 체제의 제어 하에 동작할 수 있다. 예를 들어, DBMS(database management system)는 하나 이상의 데이터베이스들(도시되지 않음)에 액세스하도록 메모리에 상주할 수 있다. 데이터베이스들은 컴퓨팅 디바이스의 나머지와, 직접 또는 통신 회선을 통해 연결되는 데이터베이스 서버와 같은 분리 구조로 저장될 수 있다. 더욱이, 다양한 애플리케이션들은 또한 분산 또는 클라이언트-서버 컴퓨팅 환경에서 네트워크를 통해 컴퓨팅 디바이스에 결합되는 다른 컴퓨터 내의 하나 이상의 프로세서들 상에서 실행될 수 있다.
이제 도 2를 참조하면, 사용자는 언어 트레이닝/치료에서 경구내 피드백을 제공하는 프로세스(200)를 개시함으로써 대표적인 구강내 촉각 피드백 방법을 개시할 수 있다. 본 명세서에 사용되는 바와 같이, "사용자"는 단일 사용자 또는 사용자들의 그룹일 수 있고, 개별 화자들, 가족 구성원, 친구, 동료, 의학 및 치료 인원 및 임의의 다른 사람, 사람들 그룹 또는 화자의 언어 개발에 관련된 존재자를 포함할 수 있다. 본 명세서에 사용되는 바와 같이, "사용자"(또는 "사용자 디바이스", "클라이언트 디바이스", "네트워크 연결 디바이스" 또는 "디바이스")라는 용어는 제어 입력을 수신하도록 구성되고 다른 디바이스들에 쌍방향으로 또는 자동으로 커맨드들 또는 데이터를 송신하도록 구성된 임의의 전자 장치를 지칭할 수 있다. 사용자 디바이스는 사용자에 의해 검색된 서버들에 호스팅되는 온라인 사용자 인터페이스의 예일 수 있다. 본 명세서에 사용되는 바와 같이, "처리" 또는 "방법"이라는 용어는 적어도 하나의 전자 또는 컴퓨터 기반 장치에 수행되는 하나 이상의 단계들을 포함할 수 있다. 단계들의 임의의 시퀀스는 대표적이며, 본 명세서에 설명된 방법들을 임의의 특정 시퀀스에 제한하도록 의도되지 않으며, 단계들을 추가하는 것, 단계들을 생략하는 것, 단계들을 반복하는 것, 또는 단계들을 동시에 수행하는 것을 불가능하게 하도록 의도되지 않는다.
프로세스(200)는 사용자가 구강내 촉각 피드백 시스템에 액세스할 때 시작한다. 아래의 예들에서, 사용자는 "치료 전문가"일 수 있고, 이는 본 명세서에 대표적인 용어로서 사용되지만, 비치료 전문가들이 프로세스(200)를 수행할 수 있다는 점이 이해된다. 액세스는 구강내 촉각 피드백 시스템을 위한 로그인 페이지(도시되지 않음)를 나타내는 네트워크 인터페이스를 통해 허용될 수 있다. 로그인 페이지는 당해 기술에서 통상의 기술자에 의해 이해되는 바와 같이 다양한 외관들 및 애플리케이션들을 가질 수 있다. 일부 실시예들에 있어서, 로그인은 즉시 제공될 수 없지만, 다른 웹 페이지로부터 또는 모바일 애플리케이션으로부터 액세스가능할 수 있다.
단계(210)에서, 치료 전문가는 언어음("타겟 사운드")의 잘못된 발생을 식별한다. 타겟 사운드는 화자의 혀의 적절한 위치의 촉각 피드백을 제공하고 타겟 사운드의 적절한 발생을 달성하기 위해 필요에 따라 조정될 수 있다는 점이 이해된다. 단계(220)에서, 치료 전문가는 타겟 사운드의 정확한 생성 및 에러 타겟 사운드의 부정확한 생성을 제공하고, 화자가 정확하게 구별하도록 요청한다. 단계(220)는 치료 전문가가 필요한 것으로 여길 때, 예를 들어 액세스가능 "정확한" 타겟 사운드를 베이스라인으로서 획득하며/하거나 정확한 및 에러 타겟 사운드들 사이에서 구별할 충분한 기회를 화자에게 제공하기 위해 반복될 수 있다. 단계(230)에서, 치료 전문가는 타겟 사운드를 적절히 생성하기 위해 혀를 구성하는 법을 환자에게 설명한다. 단계(240)에서, 치료 전문가는 타겟 사운드를 촉각 피드백을 통해 환자에게 생성하기 위해 혀의 적절한 위치를 표시하도록 하나 이상의 타겟들 또는 노드들을 환자의 구강에 위치시킨다. 단계(250)에서, 치료 전문가는 타겟 사운드를 생성하고 타겟을 혀와 접촉시키도록 환자를 유도한다. 단계들(230, 240, 및 250)은 화자가 타겟 사운드를 적절히 생성할 때까지 필요에 따라 반복할 수 있다.
단계(260)에서, 치료 전문가는 타겟 사운드를 다양한 맥락들에서 적절히 생성하도록 화자를 유도한다. 단계(260)는 환자가 타겟 사운드를 적절히 생성할 수 있게 된 후에 발생할 수 있으며, 그것에 의해 타겟 사운드의 정확한 발생을 다수의 맥락들에서 강화한다.
이제 도 3을 참조하면, 사용자는 언어 훈련/치료에서 경구내 피드백을 제공하는 대표적인 프로세스(300)를 개시함으로써 대표적인 구강내 촉각 피드백 방법을 개시할 수 있다. 단계(310)에서, 치료 전문가는 사운드("타겟 사운드")의 잘못된 생성을 식별한다. 타겟은 화자의 혀의 적절한 위치의 촉각 피드백을 제공하기 위해 필요에 따라 조정될 수 있으며, 그것에 의해 타겟 사운드의 적절한 생성을 달성한다는 점이 이해된다. 단계(320)에서, 치료 전문가는 타겟 사운드 및 화자가 정확하게 생성하는 사운드에 관한 것을 제외하고 동일한 단어들의 최소 워드 쌍을 선택한다. 예를 들어, 화자가 /s/ 사운드를 부정확하게 생성하고 사운드 /t/를 정확하게 생성하면, 치료 전문가는 단어 쌍 /sip/ 및 /tip/를 선택할 수 있다. 단계(330)에서, 치료 전문가는 타겟 사운드를 적절히 생성하도록 혀를 구성하는 법을 화자에게 설명한다. 단계(340)에서, 치료 전문가는 타겟 사운드를 촉각 피드백을 통해 화자에게 생성하기 위해 혀의 적절한 위치를 표시하도록 하나 이상의 타겟들을 화자의 구강에 위치시킨다. 단계(350)에서, 치료 전문가는 선택된 단어 쌍을 연속적으로 말하고 타겟 사운드를 포함하는 단어를 말하는 동안 타겟을 혀와 접촉하도록 화자를 유도한다. 단계들(330, 340, 및 350)은 화자가 타겟 사운드를 적절히 생성할 때까지 필요에 따라 반복될 수 있다. 또한, 단계들(320, 330, 340, 및 350)은 다른 단어 쌍을 선택함으로써 반복될 수 있다.
단계(360)에서, 치료 전문가는 타겟 사운드를 다양한 맥락들에서 적절히 생성하도록 화자를 유도한다. 단계(360)는 화자가 사운드를 적절히 생성할 수 있게 된 후에 발생할 수 있으며, 그것에 의해 타겟 사운드의 정확한 생성을 다수의 맥락들에서 강화한다. 도 3에 도시된 프로세스(300)의 구현은 선택된 단어 쌍의 사운드들 사이의 차이들을 강조함으로써 그가 이미 정확하게 생성한 사운드로부터 타겟 사운드를 구별하도록 화자를 트레이닝시킨다. 구강내 촉각 피드백은 화자가 선택된 단어 쌍의 사운드들 사이의 차이점을 느끼고 타겟 사운드의 정확한 생성과 부정확한 생성 사이의 대조를 강화하는 것을 허용한다. 이 프로세스는 화자가 체성감각(즉, 높은 레벨, 선천적인 감정, 및 타겟 사운드의 부정확한 생성에 대한 정확한 이해)을 트레이닝하고 청각 시스템들이 타겟 사운드를 적절히 생성하는 것을 허용한다.
이제 도 4를 참조하면, 사용자는 경구내 피드백을 언어 훈련/치료에 제공하는 대표적인 프로세스(400)를 개시함으로써 대표적인 구강내 촉각 피드백 방법을 개시할 수 있다. 단계(410)에서, 치료 전문가는 사운드("타겟 사운드")의 잘못된 생성을 식별한다. 타겟은 혀의 적절한 위치의 촉각 피드백을 제공하고 타겟 사운드의 적절한 생성을 달성하기 위해 필요에 따라 조정될 수 있다는 점이 이해된다. 단계(420)에서, 치료 전문가는 타겟 사운드를 적절히 생성하도록 혀를 구성하는 법을 화자에게 설명한다. 단계(430)에서, 치료 전문가는 타겟 사운드를 촉각 피드백을 통해 화자에게 생성하기 위해 혀의 적절한 위치를 표시하도록 하나 이상의 타겟들을 화자의 구강에 위치시킨다. 단계(440)에서, 치료 전문가는 타겟 사운드를 포함하는 단어를 말하고 타겟을 혀와 접촉하도록 화자를 유도한다. 단계(440)는 상이한 단어들로 반복될 수 있다. 또한, 단계들(420, 430 및 440)은 화자가 타겟 사운드를 적절히 생성할 때까지 필요에 따라 반복될 수 있다.
단계(460)에서, 치료 전문가는 타겟 사운드를 다양한 맥락들에서 적절히 생성하도록 화자를 유도한다. 단계(460)는 환자가 타겟 사운드를 적절히 생성할 수 있게 된 후에 발생할 수 있으며, 그것에 의해 타겟 사운드의 정확한 생성을 다수의 맥락들에서 강화한다. 이 프로세스(400)의 구현은 화자가 다수의 다른 사운드들과 반대되는 타겟 사운드에 노출되도록 다수의 상이한 공동발성 맥락들에서 타겟 사운드를 화자에게 제공한다. 타겟 사운드를 다수의 상이한 맥락들에서 제공함으로써, 화자는 타겟 사운드를 더 정확하게 인지할 것이고, 타겟 사운드를 생성하는 법을 더 정확하게 인지할 것이다. 타겟 사운드를 포함하는 단어들의 반복들 동안 구강내 촉각 피드백을 제공하는 것은 화자가 타겟 사운드의 정확한 생성을 다양한 맥락들에서 물리적으로 더 잘 인지하는 것을 허용한다.
센서들 및 특징들
촉각 피드백을 가능하게 하는 센서들 및 물리적 노드들은 특정 구역들 내의 화자의 구강 내에 정확하게 배치될 수 있다. 구강 조음 기관들, 특히 혀가 이 구역으로 내비게이션할 때, 근접, 위치, 및 이동의 검출이 측정될 수 있다. 이 측정은 특정 사운드들, 사운드 패턴들, 사운드 조합들, 단어들, 및 문장들의 생성을 위해 중요한 교시 방법으로서 사용될 수 있다.
보다 구체적으로, 센서들은 특정 사운드의 정확한 발음과 부정확한 발음 사이의 차이를 결정하기 위해 사용될 수 있다. 상이한 형상의 디바이스들은 이 센서들 및 노드들을 화자의 구강 내의 다양한 위치들에 위치시키는데 사용될 수 있다. 이 위치들은 적어도 다음 자음 음소들에 대응할 수 있다: /b/, /d/, /f/, /g/, /h/, /j/, /k/, /l/, /m/, /n/, /p/, /r/, /s/, /t/, /v/, /w/, /y/, /z/, /θ/ 및 /ð/, /∑/(sh), /Z/(ζη), /τΣ/(ch), /δZ/(j), 및 /wh/ 뿐만 아니라, 모음 음소들 /a/, /e/, /i/, /o/, /u/,
Figure pct00001
/ow/, /oy/, /a(r)/,
Figure pct00002
/i(r)/, /o(r)/, /u(r)/. 바람직한 타겟 사운드들은 /b/, /f/, /h/, /m/, /n/, /p/, /v/, /w/, /θ/ /ð/, /wh/, /a/, /e/, /i/, /o/, /u/,
Figure pct00003
/ow/, /oy/, /a(r)/,
Figure pct00004
/i(r)/, /o(r)/, 또는 /u(r)/를 포함한다. 음소들을 고려한 더 많은 정보는 IPA(international phonetic alphabet)에서 발견될 수 있다.
상술된 방법들, 및 적합한 방법들에서, 적어도 하나의 단계는 타겟 사운드를 촉각 피드백을 통해 화자에게 생성하기 위해 혀의 적절한 위치를 표시하도록 하나 이상의 타겟들을 화자의 구강에 위치시키는 단계를 포함한다. 상이한 사운드들은 상이한 혀 위치들을 필요로 하고, 타겟은 타겟 사운드가 처리되거나 트레이닝되는 것에 따라 화자의 구강 내의 상이한 위치들에 위치될 것이다. 그러므로, 센서 배치는 정확한 및 부정확한 발음의 결정에 필수적이다. 각각의 음소에 대해, 센서 배치 및 감성은 고유하다.
정확한 발음은 혀가 타겟을 가볍게 터치할 때 검출될 것이다. 부정확한 발음의 일 형태에서, 센서는 화자의 혀가 타겟을 터치하기에 충분히 앞으로 이동할 때를 검출할 수 있다. 부정확한 발음의 다른 형태에서, 센서(힘 센서 등)는 화자의 혀가 센서를 매우 강하게 터치할 때를 검출할 수 있다. 게다가, 센서는 예를 들어 센서(및 디바이스)가 적절히 또는 부적절히 구개에 부딪치는지를 판단함으로써 디바이스의 정확한 위치를 검출하기 위해 사용될 수 있다.
도 5는 센서들이 구강 내에 배치될 수 있는 타겟 위치들의 예들을 도시한다. 이러한 타겟 위치들은 다양한 언어음들의 위치에 대해 적절한 혀 위치들에 대응한다. 예를 들어, 압력 센서들의 작은 어레이는 스피치를 방해하지 않는 것에 대해 최소 외과적인 방법으로 디바이스들에 부착될 수 있다. 구강내 피드백 방법들 및 디바이스들에 확대된 상세는 대표적인 디바이스들(500, 600, 700, 800 및 900)에 배치되는 센서들을 참조하여 이하에 설명된다.
각각의 디바이스의 성공적인 연습은 그것과 함께 사용되는 센서들의 타입에 의해 제한되지 않는다. 그러므로, 각각의 디바이스는 광 센서, 힘 감지 저항기, 브리지 센서(입에 침이 있는 사실의 장점을 취하고 전기적 연결을 형성하는 처리를 원조함), 용량성 센서, 스트레인 게이지 센서 및 임의의 균등물 및 그것의 조합 중 적어도 하나를 포함할 수 있는 것이 고려된다. 하나보다 많은 센서를 이용하거나, 센서 어레이를 이용하는 디바이스들에서, 하나보다 많은 타입의 센서는 정확한 및 부정확한 발음들의 결정에 의해 고려되는 고유 센서 배치 및 감도를 고려하여 이용될 수 있다.
디바이스들
구강내 방법 및 시스템은 도 5에 도시되고 이하에 더 논의되는 대표적인 디바이스(500, 600, 700, 800 및 900)를 포함하지만 이들에 제한되지 않는 하나 이상의 구강내 촉각 바이오피드백 디바이스들로 이해될 수 있다. 각각의 디바이스는 구강내 촉각 피드백을 제공함으로써 하나 이상의 특정 언어음들에 대응하는 적절한 혀 위치를 표시한다. 디바이스들이 상술된 치료/트레이닝의 방법들에 적용가능하지만, 그들은 본 명세서에 기재되지 않은 다른 치료 방법들에 적용가능하다. 디바이스들은 구강의 윤곽들에 최소 외과적이고 교감적이며, 그것에 의해 특정 언어음들의 정확한 생성들에 필요한 정확한 혀 위치를 원조하는 동안 비방해 동시조음(단어들 또는 문장들을 형성하는데 필요한 다른 것으로 하나의 언어음 또는 음소의 자연적 전이)을 허용한다. 이러한 특징들은 치료 요법 동안 부드러운 전이들 및 특정 언어음들에 초점을 맞추는 동안 "자연적" 사운딩 스피치를 허용한다.
각각의 디바이스는 치료 또는 연습 세션 동안 화자의 구강으로 삽입되는 헤드 상에 배치된 하나 이상의 센서들을 포함한다. 헤드 상의 센서들은 정확성 또는 정확도(예를 들어, 1-5 또는 1-10의 규모)의 정도 뿐만 아니라 정확한 및 부정확한 발음들을 검출할 수 있다. 본 명세서에 사용되는 바와 같이, "헤드"는 하나 이상의 노드들 및/또는 센서들(이하 더 기재되는 바와 같이)에 대한 임의의 지지 구조를 포함할 수 있다. "헤드"는 디바이스의 사용 동안 하나 이상의 구강 조음 기관과 접촉하는 디바이스의 임의의 부분을 의미할 수도 있으며, 구강 조음 기관들은 화자의 입술들, 혀, 볼들, 턱, 인두, 후두, 연구개 및 후두개를 포함한다.
헤드는 화자에 의해 또는 화자(예를 들어, 치료 전문가, 가족 구성원, 교사 등)와 함께 스피치 연습 세션에 관련된 임의의 다른 사용자에 의해 그립될 수 있는 핸들과 협력한다. 본 명세서에 사용되는 바와 같이, "핸들"은 온보드 컴퓨팅 디바이스(이하 더 기재되는 바와 같이)를 위한 임의의 하우징 구조를 포함할 수 있다. "핸들"은 디바이스의 사용 동안 화자의 구강으로부터 연장되고 적어도 하나의 헤드, 적어도 하나의 노드 및 적어도 하나의 센서 중 적어도 하나에 대한 지지 구조로서의 기능을 하는 디바이스의 임의의 부분을 의미할 수도 있다.
헤드 및 핸들은 공동몰딩되거나 공압출된 일체형 부재로 제공될 수 있다. 헤드 및 핸들은 대안적으로 서로 분리가능하게 맞물리는 개별적으로 제작된 부재들로 제공될 수 있다. 맞물림은 서로에 대해 헤드 및 핸들의 분리가능한 맞물림을 위해 메이팅 노치들 및 오목부들, 마찰 피트 부재들, 스냅-타이트 맞물림 및 임의의 다른 수단들을 포함하지만 이들에 제한되지 않는 공지된 맞물림 수단들에 의해 성취될 수 있다.
디바이스가 전기기계 시스템이면, 핸들은 분리가능 헤드가 하나 이상의 센서들을 포함하면서 온보드 컴퓨터 및 컴퓨팅 디바이스(예를 들어, PC, 태블릿, 스마트폰, 이동 디바이스 또는 임의의 다른 동등 디바이스)의 통신 수단을 수용할 수 있다. 연결은 디바이스 헤드에 기계식 연결 뿐만 아니라 센서(들)와 온보드 컴퓨터 사이의 전기적 연결을 형성한다.
센서는 정보를 각각의 센서로부터 온보드 컴퓨터 및 오프보드 컴퓨터 중 적어도 하나로 전달한다. 온보드 컴퓨터의 경우에, 이 정보는 디바이스(PC, 태블릿, 스마트폰, 이동 디바이스 또는 다른 컴퓨팅 디바이스 등)에 무선으로 전달된 다음에, 레슨 및 게임 소프트웨어 애플리케이션들을 포함하지만 이들에 제한되지 않는 하나 이상의 소프트웨어 애플리케이션들과 통신한다. 오프보드 컴퓨터의 경우에, 오프보드 컴퓨터는 그 위에 실행하며/하거나 하나 이상의 다른 소프트웨어 애플리케이션들에 협력하여 실행하는 소프트웨어 애플리케이션과 통신할 수 있다.
적어도 하나의 소프트웨어 애플리케이션은 화자의 입, 혀 및/또는 구강과 디바이스의 상호작용 및 사운드 생성의 정확도를 나타내는 화자 및/또는 다른 사용자(들) 정보와 통신할 수 있다. 이 정보는 네트워크를 통해 공동 치료 집중 소셜 네트워킹을 지원하는 플랫폼을 통해 액세스가능할 수 있다. 그러한 네트워킹은 3-D 가상 환경에서 발생할 수 있다.
헤드 및 핸들은 플라스틱들(예를 들어, 엘라스토머들, 우레탄들, 폴리프로필렌, ABS, 폴리카보네이트, 폴리스티렌, PEEK, 실리콘 등), 금속들(스테인리스 스틸, 티탄, 알루미늄 등), 세라믹스, 세라믹 합성물 및 임의의 균등물 및 그것의 조합을 포함하는 적절한 재료들의 범위에서 제작될 수 있다. 각각의 부분은 다른 부분의 재료의 재료 조성과 다른 재료로 제조될 수 있다(예를 들어, 삽입 부분은 플라스틱 합성물로 제조될 수 있고 핸들 부분은 금속으로 제조될 수 있음). 다중 부분 디바이스들에 대해, 상이한 부분들은 상이한 강성 등급들을 나타낼 수 있다. 예를 들어, 일부는 경질 층 위 또는 아래의 연질 층을 생성하기 위해 공동몰딩될 수 있거나, 대체 연질 및 경질 층들은 일체형 디바이스로 제조될 수 있다.
이러한 재료들은 일회용, 재사용가능 및/또는 재활용가능할 수 있다. 따라서, 각각의 디바이스는 일회용 또는 재사용가능 디바이스로 그 전체에 설계될 수 있거나, 특정 구성요소들은 교체가능할 수 있는 일회용 또는 재사용가능 구성요소들로 설계될 수 있다. 분리가능 헤드들 및 핸들들은 또한 각각의 디바이스의 세척의 용이함에 적합하다.
디바이스들은 하나 이상의 다수의 핸들들이 하나 이상의 헤드들로 교체가능할 수 있는 대표적인 키트들에 제공될 수 있다. 다양한 연령대 및 능력들의 사용자들을 수용하도록 적응된 핸들들은 상이한 음소들을 처리하도록 적응된 하나 이상의 헤드들을 갖는 키드에 제공될 수 있다. 대안적으로, 온보드 컴퓨터를 갖는 하나의 핸들은 다수의 상이한 헤드들을 갖는 키드에 제공될 수 있다. 대안적으로, 키트는 그 자체의 온보드 컴퓨터를 갖는 다수의 디바이스들 각각을 포함할 수 있다.
/r/ 음소
이제 도 6, 도 6a 및 도 6b를 참조하면, /r/ 사운드의 정확한 발생을 트레이닝할 때 혀의 반전을 교시하는 대표적인 디바이스(500)가 도시되어 있다. 디바이스(500)는 하나 이상의 센서들(505)이 전략적으로 배치된 헤드(510)를 (예를 들어, 도 6a 및 도 6b에 도시된 바와 같은 위치들(X1 및 X2)에서) 포함한다. 헤드(510)는 이 반전을 트레이닝하는 코일(512)을 포함한다. 코일을 사용하는 방법은 입증된 방법이지만; 이 방법을 최적화하고 구강 조음 기관들의 이동을 트레이닝하는 방법을 더 정확하게 제어할 수 있는 다수의 선택들이 있다. 예를 들어, 테이퍼는 강성, 및 따라서 혀에 제공되는 저항의 피드백에 영향을 미치도록 코일(512)에 사용될 수 있다. 각도 또는 테이퍼가 커질수록, 재료 부분은 더 얇아지며, 따라서 코일의 강성을 감소시킨다. 코일의 두께는 디바이스의 스프링 상수 및 주어진 후속 피드백에 영향을 미치거나 변화시킬 수도 있다. 대표적인 실시예에서, 코일의 두께는 엘라스토머 재료로 대략 2 mm가 바람직할 수 있지만, .025 m 및 8 mm 사이의 범위일 수 있다. 게다가, 코일의 폭 뿐만 아니라, 권취 수 또는 코일의 정도는 최적 피드백을 판단하는 요인들일 수 있다. 대표적인 실시예에서, 코일은 대략 12 mm의 폭을 가질 수 있지만, 폭은 대략 2 mm와 40 mm 사이의 범위를 가질 수 있다. 코일의 아크 각도들의 수는 대략 560°일 수 있지만, 회전의 대략 180° 및 2000°의 범위일 수 있다.
헤드(510)는 하우징에 포함되는 온보드 컴퓨터(도시되지 않음)를 갖는 핸들(520)과 일체형, 또는 분리가능하게 맞물릴 수 있다. 온보드 컴퓨터는 무선 네트워크를 통해 컴퓨팅 디바이스 또는 시스템과 통신을 설정할 수 있다. 대안적으로, 핸들(520)은 컴퓨팅 디바이스 또는 시스템, 예를 들어 USB 포트 또는 다른 연결을 통해 맞물리는 구조를 포함할 수 있다. 이 맞물림 또는 무선 통신은 다양한 소프트웨어 애플리케이션들과 상호작용하도록 디바이스(500)에 기회를 제공한다.
핸들(520)은 디바이스(500)에/로부터 파워를 연결하고 분리하는 온/오프 버튼(530) 또는 유사한 특징을 포함할 수 있다. 전력은 재충전가능할 수 있는(예를 들어, 전력원에 USB 연결을 통해) 내부 배터리에 의해 제공될 수 있다. 리모트 컨트롤은 디바이스(500)를 턴 온 및 오프하기 위해 그리고 또한 온보드 컴퓨터에 의해 획득되며/되거나 생성된 임의의 정보를 업로드 및 다운로드하기 위해 사용될 수 있다.
/r/ 사운드는 경구개 바로 아래에 혀의 점진적인 상부 및 후방 이동을 포함하기 때문에 생성하기에 어려운 사운드이다. 디바이스(500)는 정확한 발음이 이루어질 때 코일이 사용자에 의해 풀리기 때문에 기능하지만, 부정확한 발음이 이루어질 때 풀리지 않는다. 센서는 혀가 풀리거나 코일을 막 풀 때 촉발되는 위치에 정확하게 배치되어야 하지만, 코일이 풀리지 않고 부정확한 발음이 이루어질 때 촉발되지 않는다. 도 6a 및 도 6b에 제공된 대표적인 센서 위치들(X1 및 X2)에 의해 도시된 바와 같이, 다수 또는 단일 센서 위치들이 있을 수 있다. 하나의 대표적인 센서 위치(X1)는 코일 베이스 위의 대략 8 mm ± 7 mm 및 밴드 위의 디바이스를 따라 대략 10 mm ± 7 mm일 수 있다. 코일의 중심으로부터의 X1의 위치는 디바이스(또한 혀의 편평 정지 위치로부터 측정됨)의 베이스로부터 45°± 25°이다. 다른 대표적인 위치(X2)는 코일의 베이스로부터 대략 7 mm ± 6 mm에서 자체 코일 상에 있다. 이 위치는 혀의 디바이스/편평 정지 위치의 베이스로부터 60°± 30°이다. 이러한 예에서, 디바이스(500)는 위치들(X1 및 X2)의 하나 또는 둘 다에 센서들을 포함할 수 있다.
/r/ 음소에 대한 센서 감도는 또한 정확한 또는 부정확한 발음들을 결정하기 위해 고려된다. 센서는 이진 출력을 가질 수 있거나, (용량성 센서와 같은) 센서는 센서(예를 들어, 센서를 1 mm 이격, 2 mm 이격, 10 mm 이격 등으로 터치함)에 대한 혀/조음 기관 근접을 측정하기 위해 사용될 수 있다. 센서의 감도는 센서를 통해 센서의 전류 및 전압에 의존할 수 있다. 예를 들어, 혀에 의해 연결되는 2개의 필수 전기 전극인 브리지 센서에 대해, 전류는 5mA(또는 대략 0.001 mA 내지 대략 100 mA의 임의의 범위 이내)일 수 있고 전압은 6 볼트(또는 대략 0.5V 내지 대략 400V의 임의의 범위 이내)일 수 있다. 이러한 대표적인 센서 구성에 대해, 양극 및 음극 전극들 사이의 전극 간격은 대략 6 mm일 수 있거나, 대략 2 mm 내지 대략 8 mm의 범위일 수 있거나, 대안적으로 대략.05 mm 내지 대략 15 mm의 범위일 수 있다.
환자가 일반적으로 /r/을 혀 반전 동작으로 생성하든 혀 수축 동작으로 생성하든, 디바이스(500)는 /r/ 사운드의 적절한 생성을 용이하게 하도록 적응되는 디바이스의 대표적인 실시예이다. 헤드(510)가 화자의 구강으로 삽입될 때, 코일(512) 상에서 지지되는 센서들은 /r/ 사운드를 생성하는 경로를 따라 혀의 진행을 큐잉하도록 구개 아래에 배치될 수 있다.
도 7은 헤드(510') 및 코일(512')을 갖는 다른 대표적인 디바이스(500')를 도시한다. 디바이스(500') 상에, 하나 이상의 텍스처들이 /r/ 생성의 화자의 현재 모션을 결정하기 위해 코일(512')에 추가된다. 디바이스(500')는 /r/ 사운드를 통해 움직임을 개시함에 따라 혀의 특정 시작 지점을 안내하도록 하나의 단면 외형의 텍스처된 돌출부들(515)을 통합할 수 있다. 디바이스(500')는 돌출부들(525)의 것과 다른 적어도 하나의 다른 단면 외형의 텍스처된 돌출부들(525)을 통합할 수도 있다. 돌출부들(525)은 /r/ 사운드를 통해 움직임의 상이한 상을 나타낼 수 있다. 예로서, 돌출부들(515)은 혀 운동의 시작에서부터 텍스처를 나타내는 반원형 돌출부들을 포함할 수 있는 한편 돌출부들(525)은 혀 운동의 이후의 단계를 나타내는 삼각형들을 포함한다. 다수의 구성들은 그녀가 모션의 이러한 범위 내에 있는 곳을 화자가 알 수 있게 하도록 이용될 수 있다. 대표적인 텍스처들은 텍스처 타입들 A(역V자형), B(선형의), C 및 D(점 행렬)에 의해 도시된다. 그러한 텍스처들은 도시된 특정 외형들과 특정수의 돌출부들에 제한되지 않는다는 점이 이해된다. 또한, 돌출부들은 오목부들 또는 다른 표시로 제공되거나 이들로 대체될 수 있다는 점이 이해된다. 하나 이상의 센서들은 디바이스(500)에 대해 도시된 바와 같이 그러한 텍스처들로 용이하게 통합되어 센서들은 /r/ 사운드 전체의 움직임을 감지하고 그러한 움직임은 하나 이상의 소프트웨어 애플리케이션들을 통해 표시된다는 점이 더 이해된다(예를 들어, 시각적으로 컴퓨터 또는 이동 디바이스 디스플레이 상에, 청각으로 마이크로폰 상에 및 또는 햅틱 피드백을 통해).
수축된 /r/
도 8은 R 사운드를 교시하는 "수축된", "단단히 접힌", "원배(humpback)" 또는 "혀 팁 다운(tongue tip down)" 방법으로 종종 언급되는 대표적인 방법에 사용되는 대표적인 디바이스를 도시한다(본 명세서에 사용된 바와 같이, "수축" 방법은 이러한 용어들 모두를 포함할 것임). 이 방법에 대해, 디바이스(550)는 화자가 혀의 중간부를 올리는 한편 혀의 팁을 낮추는 것을 교시하기 위해 사용된다. 이 경우에, 노드는 중간부가 상승할 때 혀의 중간부에 대해 느껴질 수 있다. 노드의 하부 측이 혀를 터치하는 동안 노드의 상부 측은 입의 상단에서의 구개를 터치하고 있을 수 있거나 터치하고 있지 않을 수 있다.
전동음 /r/
도 9는 전동음 /r/을 교시하는 대표적인 방법에 사용되는 대표적인 디바이스(1000)를 도시한다. 전동음 /r/은 이탈리아어, 스페인어, 프랑스어, 독일어, 포르투갈어, 러시아어, 및 아랍어를 포함하지만 이들에 제한되지 않는 많은 언어들에서의 중요한 사운드이다. 도 9는 온보드 컴퓨터를 포함하고 핸들(520)에 대해 도시되고 설명된 것들과 유사한 특징들을 가질 수 있는 핸들(1010)을 갖는 디바이스(1000)를 도시한다. 핸들(1010)은 혀의 바로 그 팁이 진동하는 것을 허용하는 동안 혀의 중간부를 안정시키는 방법을 제공하기 위해 하나 이상의 헤드들(A), (B), (C), (D), (E) 및 (F)로 교체가능할 수 있다. 종종 전동음 /r/을 시도하고 행하는 자들의 도전은 그들이 중간부를 포함하여 혀를 너무 많이 시도하고 진동시킨다는 것이다. 도 9에 도시된 디바이스들로 혀의 중간부를 안정시킴으로써, 정확한 전동음 /r/이 생성될 수 있다. 그것이 디바이스로 생성되면, 이 때 그것은 디바이스 없이 생성될 수 있다. 하나 이상의 센서들은 혀 중간부의 안정을 표시하고 정확한 전동음 /r/ 사운드를 참조하였을 때 화자의 전동음 /r/ 사운드의 진전을 더 표시하기 위해 하나 이상의 헤드들(A), (B), (C), (D), (E) 및 (F) 상에 배치될 수 있다.
도 10은 전동음 /r/을 교시하는 대표적인 방법에 사용되는 다른 대표적인 디바이스(1100)를 도시한다. 전동음 /r/을 처음 교시할 때, 중요 단계는 화자가 구개와 접촉하는 화자의 혀의 위치로부터 시작하게 하는 단계를 포함한다. 그 다음, 이러한 접촉은 이후의 압력 형성을 초래하고, 그 후에 궁극적으로 혀 팁이 신속히 진동하는 것을 허용하는 공기의 배출을 초래한다. 디바이스(1100)는 화자의 혀의 상부 전단이 디바이스를 접촉하는 표면을 제공하고, 그것에 의해 혀와 치경음 리지(ridge) 사이에 시일을 촉진한다. 디바이스(1100)의 사용에 의해 지원되는 방법은 전동음 /r/ 사운드의 준비로 요구되는 바와 같은 충분한 구개음 접촉을 검증한다. 또한, 이러한 구개음 접촉은 미국 영어 /t/ 사운드에 대해 필연적이다. 하나 이상의 센서들은 시일을 표시하고 정확한 전동음 /r/ 사운드를 참조하였을 때 화자의 전동음 /r/ 사운드의 진전을 더 표시하기 위해 디바이스(1100)에 배치될 수 있다(예를 들어, 도 10에 표시된 바와 같이).
혼성된 R's
도 11은 특정 사운드들의 혼성어들(또는 시퀀스들)을 교시하는 대표적인 방법에 사용되는 대표적인 디바이스(1200)를 도시한다. 디바이스(1200)는 /r/-/l/ 혼성어를 위해 이용되며, 이는 "girl" 과 같은 단어들을 발음할 때 요구된다. 디바이스(1200)는 접촉(I)의 노드가 /r/ 사운드를 위해 제공되고 또한 접촉(Ⅱ)의 노드가 그 뒤의 빠른 연속으로 /l/ 사운드를 위해 제공되는 코일(1212)을 갖는 헤드(1210)를 포함한다. 이러한 대표적인 디바이스에서, 코일은 혀가 복귀하고 /l/ 사운드를 유발하는 노드(Ⅱ)를 터치할 수 있기 전에 코일은 충분히 풀리고 스냅 백(snap back)되지 않도록 충분히 길어야 한다. 센서들은 /r/-/l/ 혼성어의 성공적인 발음을 표시하고 또한 /r/ 및 /l/ 사운드들 각각의 생성을 위한 타이밍을 제공하기 위해 하나 이상의 노드들(i) 및(Ⅱ)에 배치될 수 있다. 디바이스(1200)가 /r/-/l/ 혼성어의 보강에 관하여 설명되었지만, 디바이스(1200) 및 그것의 보완물들 및 동등물들이 고려된다는 점, 및 하나의 음소로 다수의 음소들에서의 구성 개념들을 조합할 때 사운드들의 다양한 조합들이 달성될 수 있다는 점이 이해된다.
일본어, 한국어, 만다린 /l/-/r/
도 12는 일본어, 한국어 및 만다린 /l/-/r/을 교시하는 대표적인 방법에 사용되는 대표적인 디바이스(1300)를 도시한다. 디바이스(1300)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(1312)를 갖는 헤드(1310)를 포함한다. 또한, 디바이스(1300)는 사운드가 화자의 입에 있을 근방의 위치로 노드(1312)를 안내하는 선택적 치아 스톱(1314)을 포함할 수 있다. 센서들은 일본어, 한국어 및 만다린 /l/-/r/의 성공적인 발음을 표시하기 위해 노드(1312)에 또는 노드 근처에 배치될 수 있다. 센서들은 화자의 입에서의 디바이스(1300)의 적절한 배치를 표시하기 위해 치아 스톱(1314)에 또는 치아 스톱 근처에 선택적으로 배치될 수도 있다.
/l/ 음소
이제 도 13 및 도 13a를 참조하면, /l/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스(600)가 도시된다. 디바이스(600)는 헤드(610) 및 핸들(620)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 핸들(620)은 상술된 바와 같이 온보드 컴퓨터를 수용할 수 있고 예를 들어 USB 포트 또는 다른 연결을 통해 컴퓨팅 디바이스 또는 시스템과의 맞물림을 위한 구조를 포함할 수도 있다. 대표적인 구조는 커넥터(630)로서 도 13에 도시된다. 그러나, 하나 이상의 컴퓨팅 디바이스들을 갖는 디바이스(600)의 결합 및 다양한 소프트웨어 애플리케이션들을 갖는 디바이스(600)의 통신을 허용하는 임의의 다루기 쉬운 구조가 이용될 수 있다는 점이 이해된다. 대안적으로, 커넥터(630)는 본 기술 분야에 알려진 바와 같이, 화자 또는 다른 사용자가 화자의 입으로부터의 적합한 거리에서 디바이스(600)를 움켜잡는 것을 가능하게 하는 그립 구조로 대체될 수 있다.
헤드(610)는 하나 이상의 센서들(605)이 배치될 수 있는 팁을 갖는 노드(612)를 포함한다. 노드(612)는 표준 사운드 생성 동안 치경음 리지 또는 치아를 접촉하는 혀의 표면적을 모방하는 내부 돔 형상 면을 가질 수 있다(예를 들어, 공동 소유 미국 제12/357,239호에 기재된 /l/ 노드 핸들 디바이스를 참조하고, 그의 전체 개시는 본 명세서에 참고문헌으로 포함되어 있음). 센서들(605)은 접촉 동안 화자의 혀 팁과 평행하도록 위치되는 것이 바람직하다(예를 들어, 도 13 및 도 13a에서의 센서들(605)의 위치들 참조). 도시된 바와 같은 센서들(605)은 2개의 개별 센서를 포함할 수 있거나 하나의 센서의 2개의 전극을 포함할 수 있다. 대안적인 센서 위치들(605a)은 센서들(605)의 선택 배치를 위해 노드(612)를 따라 선택될 수 있으며, 그 센서들은 도시된 바와 같은 2개의 센서에 제한되지 않는다. 도시된 바와 같은 센서들(605)은 노드(612)의 중간에서 전극들을 수반하는 배치와 함께 중심 라인으로부터 대략 3㎜일 수 있다.
/ ch / 음소
이제 도 14 및 도 14a를 참조하면, /ch/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스(700)가 도시된다. 디바이스(700)는 헤드(710) 및 핸들(720)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 핸들(720)은 상술된 바와 같이 온보드 컴퓨터를 수용할 수 있고, 예를 들어 USB 포트 또는 다른 연결을 통해 컴퓨팅 디바이스 또는 시스템과의 맞물림을 위한 구조를 포함할 수도 있다. 대표적인 구조는 커넥터(730)로서 도 14에 도시된다. 대안적으로, 커넥터(730)는 본 기술 분야에 알려진 바와 같이, 화자 또는 다른 사용자가 화자의 입으로부터의 적합한 거리에서 디바이스(700)를 움켜잡는 것을 가능하게 하는 그립 구조로 대체될 수 있다.
헤드(710)는 하나 이상의 센서들(705)이 배치될 수 있는 팁을 갖는 노드(712)를 포함한다. 노드(712)는 해부학에서의 넓은 범위의 변화를 통해 구개와 여전히 접촉하도록 설계되고, 센서들(705)은 적절히 위치된다(예들 들어, 도 14 및 도 14a에서의 센서들(705)의 위치들 참조). 대안적인 센서 위치들(705a)은 센서들(705)의 선택 배치를 위해 노드(712)를 따라 선택될 수 있으며, 그 센서들은 도시된 바와 같은 2개의 센서에 제한되지 않는다. 도시된 바와 같이, 센서들(705)은 노드(712)의 중간에서 수반하는 전극들의 배치와 함께 중심 라인으로부터 대략 3㎜일 수 있다.
/s/ 및 /∑/ 음소들
/S/ 및 /∑/ 음소들에 대해, 센서들은 혀 접촉이 타겟과 이루어질 때 감지를 위해 노드의 팁에 배치될 필요가 있다.
이제 도 15를 참조하면, /s/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스(800)가 도시된다. 디바이스(800)는 헤드(810) 및 핸들(820)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 핸들(820)은 상술된 바와 같이 온보드 컴퓨터를 수용할 수 있고 예를 들어, USB 포트 또는 다른 연결을 통해 컴퓨팅 디바이스 또는 시스템과의 맞물림을 위한 구조를 포함할 수도 있다. 대표적인 구조가 커넥터(830)로서 도 15에 도시되지만 화자 또는 다른 사용자가 화자의 입으로부터의 적합한 거리에서 디바이스(800)를 움켜잡는 것을 가능하게 하는 그립 구조에 의해 보완될 수 있거나 대체될 수 있다. 헤드(810)는 하나 이상의 센서들(805)이 배치될 수 있는 팁을 갖는 노드(812)를 포함한다(예를 들어, 도 15에서의 센서들(805)의 위치들 참조). 디바이스(800)는 /s/ 사운드가 화자의 입에 있을 근방의 위치로 노드(812)를 안내하는 선택적 치아 스톱(814)을 포함할 수도 있다(또한 도 5 참조).
이제 도 16를 참조하면, /∑/ 사운드의 정확한 생성을 교시하는 대표적인 디바이스(900)가 도시된다. 디바이스(900)는 디바이스(800)에 대해 위에 설명된 바와 같은 헤드(910) 및 핸들(920)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 헤드(910)는 하나 이상의 센서들(905)이 배치될 수 있는 팁을 갖는 노드(912)를 포함한다(예를 들어, 도 16에서의 센서들(905)의 위치들 참조). 디바이스(800)와 같이, 디바이스(900)는 /sh/ 사운드가 화자의 입에 있을 근방의 위치로 노드(912)를 안내하는 선택적 치아 스톱(914)을 포함할 수도 있다(또한 도 5참조).
디바이스들(800 및 900)을 사용할 때, 정확한 발음은 혀가 타겟을 가볍게 터치하고 있을 때 검출될 것이다. 부정확한 발음의 하나의 형태로, 센서는 화자의 혀가 타겟을 터치할 만큼 충분히 전방으로 이동하지 않을 때를 검출할 것이다. 부정확한 발음의 다른 형태로, 힘 센서는 화자의 혀가 센서를 너무 심하게 터치할 때를 결정할 수 있다(예를 들어, "Sock" 대신에 "Thock"을 생성하는 것). 대안적으로, 선택적 센서 위치들(805a(도 15) 및 805a(도 16))에 위치된 센서는 각각의 디바이스의 굴절을 검출하고 그것에 의해 부정확한 발음을 결정할 수 있다(즉, 굴절은 부정확한 발음을 의미함). 게다가, 센서들은 예를 들어 디바이스가 전면 치아에 대해 적절히 위로 위치되는지를 감지하기 위해 위치들(805a, 905a)에 센서들을 배치함으로써 디바이스의 정확한 배치를 검출하기 위해 사용될 수 있다. 혀가 타겟을 너무 심하게 터치하는 부정확한 발음은 혀가 전면 치아의 각각의 디바이스를 물리적으로 푸시하므로, 위치들(805a, 905a) 내의 센서들에 의해 검출될 수도 있다. 이러한 감지 위치들 모두는 하나의 센서로 또는 하나 이상의 센서 어레이들에 의해 파퓰레이트(populate)될 수 있다.
만다린 ∑ 사운드
도 17은 영어 SH보다 입에서 약간 더 뒤에 있는 만다린 ∑을 트레이닝하는 대표적인 방법에 사용되는 대표적인 디바이스(1400)를 도시한다. 디바이스(1400)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(1412)를 갖는 헤드(1410)를 포함한다. 디바이스(1400)는 만다린 /∑/ 사운드가 화자의 입에 있을 근방의 위치로 노드(1412)를 안내하는 선택적 치아 스톱(1414)을 포함할 수도 있다. 센서들은 그러한 위치를 표시하기 위해 선택적으로 치아 스톱(1414)에 또는 치아 스톱 근처에 배치될 수 있다. 센서들은 만다린 ∑의 성공적인 발음을 표시하기 위해 노드(1412)에 또는 이것 근처에 배치될 수도 있다.
/f/ 또는 /v/ 사운드
도 18은 영어 /f/ 또는 /v/ 사운드를 트레이닝하는 대표적인 방법에 사용되는 대표적인 디바이스(1500)를 도시한다. 이러한 사운드들은 영어를 말하는 것을 배우고 있는 만다린, 일본어, 및 한국어 화자들에 대해 매우 도전적일 수 있다. 디바이스(1500)는 영어 /f/ 또는 /v/ 사운드를 발음하는 혀 및 치아 위치와 함께 도시된다.
디바이스(1500)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(1512)를 갖는 헤드(1510)를 포함한다. 센서들은 영어 /f/ 또는 /v/의 성공적인 발음을 표시하기 위해 노드(1512)에 또는 노드(1512) 근처에 선택적으로 배치될 수 있다. 그러한 발음은 도 18a에 도시된 바와 같이 치아와 입술들 사이의 접촉의 임계 구역에 의해 입증된다. 디바이스(1500)는 그것과 통합된 선택적 치아 스톱을 가질 수 있다.
/b/ 또는 /p/ 사운드
도 19는 영어 /b/ 또는 /p/ 사운드를 트레이닝하는 대표적인 방법에 사용되는 대표적인 디바이스(1600)를 도시한다. 이러한 사운드들은 영어를 말하는 것을 배우고 있는 만다린, 일본어, 및 한국어 화자들에 대해 도전적일 수도 있다. 디바이스(1600)는 영어 /b/ 또는 /p/ 사운드를 발음하는 입술 위치와 함께 도시된다.
디바이스(1600)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(1612)를 갖는 헤드(1610)를 포함한다. 센서들은 영어 /b/ 또는 /p/의 성공적인 발음을 표시하기 위해 노드(1612)에 또는 노드(1612) 근처에 선택적으로 배치될 수 있다. 그러한 촉각 큐잉은 도 19a에 도시된 바와 같이 화자의 입술들 사이의 접촉의 임계 구역에 의해 입증되는 바와 같이, 이러한 사운드들의 생성을 원조할 수 있다. 디바이스(1600)는 그것과 통합된 선택적 치아 스톱을 가질 수 있다.
/θ/ 및 /ð/ 사운드들
도 20은 영어 /θ/ 및 /ð/ 사운드들을 트레이닝하는 대표적인 방법에 사용되는 대표적인 디바이스(1700)를 도시한다. 이것은 영어를 말하는 것을 배우고 있는 중국어, 일본어, 및 한국어 화자들에 대해 도전적일 수 있는 다른 사운드이다. 디바이스(1700)는 영어 /θ/ 및 /ð/ 사운드들을 발음하는 혀 및 치아 위치와 함께 도시된다.
디바이스(1700)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(1712)를 갖는 헤드(1710)를 포함한다. 센서들은 영어 /θ/ 및 /ð/ 사운드들의 성공적인 발음을 표시하기 위해 노드(1712)에 또는 노드(1712) 근처에 선택적으로 배치될 수 있다. 그러한 촉각 및/또는 감각 큐잉은 도 19a에 도시된 혀와 함께 치아의 접촉의 임계 구역에 의해 입증되는 바와 같이, 이 사운드의 생성을 원조할 수 있다. 디바이스(1700)는 그것과 통합된 선택적 치아 스톱을 가질 수 있다.
/k/ 및 /g/ 사운드 - 상이한 크기 구강 해부학에 대한 유연한 실시예
입 크기들은 극적으로 변화하고 상부 치열로부터 혀 및 구개가 접촉하는 입 내의 지점까지의 거리는 환자에서 환자까지 극적으로 변화될 수 있다. 그러므로 도 21은 /k/ 및 /g/ 사운드들에 대해 요구되는 접촉의 지점의 위치를 등록하는 대표적인 방법에 사용되는 대표적인 디바이스(1800)를 도시한다. 단일 디바이스만이 다양한 입 크기들에서의 이러한 사운드들의 생성을 트레이닝하기 위해 요구된다.
디바이스(1800)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(1812)를 갖는 헤드(1810) 및 핸들(1820)을 포함한다. 하나 이상의 노치들(대표적인 노치들(A, B, C, D 및 E)로서 도 21에 도시됨)이 화자의 입 내에서 다양한 깊이들로 노드(1812)의 배치를 가능하게 하기 위해 핸들(1820) 및 노드(1812) 중간에 제공될 수 있다. 센서들은 구개와 함께 노드의 성공적인 접촉을 표시하기 위해 노드(1812)에 또는 노드(1812) 근처에 선택적으로 배치될 수 있다. 센서들은 화자의 구강에서 디바이스의 적절한 피트를 표시하기 위해 하나 이상의 노치들에 배치될 수도 있다. 노드 및 노치들에 제공되는 센서들은 그들 사이의 상대적 배치를 협력적으로 표시하고 그것에 의해 /k/ 및 /g/ 사운드들의 생성을 원조할 수 있다.
대표적인 디바이스(1800)의 사용의 일 예로서, 도 21a는 화자가 성인인 경우 화자의 치아를 등록하는 노치(A)를 도시한다. 화자가 청소년이면, 디바이스(1800)는 노치(C)가 화자의 치아를 등록하도록 화자의 입으로 삽입될 수 있다. 화자가 어린 아이이면, 디바이스는 노치(E)가 화자의 치아를 등록하도록 화자의 입으로 삽입될 수 있다. 본 명세서에 도시된 노치들은 예증으로서이고, 그러한 노치들은 수 및 외형이 다른 오목부들로 대체될 수 있다는 점이 이해된다. 대안적으로, 하나 이상의 돌출부들은 하나 이상의 오목부들 대신에 또는 오목부들과 조합하여 사용될 수 있다. 돌출부들 및/또는 오목부들은 추천된 연령 범위들 및 입 크기들 내에서의 디바이스의 추천된 사용을 나타내는 시각 및/또는 촉각 표시로 라벨링될 수 있다.
다른 사운드들
부가적으로, 본 명세서에 설명된 구강내 촉각 피드백 디바이스들 및 방법들은 조음의 장소 또는 방식에서 실질적으로 유사한 비영어 언어 언어음들에 적용될 수도 있다. 다른 언어들은 만다린, 스페인어, 힌디어/우르두어, 아랍어, 포르투갈어, 러시아어, 일본어, 독일어, 및 프랑스어를 포함할 수 있지만 이들에 제한되지 않는다.
예를 들어, 영어 /t/ 및 /d/ 사운드들(치경음 정지 자음)과 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린, 스페인어, 힌디어/우르두어, 아랍어, 포르투갈어, 러시아어, 일본어, 독일어 및 프랑스어의 유사한 언어음들과 관련되어 사용될 수 있다.
영어 /l/ 사운드(치경음 유음)와 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린, 스페인어, 힌디어, 아랍어, 포르투갈어, 러시아어, 독일어 및 프랑스어의 유사한 언어음들과 관련되어 사용될 수 있지만, 일본어와 관련되어 사용되지 않을 수 있다.
영어 /τΣ/(ch) 및 /δZ/(j) 사운드들(치경음 파찰음 자음)과 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린, 스페인어(/δZ/ 아님), 힌디어/우르두어, 러시아어(/δZ/ 아님), 및 독일어(/δZ/ 아님)의 유사한 언어음들과 관련되어 사용될 수 있지만, 아랍어, 포르투갈어, 또는 프랑스어와 관련되어 사용되지 않을 수 있다.
영어 /s/ 및 /z/ 사운드들(치경음 치찰음 마찰음 자음)과 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린(/z/ 아님), 스페인어, 힌디어/우르두어, 아랍어, 포르투갈어, 러시아어, 일본어, 독일어 및 프랑스어의 유사한 언어음들과 관련되어 사용될 수 있다.
영어 /∑/(sh) 및 /Z/(zh) 사운드들(후치경음 치찰음 마찰음 자음)과 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 힌디어/우르두어, 포르투갈어, 러시아어, 독일어 및 프랑스어의 유사한 언어음들과 관련되어 사용될 수 있지만, 만다린(보다 뒤쪽에서 조음과 상관됨), 스페인어, 아랍어, 또는 일본어와 관련되어 사용되지 않을 수 있다.
영어 /g/ 및 /k/ 사운드들(연구개음 정지 자음)과 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린(/g/ 아님), 스페인어, 힌디어/우르두어, 아랍어(/g/ 아님), 포르투갈어, 러시아어, 일본어, 독일어 및 프랑스어의 유사한 언어음들과 관련되어 사용될 수 있다. 게다가, 영어에서는 존재하지 않지만, 독일어는 연구개음 마찰음 /x/을 포함한다. 연구개음 정지 자음 /k/ 및 /g/을 대상으로 하는 구강내 촉각 바이오피드백은 연구개음 마찰음 자음 /x/에 적용될 수도 있다.
영어 /y/ 및 /j/ 사운드들(경구개 전이음)과 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린, 스페인어, 힌디어/우르두어, 아랍어, 포르투갈어, 러시아어, 일본어, 독일어 및 프랑스어의 유사한 언어음들과 관련되어 사용될 수 있다.
영어 /r/ 사운드(반전된 및/또는 수축된 음화음)와 관련되어 본 명세서에 설명된 방법들 및 디바이스들은 만다린 및 힌디어/우르두어의 유사한 언어음들과 관련되어 사용될 수 있지만, 스페인어, 아랍어, 포르투갈어, 러시아어, 일본어, 독일어 또는 프랑스어와 관련되어 사용되지 않을 수 있다.
입술 조작 및 위치와 결합된 구강내 촉각 피드백
본 명세서에 설명된 디바이스들 및 방법은 정확한 혀 배치를 트레이닝할 뿐만 아니라 적절한 입술 구성을 보강하기 위해 특정 음소를 자극하는 구강내 촉각 바이오피드백의 하나 이상의 방법들을 통합할 수도 있다. 도 22는 /r/ 사운드를 트레이닝하는 대표적인 방법에 사용되는 대표적인 디바이스(2000)를 도시하며, 혀 및 입술들 둘 다는 정확하게 배향된다. 디바이스(2000)는 헤드(2010) 및 핸들(2020)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 핸들(2020)은 상술된 바와 같이, 온보드 컴퓨터를 수용할 수 있으며/있거나 컴퓨팅 디바이스와의 맞물림을 위한 구조를 포함할 수 있다.
헤드(2010)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(2012)를 포함한다. 노드(2012)는 디바이스(2000)가 화자의 구강으로 삽입될 때 화자의 상부 입술과의 접촉을 위한 상부 아치(2012a) 및 화자의 하부 입술과의 접촉을 위한 하부 아치(2012b)를 갖는 일반적으로 아치형의 부재로서 본 명세서에 도시된다. /r/ 사운드의 경우에, 입술들의 라운딩은 도 22a에 도시된 바와 같이 큐잉될 수 있다. 노드(2012)는 이러한 대표적인 실시예의 성공적인 실행을 위해 다루기 쉬운 다른 외형들 및 특징들을 취할 수 있다는 점이 이해된다. 그러한 외형들은 다른 사운드들의 생성 동안 적절한 입술 위치를 보장하도록 다루기 쉬울 수 있다.
헤드(2010)는 정확한 발음이 행해질 때 풀어지지만, 부정확한 발음이 행해질 때 풀리지 않는 코일(2014)을 더 포함한다. 센서들은 /r/의 성공적인 발음을 표시하기 위해 노드(2012) 및/또는 코일(2014)에 또는 근처에 선택적으로 배치될 수 있다. 부가 센서들은 사운드 생성 전에 및 동안 적절한 입술 위치를 표시하기 위해 상부 아치(2012a) 및/또는 하부 아치(2012b)에 또는 이들을 따라 배치될 수 있다.
다른 대표적인 디바이스(2100)가 혀 및 입술 배치 둘 다를 트레이닝하고 보강함으로써 /∑/ 사운드를 트레이닝하는 대표적인 방법에서의 사용을 위해 도 23에 도시된 바와 같이 제공될 수 있다. 디바이스(2100)는 헤드(2110) 및 핸들(2120)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 핸들(2120)은 상술된 바와 같이, 온보드 컴퓨터를 수용할 수 있으며/있거나 컴퓨팅 디바이스와의 맞물림을 위한 구조를 포함할 수 있다.
헤드(2110)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(2112)를 포함한다. 노드(2112)는 디바이스(2100)가 화자의 구강으로 삽입될 때 화자의 상부 입술과의 접촉을 위한 상부 아치(2112a) 및 화자의 하부 입술과의 접촉을 위한 하부 아치(2112b)를 갖는 일반적으로 아치형의 부재로서 본 명세서에 도시된다. /∑/ 사운드의 경우에, "fish face"로의 상부 및 하부 입술들의 만곡은 정확한 발음을 조성하며 따라서 도시된 바와 같은 디바이스(2100)에 의해 큐잉될 수 있다. 노드(2112)는 이러한 대표적인 실시예의 성공적인 실행을 위해 다루기 쉬운 다른 외형들 및 특징들을 취할 수 있다는 점이 이해된다. 그러한 외형들은 다른 사운드들의 생성 동안 적절한 입술 위치를 보장하도록 다루기 쉬울 수 있다.
헤드(2110)는 사운드 생성 전에 및 동안 화자의 혀의 안내를 위한 타겟을 제공하는 혀 스톱(2114)을 더 포함한다. 센서들은 /∑/의 성공적인 발음을 표시하기 위해 노드(2112) 및/또는 혀 스톱(1014)에 또는 근처에 선택적으로 배치될 수 있다. 부가 센서들은 사운드 생성 전에 및 동안 적절한 입술 위치를 표시하기 위해 상부 아치(2112a) 및/또는 하부 아치(2112b)에 또는 이들을 따라 배치될 수 있다.
다른 대표적인 디바이스(2200)는 혀 및 입술 배치 둘 다를 트레이닝하고 보강함으로써 /l/ 사운드를 트레이닝하는 대표적인 방법에서의 사용을 위해 도 24에 도시된 바와 같이 제공될 수 있다. 디바이스(2200)는 헤드(2210) 및 핸들(2220)을 포함하는 일체화된 부재 또는 분리가능하게 맞물린 부재들을 포함할 수 있다. 핸들(2220)은 상술된 바와 같이, 온보드 컴퓨터를 수용할 수 있으며/있거나 컴퓨팅 디바이스와의 맞물림을 위한 구조를 포함할 수 있다.
헤드(2210)는 하나 이상의 센서들(도시되지 않음)이 배치될 수 있는 노드(2212)를 포함한다. 노드(2212)는 디바이스(2200)가 화자의 구강으로 삽입될 때 화자의 상부 및 하부 입술들과의 각각의 접촉을 위한 상부 아치(2212a) 및 하부 아치(2212b)를 갖는 일반적으로 아치형의 부재로서 본 명세서에 도시된다. /l/ 사운드의 경우에, 상부 입술은 도 24a에 도시된 바와 같이 디바이스(2200)에 의해 큐잉됨에 따라 위를 향해 상승되는 것을 필요로 한다. 노드(2212)는 이러한 대표적인 실시예의 성공적인 실행을 위해 다루기 쉬운 다른 외형들 및 특징들을 취할 수 있다는 점이 이해된다. 그러한 외형들은 다른 사운드들의 생성 동안 적절한 입술 위치를 보장하도록 다루기 쉬울 수 있다.
헤드(2210)는 화자의 혀의 측단의 안내를 위한 타겟을 제공하는 혀 스톱(2214)을 더 포함한다. 센서들은 /l/의 성공적인 발음을 표시하기 위해 노드(2212) 및/또는 혀 스톱(2214)에 또는 근처에 선택적으로 배치될 수 있다. 부가 센서들은 사운드 생성 전에 및 동안 적절한 입술 위치를 표시하기 위해 상부 아치(2212a) 및/또는 하부 아치(2212b)에 또는 이들을 따라 배치될 수 있다.
노드들(2012, 2112 및 2212)의 특정 실시예들은 음소-특정 발성 용이화(예를 들어, /t∑/ 사운드, /f/ 및 /v/ 사운드들 및 /k/ 및 /g/ 사운드들을 포함하지만 이들에 제한되지 않는 다른 사운드들을 트레이닝하고 보강하기 위해 다른 혀 및 입술 자세들을 큐잉하는 것)를 가능하게 하도록 적응될 수 있다는 점이 이해된다. 그러한 노드들은 특정 언어음의 적절한 생성에 상응하는 혀 위치, 움직임, 및 형상을 트레이닝하도록 적응될 수 있다. 게다가, 그러한 노드들은 정적 및 동적 혀 운동들 둘 다를 입증하며, 그것에 의해 하나 이상의 원하는 혀 운동들을 달성하는 것을 돕기 위해 연속적인 촉각 및 감각 큐들을 제공하도록 노드들의 배열을 가능하게 한다.
정확도 결정 및 에러 합성을 위한 구강내 촉각 바이오피드백 센서 입력의 합성
/l/ 음소에 대한 대표적인 디바이스(본 명세서에 도시된 및 설명된 대표적인 디바이스(600)와 같은)를 사용하는 단순한 예로서, 단어 "Girl"는 "Girw"로서 부정확하게 발음된다. 단어가 "Girl"로 발음될 때 화자의 혀는 적어도 하나의 센서(605)를 접촉할 것이다(예를 들어, 사용되는 디바이스(600)에 대한 도 5 참조). 단어가 "Girw"로 발음될 때, 센서(605)는 화자의 혀에 의해 접촉되지 않을 것이다. 센서 접촉의 이진 출력 "Y/N"은 예를 들어 사용자 인터페이스 소프트웨어로 직접 변환될 수 있다.
거짓 긍정들 및 부정들은 소프트웨어 플랫폼 상에 서빙되는 것들과 비교될 때 특정 패턴들을 말해진 단어들과 일치시킴으로써 검출될 수 있다. 예를 들어, /n/ 사운드를 말할 때, L-음소 디바이스가 입에 있으면, 센서는 /n/을 /l/로서 검출할 수 있다. "Lion"과 같은 단어에 대해, 2개의 검출이 있을 수 있다: 하나의 검출은 단어의 개시에서의 /l/에 대한 것이고 하나의 검출은 단어의 종료에서의 /n/에 대한 것이다. 화자가 "Lion"을 정확하게 발음하는 경우에, 소프트웨어 애플리케이션들은 화자의 혀에 의한 2개의 접촉을 정확한 발음으로서 해석하도록 구현될 수 있으며, 첫번째는 /l/이고 두번째는 /n/이다.
정확한 및 부정확한 사운드의 결정을 원조하는 오디오 지속 기간 입력
정확한 및 부정확한 발음을 결정하기 위해 센서들을 사용하는 다른 방법은 에러 인식에 조력하는 마이크로폰의 도입이다. 마이크로폰은 태블릿, 스마트폰, 또는 랩톱 컴퓨터로부터의 온보드 마이크로폰 또는 오프보드 마이크로폰일 수 있다. 마이크로폰 및 후속 오디오 입력은 컴퓨터가 단어의 오디오 입력의 지속 기간을 센서로부터의 구강내 촉각 바이오-바이오피드백과 일치시킬 수 있도록 입력 센서와 동기화된다. 본질적으로, 그것은 검출이 단어 내에서 적당한 때에 접근되었는지의 여부를 결정할 수 있다. 일 예로서, 대상자가 단어를 "Lion" 대신에 "Wion"으로 발음하면, 그들은 /l/을 정확하게 발음하지 않았지만, 센서는 "lion"의 종료에서 /n/의 발음을 검출하는 것이 가능하다.
단어 "lion"이 연습 훈련에서 다음 단어로 서빙되었다고 가정한다. "Lion"은 발음하는데 0.5와 1.2 초 사이가 걸리는 것으로 인식되면, 소프트웨어는 우선 정확한 단어가 발음되고 있었다는 것을 검증할 수 있다. 다음에, 그것이 1.0 초 오디오 샘플이었으면, 오디오 샘플의 대략 첫번째 25%(이 경우에 0.25 초)는 /l/ 사운드를 발음하고, 다음의 25%는 /i/ 사운드를 발음하고, 다음의 25%는 /o/ 사운드를 발음하고, 최종의 25%는 /n/ 사운드를 발음하기 위해 사용된 것으로 결정될 수 있다. 입 내부의 센서에서 비롯되는 검출만이 0.750 내지 1.000 초에 발생하였으면, /n/ 사운드는 정확하게 발음되었지만, /l/ 사운드는 발음되지 않았으며, 따라서 "lion"에 대한 발음은 "wion"이었으므로 부정확한 것으로 결정될 수 있다(하기의 표 1 참조).
"WION"로 부정확하게 발음된 "LION"의 샘플:
시간(ms) 250 500 750 1000
사운드 L I 0 N
센서 이진 출력 아니오 아니오 아니오
정확한 대 부정확한 사운드 또는 단어의 결정을 원조하기 위해 사용되는 근접 프로파일
에러 또는 정확도 검출의 다른 방법은 특정 단어들에 대해 생성될 수 있는 상이한 구강내 촉각 바이오피드백 센서 출력들의 프로파일들의 데이터베이스를 구축하는 것을 포함한다. Lion의 예를 계속해서 사용하면, 도 25는 단어 "Lion"의 발음 동안 /l/ 음소 디바이스 상의 센서에 근접한 것의 그래프를 도시한다. 2개의 그래프는 센서에 혀 팁의 근접에 기초하여 정확한 및 부정확한 발음 사이의 차이를 도시한다. 이 경우에, 부정확한 발음은 "Lion" 대신에 "Wion"이었다.
정확한 및 부정확한 사운드 및 단어 발음에 대한 프로파일들의 데이터베이스는 다양한 음소들에 대한 구강-내-촉각-바이오피드백 센서에 혀의 끝부분의 근접을 측정할 수 있다. 그 다음, 정확한 및 부정확한 발음의 판단에 조력할 수 있는 이러한 데이터베이스는 발음되고 있는 현재의 샘플과 비교될 수 있다.
스피킹 커뮤니케이션를 원조하기 위해 사용되는 근접 프로파일
온보드 센서를 갖는 구강-내-촉각 바이오피드백 디바이스의 근접 프로파일은 혀의 운동을 통하지만, 성대의 수반 없이 스피치를 단순하게 해석하는 방법으로 사용될 수 있다.
말을 하지 않는 사람은 사운드들을 발음할 수 없는 것이 아니라, 스피치에 요구되는 정확한 혀 및 입술 움직임들을 여전히 만들어낼 수 있을 수 있다. 노드 상에 근접 센서를 갖는 구강내 촉각 바이오피드백 디바이스를 사용함으로써, 단어들 및 문장들의 스트링이 컴퓨터를 통해 해석될 수 있다. 그 다음, 이러한 문장들의 스트링은 기록된 텍스트를 통해 의사 소통되거나, 텍스트-대-스피치 변환기의 사용을 통해 스피치로 바뀔 수 있다. 이러한 기술은 군사적 및 전술적 적용들, 탐조, 감시 등을 포함하지만 이들에 제한되지 않는 완전한 침묵 및 가능한 적막에서 발생하는 커뮤니케이션을 요구하는 다른 동작들에 유용할 수도 있다.
소프트웨어 애플리케이션들 및 진단 교시 방법들
조음 연습에 대한 온라인 훈련들
조음 훈련들을 이용하는 것은 언어 치료 및 언어 학습의 과정 동안 실현되는 성공을 증가시킨다. 예를 들어, 사운드들 및 단어들의 상이한 조합들은 단어 내의 "trouble" 사운드들의 배치로 반복될 수 있다. 정확한 및 부정확한 사운드 발음의 발언 시에 화자에게 상응하는 피드백을 제공하는 것은 학습 과정의 중요한 특징이다. 컴퓨팅 디바이스들과 동작가능한 컴퓨터 기반 소프트웨어 프로그램들은 이러한 기능을 지원하는데 도움이 될 수 있다.
현재 개시된 발명의 추가 측면에 따르면, 디바이스 노드 상에 제공되는 센서들은 각각의 노드와 혀 접촉을 감시하는 소프트웨어를 포함할 수 있는 컴퓨팅 장치와 인터페이스된다. 전자 또는 컴퓨터 기반 장치일 수 있는 "컴퓨팅 디바이스"는 온라인, 데스크톱, 이동 및 핸드헬드 디바이스들 및 균등물들 및 그것의 조합들을 포함할 수 있지만, 이들에 제한되지 않는다.
언어 치료 및 언어 학습 동안 다중-감각 정보 또는 큐들을 통합하는 것은 전체 학습 경험을 향상시킬 수 있다. 따라서, 그러한 컴퓨팅 디바이스들과 통합된 소프트웨어 애플리케이션들은 다른 것들 중에서, 개시된 노드들(본 명세서에 개시된 노드들 및 또한 공동 소유 미국 출원 제12/357,239호에 개시된 노드들을 포함함)과 혀 접촉들의 실시간 온스크린 시각화, 청각 사운드파들의 그래픽 표현, 진행에 기초한 "게임" 스타일 긍정적 강화, 데이터 수집 및 통계 분석, 환자 스피치 생성들의 상태의 표시로서의 기록된 언어 재생들의 플레이백 및 모방을 통해 더 큰 정확도를 조장하는 미리 기록된 모델 음소 생성들의 종합적인 어레이들을 제공할 수도 있다. 본 명세서에 사용되는 바와 같이, 소프트웨어 애플리케이션들은 그들이 하나 이상의 디바이스들에 다운로드가능하거나 디바이스들로부터 업로드가능하거나, 하나 이상의 디바이스들에 프리로드되거나, 하나 이상의 디바이스들 중에 분배가능하거나, 네트워크 및 임의의 보완물 및 그것의 균등물을 통해 분배가능할 때 "통합될" 수 있다.
도 26 내지 도 30를 참조하면, 사용자는 상호적 학습 모듈을 개시하기 위해 소프트웨어 애플리케이션을 액세스할 수 있다. 본 명세서에 사용되는 바와 같이, "사용자"는 단일 사용자 또는 사용자들의 그룹일 수 있고, 화자들, 환자들, 치료 전문가들, 의사들, 교사들, 가족 구성원들 및 화자의 스피킹 및 언어 능력을 진전시키는데 참여할 수 있는 임의의 다른 사람 또는 조직을 포함할 수 있다. 본 명세서에 사용되는 바와 같이, "사용자"(또는 "사용자 디바이스" 또는 "클라이언트 디바이스")라는 용어는 제어 입력을 수신하도로 구성되고 커맨드들 또는 데이터를 상호적으로 또는 자동으로 다른 디바이스들에 송신하도록 구성되는 임의의 전자 장치를 지칭할 수 있다. 사용자 디바이스는 사용자에 의해 복구되는 바와 같이 서버들 상에 호스팅되는 온라인 사용자 인터페이스의 예일 수 있다. 본 명세서에 사용되는 바와 같이, "프로세스" 또는 "방법"이라는 용어는 하나의 전자 또는 컴퓨터 기반 장치에 의해 적어도 수행되는 하나 이상의 단계들을 지칭할 수 있다.
도 26은 단어가 도시된 소프트웨어 애플리케이션의 대표적인 스크린샷(3000)을 도시한다. 이 경우에, 타겟 사운드는 /r/ 사운드이지만, 임의의 사운드 또는 사운드들은 타겟을 포함할 수 있다는 점이 이해된다. 도 27은 타겟 사운드가 문장 내의 타겟 단어들에 이용되는 대표적인 스크린샷(4000)을 도시한다. 이 경우에, 타겟 단어들은 "rabbits", "carrots", "garden" 및 "really"이다. 훈련 동안, 화자는 화자의 구강으로 삽입된 디바이스로 디스플레이된 단어들 및/또는 문장들을 발언할 것이다. 단어 문장, 또는 수많은 단어들 또는 문장들의 완료 후, 디바이스 상에 배치된 센서들은 화자의 정확도를 표시한다. 이 정확도는 도 28의 대표적인 스크린샷(5000)에 도시된 바와 같이, 도식적으로 표현될 수 있고, 실시간으로 또는 거의 실시간으로 표현될 수 있다. 도식적 표현은 개별적 훈련에 대한 정확도를 나타낼 수 있거나 많은 상이한 타입들의 훈련들에서의 화자의 수행을 나타낼 수도 있다. 사용자가 부가 훈련들을 수행하는 것 또는 소프트웨어 애플리케이션을 로그아웃하는 것을 가능하게 하는 하나 이상의 버튼들이 제공될 수 있다. 라인 그래프가 도 28에 도시되지만, 바 그래프들, 파이 차트들 등을 포함하지만 이들에 제한되지 않는 임의의 도식적 표현이 이용될 수 있다는 점이 이해된다.
오디오 피드백은 정확도의 그러한 도식적 표현들을 대체하거나 보완할 수 있다. 스피치는 학습 과정을 원조하기 위해 컴퓨터 또는 이동 디바이스 상에 기록되고 플레이백될 수 있다. 적절한 어구는 상이한 세그먼트들에서 분석되고 시퀀스에서 플레이백되거나 순서가 바뀔 수 있다.
또한, 통합된 카메라를 갖는 이동 디바이스의 컴퓨터는 언어 치료 또는 다른 서비스들을 행하기 위해 대상의 비디오 레코딩 및/또는 스틸 샷을 사용할 수 있다. 그러한 포토그래피는 스피킹 훈련들 동안 혀, 입술 및/또는 목 움직임들에 대해 타임 스탬핑(time stamping)되고 분석될 수 있다. 이러한 부가 시각적 큐들로부터의 데이터는 진행하는 물리적 또는 언어 장애들의 진단들을 원조하기 위해 임의의 도식적 표현에 포함될 수도 있다.
도 29는 소프트웨어 애플리케이션이 사용자가 하나 이상의 훈련들을 커스터마이징(customizing)할 수 있게 하는 대표적인 스크린샷(6000)을 도시한다. 도 29에 도시된 예에서, 사용자는 다양한 훈련 옵션들로부터 선택할 수 있다. 예들 들어, 상이한 타입들의 단어들은 조음 연습을 위해 선택될 수 있고, 그러한 단어들은 상이한 단어 위치 내의 타겟 사운드들을 포함할 수 있다. 또한, 훈련들은 화자의 입에 구강내 촉각 바이오피드백 디바이스들을 갖거나 갖지 않고 수행될 수 있다. 다수의 선택 훈련들 및 시각적 및 오디오 큐들을 포함하지만 이들에 제한되지 않는, 본 명세서에 고려된 다른 옵션들이 이용가능할 수 있다. 후자의 일 예로서, 새의 픽처는 단어 "bird" 없이 도시될 수 있거나, 새소리가 재생될 수 있다. 화자는 새 픽처의 디스플레이 또는 새소리의 전송에 대응하여 단어 "bird"을 말하도록 유도될 수 있다. 이러한 타입의 연습 커스터마이제이션은 스피치 및 언어 능력들을 향상시킬 뿐만 아니라 단어들, 이미지들 및/또는 사운드들 중의 정신적 연관성들을 강화하는데 특히 유용할 수 있다(예들 들어, 뇌 외상에서 회복하는 환자들의 경우).
도 30은 언어 교사, 스피치 치료 전문가 또는 부모(대표적인 "전문가"(7010))가 다수의 학생들/환자들/아이들의 연습의 정확도 및 결과들을 동시에 감시할 수 있는 대표적인 전문가 대시보드(700)를 도시한다. 전문가 대시보드(7000)는 다수의 화자들과 전문가의 상호작용을 용이하게 하는 하나 이상의 버튼들(7020)을 포함할 수 있다. 여기에 도시된 바와 같이, 전문가(7010)는 특정 사운드들을 배울 시에 환자들 및 각 환자의 진행의 리스트에 액세스할 수 있다(그러나,그러한 디스플레이된 정보는 도시된 것에 제한되지 않고 다른 정보는 하나 이상의 링크들 또는 버튼들을 통해 디스플레이되며/되거나 액세스가능할 수 있음). 각각의 전문가 사용자는 다른 사람들이 전문가의 프로필을 보는 것을 허용하도록 그/그녀의 대시보드 프로필을 수정할 수 있고 특정 카테고리들의 다른 전문가들이 프로필을 볼 수 있는 정도로 더 수정할 수 있다. 전문가는 다른 전문가들이 그/그녀의 프로필을 보는 것을 허용하지 않을 수 있거나, 특정 상황들에서 프로파일에 제한된 액세스를 단지 허용할 수 있다(예를 들어, 특정 환자와 작업할 때 전문가가 종합적인 전문가들 및 돌보는 자들의 팀에서 작업하고 있으면). 대시보드는 캘린더가 전문가의 예정된 약속들 및 치료 기간들을 나타내는 캘린더 기능과 같은 다른 기능들을 포함할 수도 있다. 전문가는 지정된 실체(예를 들어, 특정 화자 등)를 따르고 임의의 업데이트의 통지들을 실체 상태에 수신하는 것을 선택가능할 수 있으며, 그것에 의해 전문가들 및 화자들이 가장 최신의 데이터를 갖는 것을 보장한다.
전문가들 및 화자들에 대한 소셜 네트워킹
사용자(임의의 화자, 전문가 또는 가족 구성원을 포함함)는 사이트 또는 웹사이트일 수 있는 공동 소셜 네트워킹 시스템에서 온라인 실재를 구축하는 소셜 네트워킹 방법을 개시할 수도 있다. 전문가들과 화자들 사이의 관계 주변에 구체적으로 설계되는 소셜 네트워크를 갖는 방법은 고유 아키텍처를 포함한다. 그러한 아키텍처는 전문가들에서 화자들로 뿐만 아니라, 전문가들과 화자들 사이의 정보 및 추천들의 흐름을 촉진할 수 있다. 예를 들어, 건강 관리 제공자들은 동일한 정보로부터 이익을 얻을 많은 환자들에게 전체적인 추천들을 동시에 제공할 수 있다. 환자들은 그들이 동일한 의사로부터 받을 수 있는 추천을 논의하고 종합하고, 원한다면 아마도 제 2 및 제 3 견해들을 얻을 수 있다. 또한, 스피치 치료 전문가들 또는 물리 치료 전문가들은 다수의 환자들이 즉시 그날 실습할 특정 훈련 세트를 처방할 수 있다. 동일한 아키텍처는 숙제 및 레슨들이 이러한 형식으로 의사 소통될 수 있다는 점에서 교사들 및 학생들 중의 관계들에 적용한다. 특정 세이프가드들은 비식별 환자/학생 정보가 민감한 정보를 의사 소통하기 위해 사용될 필요가 있는 경우에 사용될 수 있다.
이러한 아키텍처가 형상을 취할 수 있는 수개의 형태들이 있다. 가장 간단한 아키텍처는 전문가가 전문가 자신의 환자들 또는 클라이언트들과의 관계를 갖는 경우이다. 다른 예에서, 전문가는 다른 전문가들 뿐만 아니라 그들 자신의 환자들과 의사 소통할 수 있다. 또 다른 예에서, 전문가들은 그들의 환자들, 및 다른 전문가들 뿐만 아니라, 다른 환자들과 의사 소통할 수 있다. 이러한 "다른" 환자들은 다른 전문가들과 연계될 수 있거나 연계되지 않을 수 있다. 마지막으로, 또 다른 예에서, 환자들은 그들 자신의 전문가의 환자들 뿐만 아니라 다른 전문가들 및 다른 전문가들의 환자들과 의사 소통할 수 있다.
도 31은 전문가들(PR1 내지 PRN)(건강 관리 제공자들, 치료 전문가들, 교사들, 가족 구성원들 및 돌보는 자들과 같은)이 그들 자신의 화자들(SP1 내지 SPN)과 의사 소통할 수 있는 대표적인 소셜 네트워크를 도시한다. 이러한 예에서, 전문가들은 서로 및/또는 다른 화자들과 의사 소통할 수도 있다. 예를 들어, PR1은 PR3에게 PR1이 치료하거나 가르치는 화자들 중 하나와 상담을 부탁할 수 있다. 다른 예에서, PR1 내지 PRN은 훈련들을 수행하고 평가할 뿐만 아니라 선택적 지원 네트워크를 제공할 시에 서로 협력을 원하는 화자들의 부모들일 수 있다.
사용자는 즉시 제공될 수 있거나 다른 웹 페이지로부터 또는 모바일 애플리케이션으로부터 액세스가능할 수 있는 로그인을 통해 공동 소셜 네트워킹 시스템을 액세스할 수 있다. 나이, 성, 스킬 세트, 현재 트레이닝 및 학습 목표와 같은 속성들을 포함할 수 있는 우선 프로파일을 새로운 사용자들은 생성할 수 있고 등록된 사용자들은 수정할 수 있지만, 공동 소셜 네트워킹 시스템은 이러한 속성들에 제한되지 않다. 또한, 사용자를 공동 소셜 네트워킹 시스템 상에 가상으로 표현하는 아바타를, 새로운 사용자들은 생성할 수 있고 등록된 사용자들은 수정할 수 있다. 그러한 애플리케이션은 사용자들이 가상 아이덴티티를 취하고 그 아이덴티티를 통해 또한 가상 아인덴티티들을 취한 다른 사용자들과 상호작용하는 것을 허용하는, 3-D 가상 환경들을 포함하는 MUVEs(multi-user virtual environments)에서 바람직할 수 있다. 스피킹 세션들로의 초대들 및 훈련 팀들(예를 들어, 팀들은 스피킹 훈련들로 경쟁하고 점수를 비교하여 경쟁에 의해 학습을 격려함)에 참여하는 초대들을 수신하는 사용자들의 의도를, 사용자들은 표시할 수 있고 등록된 사용자들은 수정할 수 있다. 공동 소셜 네트워킹 시스템은 사용자들이 훈련들에 참여를 위한 "포인트들" 또는 "신용들"을 획득하도록 애플리케이션을 지원할 수도 있다. "신용들"의 축적은 화자들에게 보다 자주 및 더 높은 난이도 레벨들에서 연습하도록 조장할 수 있다.
본 명세서에 설명된 방법들 및 디바이스들에 따라 다양한 종류들의 자음 사운드들을 치료하거나 트레이닝하기 위해, 치료 전문가는 언어음의 생성 동안 다양한 혀 위치들을 큐잉할 수 있어야 한다. 상이한 언어음들의 적절한 생성 동안, 다양한 혀 위치들을 큐잉할 수 있기 위해, 치료 전문가는 적절한 촉각 피드백을 제공하는 다양한 노드 구성들을 이용할 필요가 있을 수 있다. 따라서, 본 발명의 다른 측면에 따르면, 복수의 언어음들의 생성 동안 적절한 촉각 피드백을 제공하는 하나 이상의 디바이스들을 포함하는 키트가 제공된다.
일반적 스피치 진단 테스트
본 명세서에 설명된 방법들, 디바이스들 및 시스템들은 필요하다면, 화자에 의해 보여지는 스피킹 장애의 타입을 결정하는데 도움이 될 수 있는 하나 이상의 GDT(generalized diagnostic test)들과 관련되어 사용될 수 있다. 진단들은 전형적으로 장황한 질문 및 대답 과정의 코스를 통해 SLP(Speech Language Pathologist)에 의해 수행된다. 간단하고 더 짧은 진단 또는 설문 검사를 통해, 개인에 대한 구체적 진단을 상당한 정확도로 결정하는 것이 가능하다. 이러한 GDT는 전문가의 관리 없이 화자에 의해 또는 돌보는 자(부모와 같은)에 의해 완료될 수 있다. 그것은 이동 디바이스들 상에서 또는 하드 카피로 인터넷과 같은 무선 네트워크들을 통해 전자 및 디지털 형식들로 관리될 수 있다.
예:
GDT에 대한 샘플 입력들은 이하를 따를 수 있다:
샘플 입력들
1. 당신의 아이는 몇 살입니까?
a. 슬라이더 바 1-18
2. 당신의 아이의 성은 무엇입니까?
a. 남성
b. 여성
3. 당신의 아이는 스피킹에서 무슨 단계입니까?
a. 단지 일부 사운드들
b. 단비 일부 단어들
c. 짧은 구들
d. 유창하게 말할 수 있음
4. 당신이 생각하기에 어떤 카테고리들이 당신의 아이의 스피킹 도전을 더 정확하게 설명하는지 선택하시오:(그것들은 다수를 선택할 수 있음)
a) 스피치 도전 b) 언어 도전 c) 유창성 도전
설명:

특정 사운드들, 단어들, 또는 패턴들을 일관되게 만드는 문제. 특정 사운드들을 자주 생략하거나, 대체하거나 부정확하게 발음함
설명:

생각들을 완전히 이해하며/하거나 공유할 시의 어려움. 문법, 전체 문장들, 및 정확한 동사 시제들은 도전하고 있음.
설명:

리듬의 스피치 흐름에 문제를 가짐. 단어들을 더듬거나 불명확하게 말함.
예들:
Wabbit vs rabbit
Thock vs sock
Tup vs cup
Das vs gas
Poon vs spoon
예들:
나는 공원에 갔다.
나는 공을 유지했다.
나는 장난감을 부셨다.

또는 당신의 스피치를 매우 잘 단순히 이해하지 않음
예들:
"어-어-어-어디 가세요?"
"다-다-당신이 알다시피 약 6시에 나는 당신을 만날꺼에요."
"나는-당신이.... 약간 더-주의깊게-내말을.... 들을 필요가 있다고 생각해요"
오디오 샘플: 오디오 샘플: 오디오 샘플:
5. 4A가 예이면-어떤 카테고리가 더 정확하게 당신의 아이의 스피킹 도전을 설명하는지 선택하시오:(그들은 다수를 선택할 수 있음)
조음 도전 음운 도전
설명:

특정 사운드들 또는 단어들을 일관되게 만드는 문제. 특정 사운드들을 자주 생략하거나, 대체하거나 부정확하게 발음함
설명:

단어들의 시작에서 사운드 패턴들 또는 2개의 자음이 갖는 문제. 입의 전단 및 입의 후단의 사운드들 사이를 전환하는 문제
예들:

Wabbit vs rabbit
"thock" vs. "sock"
"sicken" vs. "chicken"
"wesson" vs. "lesson"
예들:

(시작에서의 자음들)
Poon vs spoon
Boken vs Broken

(입의 전단 대 후단)
Tup vs cup
Das vs gas
오디오 샘플:
오디오 샘플을 제공함
오디오 샘플:
오디오 샘플을 제공함
6. 4B가 예이면-어떤 카테고리가 당신의 아이의 스피킹 도전을 더 정확하게 설명하는지 선택하시오:(그들은 다수를 선택할 수 있음)
a. 당신의 아이는 다른 이들을 이해하는데 문제를 갖는다(수용적 언어 도전)
b. 당신의 아이는 그를 또는 그녀 자신을 표현하는데 문제를 갖는다(표현적 언어 도전)
7. 4C가 예이면-어떤 카테고리가 더 정확하게 당신의 아이의 스피킹 도전을 설명하는지 선택하시오:(그것들은 다수를 선택할 수 있음)
a. 말더듬이 "어-어-어-어디 가세요?"
b. 사운드들을 불명확하게 말함 - "나는-당신이.... 약간 더-주의깊게-내말을.... 들을 필요가 있다고 생각해요"
8. 당신의 아이의 스피치 장애를 몇 살에 먼저 알아챘습니까
a. 슬라이더 바 1-18
9. 당신의 아이가 어떤 진단된 개발 도전들을 하였습니까(적용할 것 모두 체크)
a. 내가 아는 것 없음
b. 자폐증
c. 아스퍼거 장애
d. 다운 증후군
e. 운동 불능
f. 구개 파열
g. 다른 것(설명하시오)
10. 당신의 아이는 무슨(필요하다면) 언어 치료에 관련되어 있습니까(적용할 것 모두 체크)
a. 아직 없음
b. 학교에서 언어 치료
c. 개인 클리닉 또는 병원에서 언어 치료
d. 집에서 노력하고 있음
11. 1 내지 10의 스케일에서 그리고 당신의 아이의 친구들과 그/그녀의 나이를 비교할 때, 당신의 아이를 이해하는 것이 얼마나 어렵습니까?
12. 1 내지 10의 스케일에서, 그/그녀의 스피킹 도전 때문에 당신의 아이가 얼마나 좌절합니까/고통받습니까?
13. 1 내지 10의 스케일에서, 당신의 아이의 스피킹 도전이 학교에서의 그/그녀의 성과에 얼마나 많이 영향을 미칩니까?
14. (진단이 컴퓨터 상에서 수행되는 경우, 짧은 오디오 샘플들이 기록될 수 있고 이하는 /r/ 왜곡의 엄함을 결정하기 위해 샘플링하는 샘플 오디오를 표현한다)
a. 이러한 5 사운드들을 반복: R, Ra, Re, Ri, Ro Ru
b. 이러한 단어들을 반복: Row, Rug, Rack, Ray, Ring, Area, Corrupt, Caring, Arrow, Hurry, More, Year, Appear, Liar. Gear
c. 이러한 10 문장들을 반복:
i. 우리는 소포를 우편으로 보내기 위해 우체국으로 달려갔다.
ii. 피아노를 연습하는데 많은 시간이 걸린다.
iii. 내 부모는 우리를 차에 태우고 갔다.
iv. 나는 불을 끈채 독서하는 것을 중단할 필요가 있거나 나는 내 눈을 상하게 할 것이다.
v. 반란군은 황제를 엄습하여 갤럭시를 회수했다.
vi. 집으로 가는 길이 닫혔다!
vii. 나는 밤에 신문을 읽는다.
viii. 나는 일리노이즈 피오리아에서 결코 어느 누구도 만나지 않았다.
ix. 제가 나비들을 잡으려고 시도하기 위해 당신의 그물을 빌릴 수 있을까요?
x. 무지개들이 좀처럼 보이지 않는다.
15. (조음 장애와 음운 장애 사이의 차이를 결정하기 위해 이하의 질문들이 예로서 요구될 수 있다)
a. Q: "Rabbit"를 말함 대답: 아이가 말함 1) Rabbit, 2) Wabbit, 3) Yabbit
b. "Spoon"을 말함 대답: 아이가 말함 1) Spoon, 2) Poon, 3) Thoon
샘플 출력들
- 가능한 장애 타입(및 유포)
- 가능한 엄함
- 제안된 치료 타입(연습들의 타입들, 빈도, 단일 그룹, 환경 등)
- 입력들이 주어진 치료 진단의 평균 지속 기간의 그래프
- 입력들이 주어진 진단에 기초한 평균 비용의 그래프
스피킹 및 언어 학습 키트들
본 명세서에 설명된 방법들, 디바이스들 및 시스템들에 따른 다양한 화자들에 대한 다양한 종류들의 사운드들을 트레이닝하기 위해, 화자 또는 전문가는 언어음들의 생성 동안, 다양한 혀 위치들을 큐잉할 필요가 있을 수 있다. 다양한 혀 위치들을 큐잉하기 위해, 화자 또는 전문가는 적절한 촉각 바이오피드백을 제공하기 위해 본 명세서에 설명된 하나 이상의 노드들을 이용할 필요가 있을 수 있다(공동 소유 미국 출원 제12/357,239호에 의해 개시된 하나 이상의 노드들에 의해 보완될 수 있음). 그러므로, 하나 이상의 키트들은 광범위한 언어음들의 생성 동안 적절한 촉각 바이오피드백을 제공하는 하나 이상의 상이한 노드들을 포함하여 제공될 수 있다. 이러한 타입의 키트는 디바이스가 특정 언어음 및/또는 특정 언어음 세트의 적절한 생성을 용이하게 하도록 구성되는 상태에서 복수의 디바이스들을 포함할 수 있다. 각각의 키트는 그것과 교체가능한 복수의 상이한 헤드들을 갖는 단일 핸들을 포함할 수 있다. 키트는 대안적으로 넓은 범위의 화자들과의 호환성을 가능하게 하도록 하나 이상의 헤드와 조합하여 다수의 핸들(예를 들어, 변화되는 길이들 및 미학적 외관들의)들을 가질 수 있다.
하나 이상의 키트들은 하나 이상의 핸들들 및 하나 이상의 헤드들과 함께, 데스크톱 상에 다운로딩되거나 원격 사이트로부터 이동 디바이스로 업로딩될 수 있는 수반하는 상호작용 소프트웨어 애플리케이션들을 포함할 수 있다. 소프트웨어 애플리케이션들의 사용을 위한 명령어들은 다른 전문가들 및 화자들과 협력을 위해 화자에게 인터페이스를 제공하는 임의의 소셜 네트워킹 플랫폼들을 액세스하는 자원들과 함께 키트에 포함될 수도 있다
키트는 화자 및/또는 전문가에 의한 준비된 이용을 위해 미리 로딩된 소프트웨어 애플리케이션들을 갖는 이동 디바이스를 포함할 수도 있다. 정확한 또는 부정확한 발음의 파형의 이동 또는 컴퓨팅 디바이스에 의한 검출은 본 명세서에 개시된 촉각 바이오피드백 디바이스들 중 어느 하나와의 결합(무선일 수 있음)을 통해 소프트웨어 애플리케이션에 링크될 수 있다.
다른 응용들
a. 모유 수유 품질을 결정하는 압력 측정
본 명세서에 교시된 개념들은 본 명세서에 설명된 언어 치료 및 언어 학습 방법들에 제한되지 않는다. 예를 들어, 본 명세서에 교시들을 통합하는 방법들 및 디바이스들은 유아들의 젖먹이 능력을 측정하는 시스템들에 대해 고려될 수 있다. 장래의 스피치 도전들을 검출하는데 중요한 흡인(sucking) 특성들을 측정하는 것은 모유 수유(또는 젖병 수유)에서 또한 중요하고 많이 필요한 정보를 의사들 및 어머니들에게 제공할 수 있다. 노드들 및 센서들을 사용하여 양적 방식으로 측정될 수 있는 일부 특성들은 픽싱(fixing)(유두 주변에 생성되는 시일의 양), 흡인(유아의 입으로 이송되는 유체의 양) 및 리듬(흡인 동작의 일관성)을 포함한다. 대안적으로, 모든 정보는 환자에 대한 비양적 요약 또는 표시기(예를 들어, "양호", "중간", "나쁨")로 합성될 수 있다.
압력 차이의 측정은 유아의 입 내의 및 유두 자체 주변의 다양한 위치들과 환경 사이에서 이루어질 수 있다. 도 32 및 도 33은 유두(N)를 둘러싸는 노드들 및 압력 센서들(8002)의 어레이를 갖는 대표적인 디바이스(8000)를 도시한다. 유두(N)는 모유 수유에 수용하는 유방과 함께 도시되지만, 유두(N)는 젖병 수유 동안 통상 사용되는 유두일 수도 있다는 점이 이해된다. 노드 및 센서 어레이(8002)는 다양한 목표들을 성취할 수 있다. 예를 들어, 발생되는 부의 압력의 값은 센서들의 수와 상관되며, 그것에 의해 유체 흐름 속도의 계산을 가능하게 하는 반면에 부의 압력은 주어진 단위 영역에 대한 흐름에 비례한다. 또한, 노드 및 센서 어레이(8002)는 흡인 동안 어느 위치가 부의 압력 하에 있지 않은지를 판단함으로써 픽싱 또는 래치의 품질을 결정할 수 있다. 그러한 애플리케이션의 일 예로서, 어레이에서의 센서들 모두는 하나의 센서를 제외하고 부의 압력을 나타낼 수 있다. 이러한 단독 센서는 부정확한 래칭이 발생한 위치를 표시하고 필요에 따라 정정을 허용할 것이다. 게다가, 노드 및 센서 어레이(8002)는 시간에 따라 압력의 변화의 측정을 통해 흡인의 리듬 및 일관성을 결정할 수 있다. 기계적(임펠러들, 스크린들, 측단 흐름 매니폴드들) 및 전기적(광학, 변환기들 등) 흐름 센서들을 사용하여 유체 흐름(즉, 우유 또는 조합유의 흐름)을 직접 측정하기 위해 다양한 시도들이 이루어졌다. 그러나, 어레이를 가로질러 압력을 측정하는 것은 이 목표를 달성하는 더 신뢰성있는 최소 외과적인 방법이다.
도 32 및 도 33에 도시된 대표적인 디바이스는 노드에 대한 지지 구조 및 센서 어레이들 지지 구조로서의 역할을 하는 실리콘과 같은 가요성 재료로 제조될 수 있다. 실리콘 지지 재료는 마이크로튜불들(8007)이 유아 입/유두 인터페이스 주변에 밀집한 어레이로 노출되는 것을 더 허용한다(특히 도 33에 보여지는 바와 같이). 지지 재료는 마이크로튜불들을 생성하는 2개의 얇은 적층된 층으로 제조될 수 있다. 그 다음, 마이크로튜불들(8007)은 압력 측정 디바이스(8010)에 연결될 수 있다(도 32에 도시됨). 마이크로튜불 어레이는 겨우 5개의 압력 센서 및 무려 100개의 압력 센서를 가질 수 있지만, 압력 센서들의 수는 이 범위에 제한되지 않는다(예를 들어, 하나보다 많은 압력 센서는 각각의 마이크로튜불에 대한 측정들을 검출할 수 있거나, 수개의 압력 센서들은 통계적 성능이 감시될 수 있는 평균 측정들을 이루도록 더 큰 복수의 마이크로튜불들을 위해 제공될 수 있다). 압력 센서 개구부들은 직경이 약 0.5㎜ 이어야 하지만, 10 미크론만큼 작고 3㎜만큼 클 수 있다(그러나 개구부 파라미터들은 이러한 양들에 제한되지 않음).
압력 측정에 대한 다른 대표적인 실시예들은 고무 젖꼭지 디바이스와 비슷하고 압력 센서 및 디스플레이를 통합할 수 있다. 또 다른 대표적인 실시예들에서, 유두, 손가락 또는 해부학적 구조와 비슷하지 않은 다른 형상이 성공적으로 이용될 수 있다. 그러한 디바이스는 대상자가 시일을 입술들 주위에 생성하고 모유 또는 젖병 수유에서 발생하는 압력 차이를 시뮬레이션할 수 있게 한다. 또한, 흡인의 리듬은 이러한 압력 센서들을 통해 측정되고 양적 또는 질적 방식으로 변환될 수 있다.
b. 구강 조음 기관 평가
본 명세서에 교시들을 통합하는 방법들 및 디바이스들은 입술들, 혀, 볼들, 턱, 인두, 후두, 연구개 및 후두개를 포함하는 구강 조음 기관들의 움직임 및 기능을 측정하는 시스템들에 대해 고려될 수도 있다. 그러한 측정들은 스피치, 음성, 삼킴 및 다른 장애들의 평가 및 치료를 원조할 수 있다. 이하에 설명된 대표적인 방법들 및 디바이스들은 다수의 화자들을 평가하는 완전한 진단 및 모듈러 툴을 제공하기 위해 하나 이상의 키트들로 교체가능하게 제공될 수 있다.
i. 턱 평가
예를 들어, 모션의 턱 강도, 속도, 및 범위의 측정은 평가 및 치료 애플리케이션들 둘 다에 대해 중요한 진단 특성들이다. 모션의 턱 범위는 1) 턱의 개방 및 폐쇄에서와 같은 턱의 회전 모션, 2) 턱의 좌우 모션, 및 3) 턱의 전후 모션으로 설명될 수 있다. 회전 모션에 대해, 턱의 개방 뿐만 아니라 턱의 폐쇄의 측정 둘 다가 바람직하다. 좌우 및 전후 모션들에 대해, 모션의 범위의 양 방향들이 바람직한 기준들이다. 움직임은 수개의 타입들의 기준들로 정량화될 수 있다: 1) 힘, 2) 가속도, 3) 속도, 및 4) 변위(위치). 이러한 특성들의 측정은 다수의 방법들로 측정될 수 있다. 그것들은 힘 센서, 압력 센서, 변위 센서, 및 시간 센서를 통해 측정될 수 있다. 시간의 기능으로서의 변위는 속도, 가속도 및 힘을 측정하는데 도움이 될 수 있다. 힘은 압력 하의 표면적의 기능으로서 압력을 측정하는 압력 센서를 통해 측정될 수 있다. 또한, 이러한 속성들은 턱 조정의 비양적 값을 측정하게 될 수도 있다.
대표적인 실시예에서, 힘은 턱이 고정 또는 변화 저항에 반하여 이동하는(또는 움직이려고 시도하는) 것으로 측정된다. 센서는 턱 측정들이 이루어질 수 있도록 상부 치아와 하부 치아 사이에서 압축된다. 센서는 힘 센서 및 변위 센서 중 하나 이상을 포함할 수 있다(후자는 재료의 변형을 측정함). 다른 대표적인 실시예에서, 턱 개방의 움직임 및 힘이 측정될 수 있다. 게다가, 고정 센서에 반하여 턱에 의해 발생될 수 있는 힘이 측정될 수도 있다. 센서는 센서들을 통합한 디바이스를 유지하는 테이블 또는 의사와 같은 다른 몸체에 단단히 부착될 수 있다.
ii. 혀 평가
또한, 모션의 혀 강도, 속도 및 범위의 측정은 평가 및 치료 둘 다에 대해 중요한 진단 특성들이다. 혀는 많은 근육들에 의해 제어되고 복잡한 신경 분포 패턴들의 범위에 의해 통제되는 단일 근육이다. 그러므로, 그것은 막대한 범위의 모션을 나타낸다. 혀는 팁, 중간부 및 베이스를 포함하는 상이한 구성 요소들로 분해될 수 있으며, 그의 각각은 그 자체의 고유 모션 범위를 갖는다. 이러한 구성 요소들 각각은 이하의 방식으로 움직일 수 있다 1) 위 및 아래(상위/하위) 2) 좌우로(측면/내측) 3) 전방 및 후방(앞쪽/뒤쪽), 및 4) 회전하여 감기(피치, 요, 및 롤). 혀 팁, 중간부 및 베이스는 모두 분리 유닛들로서의 역할을 하고 각각의 세그먼트는 위에 언급된 3개의 축에 대해 6 자유도를 갖는다. 각각이 6 자유도를 갖는 혀의 3개의 분리 세그먼트가 있는 것으로 가정하면, 이것은 시스템에 대한 18 자유도를 야기한다.
이러한 혀의 운동 및 기능을 측정하는 것은 스피치, 음성, 삼킴, 및 다른 장애들의 평가 및 치료에 중요할 수 있다. 정확한 위치에서 더 많은 이산 자유도를 측정할 수 있는 것이 또한 중요하므로, 기본적 주요한 4 자유도(상/하, 좌/우, 전방/후방, 축)로부터 이러한 움직임들을 용이하게 측정할 수 있는 디바이스는 중요하다. 기준들은: 1) 힘, 2) 가속도, 3) 속도, 및 4) 변위(위치)를 포함할 것이다.
iii. 입술 평가
또한, 입술 강도 및 정확성의 측정은 스피치, 음성, 및 다른 장애들에 대해 중요한 기준이다. 스피치 동안 입술들이 취할 필요가 있는 공통 위치들은 입술들의 도치(/m/ 사운드에 대해), 입술들의 개방(/r/ 사운드에 대해), 입술들의 오므림(/sh/ 사운드에 대해) 등을 포함한다. 입술 움직임은 수개의 방법들로 측정될 수 있다: 1) 힘, 2) 가속도, 3) 속도, 4) 변위(위치), 5) 자세(S, R, CH, L 등과 같은)를 유지하는 능력, 6) 자세를 파괴하는 능력 및 7) 자세를 취하는 능력.
이러한 특성들의 측정은 다수의 디바이스 실시예들을 통해 수행될 수 있다. 그것들은 힘 센서, 압력 센서, 변위 센서, 및 시간 센서를 통해 측정될 수 있다. 대표적인 실시예에서, 입술들은 입술들의 힘을 측정하기 위해 힘 또는 압력 센서 상에기 스퀴즈(squeeze)될 수 있다. 센서는 전기 저항 센서 또는 변위를 측정하는 센서일 수 있다. 다른 대표적인 실시예에서, 상부 및 하부 개방 입술들 중 하나 또는 둘 다의 개방력이 측정될 수 있다. 또 다른 대표적인 실시예에서, 센서들의 어레이는 입술들의 특정 부분들에 대한 접촉의 정확한 위치를 측정함으로써 입술 조정을 측정하는 디바이스에 사용될 수 있다. 이러한 센서들의 어레이는 입술들이 원하는 사운드, 포즈 또는 훈련에 대한 정확한 위치에 맞물렸는지를 효과적으로 질적으로 측정할 수 있다.
iv. 볼 평가
볼의 움직임 및 기능의 측정은 다양한 스피치, 음성, 삼킴 및 관련된 장애들을 진단하고 치료하는데 다른 유용한 진단 및 치료 접근법이다. 협근 근육들은 볼 근육들으로 더 통상적으로 알려진 것을 제어한다. 구륜근은 4개의 근육으로 구성되고 그것은 입술들을 둘러싼다. 그것은 입술들을 제어하는데 도움이 될 뿐만 아니라 입술들을 둘러싸는 특징들을 볼들로 인도하는 정교한 근육이다. 협근 및 구륜근 기능은 피부에서의 주어진 지점의 변위, 힘, 속도 및 가속도에 의해 측정될 수 있다.
v. 치아 및 입 크기들의 측정
치아 및 입 크기들의 측정은 특정 스피치, 의학 또는 치과 치료 또는 치료 레지먼트(regiment)의 권고에 유익할 수 있다. 치아의 표준 사이즈화 및 해부학적 사이즈화는 세라믹, 플라스틱, 금속막, 또는 목재로 만들어진 일련의 치과용 템플릿들을 통해 달성될 수 있다. 이러한 크기들은 길이 및 깊이 둘 다에 따라 동시에 변화되는 일련의 크기들일 수 있다. 이러한 템플릿은 폭, 길이 또는 깊이를 독립적으로 변경하도록 구조화될 수도 있다. 길이, 폭, 및 깊이 이외의 대안적인 변수들은 치아 폭과 같은 체계 내에 사용될 수 있다. 부가적으로, 깊이를 결정하기 위해 깊이는 구강 내의 다수의 지점들에서 측정들을 가질 수 있다. 템플릿들 상에 배치된 센서들은 치아 및 또는 입이 스트레스를 경험하는 영역들의 매핑을 포함하는 화자의 구강의 매핑을 제공할 수 있다(예를 들어, 말하는, 숨쉬는, 씹는 동안 등).
결과들 및 결론들
촉각 바이오피드백은 언어 학습의 다른 요소들에 링크하는 대안의 대표적인 실시예들로 조합되고 통합되고 그것에 의해 전통적 언어 치료 및 언어 학습 방법들에 전체론적 해법을 제공할 수 있다.
본 명세서에 교시된 방법들 및 디바이스들은 환자 또는 학생 중 어느 한 타입과의 사용에 제한되지 않고, 스피치 및/또는 언어 장애들을 경험하는 환자들 이상으로 성공적으로 이용될 수 있다. 그러한 방법들 및 디바이스들은 물리적 및 발달적 장애의 영역 뿐만 아니라 물리적 및/또는 정신적 트라우마로부터의 복귀에 걸쳐 동등하게 유용하다. 그러한 조건들은 자폐증, 외상성 뇌손상(예를 들어, 차량 사고들, 스포츠 외상들로 경험되는 것들 등), 시각 및/또는 청각 장애(청각 장애들을 위한 인공 귀들과 같이 치료되든 안되든), 정서 불안정(스피치 및 언어 불통들에 의해 야기될 수 있거나 야기되지 않을 수 있음), 발육 지연 및 물리적, 정신적 및/또는 감정적 웰빙에 대한 다른 장애들을 포함할 수 있지만 이들에 제한되지 않는다. 또한, 개시된 방법들 및 디바이스들은 제한된 강도를 갖고 제어된 숨쉬기 기술들을 필요로 하는 학생들, 예를 들어 심폐의 문제들(예를 들어, 만성 천식), 간질 등을 갖는 환자들 및 학생들과의 사용을 위해 다루기 쉽다.
모든 사운드 대체들 및 생략들은 스피치 에러들이고 대신에 방언 또는 액센트의 특징과 관련될 수 있는 것은 아니다. 상술한 병들 중 어느 하나로부터 고통받지 않는 학습자들에 대해, 그러한 학습자들은 예를 들어 공개 연설을 행하는 것에 대해 또는 비원어민 언어를 학습하는 것에 대해, 스피치 전달 및 굴절을 향상시키는 개시된 방법들 및 디바이스들의 사용으로부터 이익을 얻을 수 있다.
본 명세서에 교시된 방법들 및 디바이스들은 종합적인 팀의 일부로서의 전문가들, 화자들, 가족 구성원들 및 돌보는 자들 중에서 용이하고 효과적인 협력을 가능하게 한다. 예를 들어, 본 명세서에서의 디바이스들 및 방법들을 사용하여, 화자의 진전의 실시간(또는 거의 실시간) 추적은 모두가 단일 화자의 경우에 대해 상담하는 스피치 병리학자들, 청각학자들, 간호사들, 작업 요법사들 및 외과 전문의들에 의해 실현될 수 있다. 가족 구성원들은 사랑받는 자들의 진전을 용이하게 추적하며/하거나 가족 구성원의 진행중인 치료 또는 교육을 원조할 수도 있다(이러한 결과들은 서로 근접하여 살지 않을 수 있는 가족 구성원들 중에서 공유될 수 없음). 이러한 기술을 사용하는 성인들은 학교에서 또는 의료 시설에서 단독으로 스피치 치료 전문가들, 언어학 및 언어 교사들(영어 교사들을 포함하지만 이에 제한되지 않음)과 함께 그것을 사용할 수 있다. 숙련된 SLP는 본 명세서에 교시된 방법들을 성공적으로 실행하도록 요구되지 않는다.
본 명세서에 교시된 방법들 및 디바이스들은 기존의 기록된 재료들로 및 소프트웨어와 함께 사용하기에 다루기 쉽거나, 부가 기록된 재료들 및/또는 소프트웨어는 그것의 성공적인 실행으로부터 벗어나는 것 없이 이러한 방법들 및 디바이스들을 보완하도록 준비될 수 있다. 친구들 및 동료들은 예를 들어 소셜 플랫폼 상에 이러한 방법들 및 디바이스들을 사용하고 공동 정정 및 긍정적 보강을 가능하게 함으로써 디지털 환경에서 서로 원조할 수 있다. 예를 들어, 한 명의 동료가 우월한 발성 능력을 가진다면, 그 동료의 언어음들이 다른 동료들이 트레이닝에 대해 평가될 수 있는 적절한 스피치에 대한 베이스라인으로 기록되고 사용될 수 있다. 그러한 애플리케이션은 예를 들어 국가간 커뮤니케이션을 요구하는 다국적 사업들에서 바람직할 수 있다.
본 명세서에 개시된 치수들 및 값들은 다시 인용된 정확한 수치 값들에 엄밀히 제한되는 것으로서 이해되지 않아야 한다. 대신에, 달리 지정되지 않으면, 각각의 그러한 치수는 다시 인용된 값 및 그 값 주변의 함수적으로 동등한 범위 뿐만 아니라 그 값의 동등한 단위들 둘 다를 의미하도록 의도된다. 예를 들어, "40 ㎜"으로 개시된 치수는 "약 40 ㎜" 뿐만 아니라 "1.58 인치"를 의미하도록 의도된다. 그러나, 그러한 치수들 및 값들의 개시는 미리 정해진 범위들 이외의 치수들 및 값들을 갖는 개시된 디바이스들 중 어느 하나의 사용을 불가능하게 하지 않을 것이다.
임의의 교차 참조된 또는 관련된 특허 또는 출원을 포함하는 본 명세서에 인용된 모든 문서는 이로써 명확히 배제되거나 달리 제한되지 않는다면 본 명세서에 그 전체가 참고문헌으로 포함된다. 임의의 문서의 인용구는 그것이 본 명세서에 개시된 또는 청구된 임의의 발명에 관한 종래 기술이거나, 그것이 단독으로, 또는 임의의 다른 참조 또는 참조들과의 임의의 조합으로, 임의의 그러한 발명을 교시하거나, 제안하거나, 개시한다는 인정이 아니다. 게다가, 이 문서에서의 용어의 임의의 의미 또는 정의는 참조에 의해 통합된 문서에서의 동일한 용어의 임의의 의미 또는 정의와 충돌한 결과로, 본 문서에서의 그 용어에 할당된 의미 또는 정의는 통제될 것이다.
본 발명은 바람직한 형태로 설명되었지만, 변경들, 추가들, 및 수정들은 본 발명을 형성하는 각각의 물품들에 이루어질 수 있다는 점이 이해될 것이다. 따라서, 첨부하는 청구항들에 제시된 바를 제외하고, 어떤 제한도 본 발명의 범위에 부과되지 않을 것이다.

Claims (22)

  1. 사운드 생성 동안 화자의 발음을 나타내는 피드백을 제공하는 구강내 방법으로서,
    적어도 하나의 타겟 사운드를 촉각 피드백을 통해 상기 화자에게 트레이닝하기 위해 화자의 혀의 적절한 위치를 위한 하나 이상의 타겟들을 상기 화자의 구강에 위치시키는 단계로서, 상기 위치시키는 단계는 상기 타겟 사운드가 트레이닝되는 것에 의존하는 상기 단계; 및
    상기 적어도 하나의 타겟 사운드의 정확한 발음을 위한 상기 화자의 혀의 위치를 표시하는 촉각 피드백을 상기 화자에게 제공하기 위해 하나 이상의 노드들을 갖는 헤드, 상기 하나 이상의 노드들을 상기 화자의 구강에 유지하고 위치시키는 핸들, 및 각각의 디바이스의 적어도 하나의 노드에 있거나 적어도 하나의 노드 근처에 있는 적어도 하나의 센서를 포함하는 적어도 하나의 사운드 트레이닝 디바이스를 제공하는 단계를 포함하며;
    상기 화자의 구강 내의 디바이스의 삽입은 자동으로 상기 적어도 하나의 타겟 사운드의 생성을 위한 적절한 혀 위치들에 부합하여 상기 적어도 하나의 센서를 자동으로 배치하고;
    상기 적어도 하나의 센서는 상기 화자의 혀가 상기 의도된 타겟과 접촉할 때 상기 적어도 하나의 타겟 사운드의 발음 정확도를 검출하며;
    상기 적어도 하나의 사운드 트레이닝 디바이스는 적어도 하나의 발음 평가 애플리케이션을 실행시키는 하나 이상의 컴퓨팅 디바이스들과 통신하는 네트워크 연결 사운드 트레이닝 디바이스인 구강내 방법.
  2. 제 1 항에 있어서, 상기 적어도 하나의 센서는 광 센서, 힘 감지 저항기, 브리지 센서, 용량성 센서, 스트레인 게이지 센서, 센서 어레이 및 임의의 균등물 및 그것의 조합 중 하나 이상을 포함하는 구강내 방법.
  3. 제 1 항에 있어서, 상기 적어도 하나의 사운드 트레이닝 디바이스는 상기 화자의 혀가 하나 이상의 노드들과 접촉하여 상기 적어도 하나의 타겟 사운드를 형성하기 위해 상기 구강을 자유롭게 내비게이션하는 상태에서, 상기 화자의 구강 내의 위치에 그것의 위치를 위한 등록 특징들을 포함하는 구강내 방법.
  4. 제 1 항에 있어서, 상기 적어도 하나의 사운드 트레이닝 디바이스의 핸들 및 헤드는 서로 분리가능하게 맞물리는 구강내 방법.
  5. 제 4 항에 있어서, 상기 네트워크 연결 사운드 트레이닝 디바이스와 통신하는 서버로서,
    상기 네트워크를 통해, 화자의 발음을 트레이닝하고 향상시키는 구강내 바이오피드백 시스템, 및 소셜 네트워킹 시스템 중 적어도 하나를 액세스하는 것;
    의도된 타겟 사운드들에 대해 발생될 수 있는 센서 출력들의 프로파일들의 데이터베이스를 구축하고 액세스하는 것; 및
    상기 데이터베이스 상의 저장을 위해 화자 프로파일 데이터 및 하나 이상의 일반적 진단 테스트들에 대응하는 데이터 중 적어도 하나를 업로드하는 것 중 적어도 하나를 포함하는 동작들을 수행하도록 구성되는 상기 서버를 포함하는 플랫폼을 제공하는 단계를 더 포함하는 구강내 방법.
  6. 제 5 항에 있어서, 상기 플랫폼은,
    네트워크를 통해 통신하는 것;
    상기 적어도 하나의 사운드 트레이닝 디바이스와 상기 컴퓨팅 디바이스 사이의 통신을 용이하게 하는 것;
    상기 화자의 발음 정확도의 하나 이상의 표현들을 생성하는 것 중 적어도 하나를 수행하는 네트워크 인터페이스; 및
    샘플 사운드를 상기 프로파일들의 데이터베이스와 비교하는 것 및
    상기 발음 정확도를 결정하는 것 중 적어도 하나를 수행하도록 구성되는 엔진을 더 포함하는 구강내 방법.
  7. 제 6 항에 있어서, 상기 엔진은 상기 일반적 진단 테스트들에 대응하는 갱신된 화자 프로파일 데이터 및 갱신된 데이터로 사용자에게 통지하는 통지를 생성하도록 더 구성되는 구강내 방법.
  8. 제 4 항에 있어서, 상기 적어도 하나의 구강내 피드백 소프트웨어 애플리케이션을 모바일 애플리케이션들을 위해 구성되는 소프트웨어 툴로서 분배하는 단계를 더 포함하는 구강내 방법.
  9. 화자의 발음 정확도를 트레이닝하고 향상시키는 구강내 바이오피드백 시스템으로서,
    적어도 하나의 타겟 사운드의 정확한 발음을 위한 상기 화자의 혀의 정확한 위치를 표시하는 촉각 피드백을 상기 화자에게 제공하기 위해 하나 이상의 노드들을 갖는 헤드, 및 상기 하나 이상의 노드들을 상기 화자의 구강에 유지하고 위치시키는 핸들을 포함하는 적어도 하나의 사운드 트레이닝 디바이스; 및
    상기 적어도 하나의 타겟 사운드의 생성을 위한 적절한 혀 위치들에 대응하는 각각의 타켓에 있거나 타겟 근처에 있는 적어도 하나의 센서로서, 상기 화자의 구강 내의 디바이스의 삽입이 의도된 타겟에 있거나 타겟 근처에 있는 적어도 하나의 센서를 자동으로 배치하도록 각각의 디바이스 상의 적어도 하나의 노드에 있거나 적어도 하나의 노드 근처에 있는 상기 적어도 하나의 센서를 포함하며;
    상기 적어도 하나의 센서는 상기 혀가 상기 의도된 타겟과 접촉할 때 상기 적어도 하나의 타셋 사운드의 발음 정확도를 검출하고;
    상기 적어도 하나의 사운드 트레이닝 디바이스는 적어도 하나의 발음 평가 애플리케이션을 실행시키는 하나 이상의 컴퓨팅 디바이스들과 통신하는 네트워크 연결 사운드 트레이닝 디바이스인 구강내 바이오피드백 시스템.
  10. 제 9 항에 있어서, 상기 적어도 하나의 네트워크 연결 사운드 트레이닝 디바이스와 통신하는 서버로서,
    상기 시스템을 네트워크를 통해 네트워크 인터페이스에 의해 액세스하는 것; 및
    상기 화자의 혀가 상기 의도된 타겟과 접촉할 때 상기 적어도 하나의 타겟 사운드의 발음 정확도를 검출하는 적어도 하나의 센서로부터 정보를 획득하는 것을 포함하는 동작들을 수행하도록 구성되는 상기 서버를 더 포함하는 구강내 바이오피드백 시스템.
  11. 제 10 항에 있어서, 상기 네트워크 인터페이스는,
    상기 네트워크를 통해 통신하는 것;
    상기 적어도 하나의 사운드 트레이닝 디바이스와 상기 하나 이상의 컴퓨팅 디바이스들 사이의 통신을 용이하게 하는 것; 및
    상기 화자의 발음 정확도의 하나 이상의 표현들을 생성하는 것 중 적어도 하나를 수행하도록 구성되는 구강내 바이오피드백 시스템.
  12. 제 11 항에 있어서, 상기 서버는,
    소셜 네트워킹 시스템을 상기 네트워크를 통해 액세스하는 것;
    의도된 타겟 사운드들에 대해 생성될 수 있는 센서 출력들의 프로파일들의 데이터베이스를 구축하고 액세스하는 것; 및
    상기 데이터베이스 상의 저장을 위해 화자 프로파일 데이터 및 하나 이상의 일반적 진단 테스트들에 대응하는 데이터를 업로드하는 것 중 적어도 하나를 포함하는 동작들을 수행하도록 구성되는 구강내 바이오피드백 시스템.
  13. 제 12 항에 있어서,
    샘플 사운드를 프로파일들의 데이터베이스와 비교하는 것;
    상기 발음 정확도를 결정하는 것; 및
    하나 이상의 진단 및 연습 훈련들에 대응하는 갱신된 화자 프로파일 데이터 및 갱신된 데이터로 사용자에게 통지하는 통지를 생성하는 것 중 적어도 하나를 수행하도록 구성되는 엔진을 더 포함하는 구강내 바이오피드백 시스템.
  14. 제 9 항에 있어서, 상기 적어도 하나의 센서는 광 센서, 힘 감지 저항기, 브리지 센서, 용량성 센서, 스트레인 게이지 센서, 센서 어레이 및 임의의 균등물 및 그것의 조합 중 하나 이상을 포함하는 구강내 바이오피드백 시스템.
  15. 사운드 생성 동안 화자의 발음을 나타내는 구강내 피드백을 제공하여 사운드 생성 동안 화자의 발음 정확도를 사람에게 트레이닝하고 향상시키는 키트로서,
    사운드 트레이닝 디바이스에 대한 하나 이상의 헤드들로서, 각각의 헤드는 적어도 하나의 타겟 사운드의 정확한 발음을 위한 상기 화자의 혀의 정확한 위치를 표시하는 촉각 피드백을 환자에게 제공하기 위해 하나 이상의 노드들을 갖고, 적어도 하나의 센서는 상기 화자의 구강 내의 디바이스의 삽입이 상기 적어도 하나의 타겟 사운드의 생성을 위한 적절한 혀 위치들에 대응하는 의도된 타겟에 있거나 타겟 근처에 있는 적어도 하나의 센서를 자동으로 배치하도록 하나의 노드 디바이스에 또는 노드 디바이스 근처에 제공되는 상기 하나 이상의 헤드들; 및
    상기 하나 이상의 노드들을 상기 화자의 구강에 유지하고 위치시키는 상기 사운드 트레이닝 디바이스에 대한 하나 이상의 핸들들을 포함하며;
    상기 적어도 하나의 센서는 상기 혀가 상기 의도된 타겟과 접촉할 때 상기 적어도 하나의 타겟 사운드의 발음 정확도를 검출하고;
    상기 적어도 하나의 사운드 트레이닝 디바이스는 적어도 하나의 발음 평가 애플리케이션을 실행시키는 하나 이상의 컴퓨팅 디바이스들과 통신하는 네트워크 연결 사운드 트레이닝 디바이스인 키트.
  16. 제 15 항에 있어서, 상기 헤드들은 상기 화자의 혀가 적어도 하나의 타겟 사운드를 촉각 피드백을 통해 상기 화자에게 트레이닝하기 위해 화자의 혀의 적절한 위치를 위한 하나 이상의 타겟들을 상기 화자의 구강에서 접촉시킬 때 상이한 타겟 사운드들의 발음 정확도를 검출하도록 상기 핸들들과 선택적으로 교환가능하며, 상기 위치시키는 것은 상기 타겟 사운드가 트레이닝되는 것에 의존하고; 상기 타겟 사운드는 /b/, /f/, /h/, /m/, /n/, /p/, /v/, /w/, /θ/ /ð/, /wh/, /a/, /e/, /i/, /o/, /u/,
    Figure pct00005
    /ow/, /oy/, /a(r)/,
    Figure pct00006
    /i(r)/, /o(r)/, 또는 /u(r)/로부터 선택되는 키트.
  17. 제 16 항에 있어서, 컴퓨팅 디바이스에 로딩가능한 하나 이상의 상호작용 소프트웨어 애플리케이션들을 더 포함하는 키트.
  18. 제 17 항에 있어서, 소셜 네트워크를 통해 다른 사람들과의 협력을 위해 상기 화자에게 인터페이스를 제공하는 플랫폼을 액세스하는 명령어들을 포함하는 소프트웨어 애플리케이션들의 사용을 위한 명령어들을 더 포함하는 키트.
  19. 제 17 항에 있어서, 소프트웨어 애플리케이션들이 미리 로딩된 이동 디바이스를 더 포함하는 키트.
  20. 제 15 항에 있어서, 상기 화자의 혀가 상기 하나 이상의 노드들과 접촉하여 상기 적어도 하나의 타겟 사운드를 형성하기 위해 상기 구갓을 자유롭게 내비게이션하는 상태에서, 상기 화자의 구강 내의 위치에 상기 적어도 하나의 사운드 트레이닝 디바이스의 위치를 위한 하나 이상의 등록 특징들을 더 포함하는 키트.
  21. 적어도 하나의 타겟 사운드의 정확한 발음을 위한 피드백을 제공하기 위해 대상의 턱, 혀, 입술, 볼, 치아 또는 입과 관련되는 파라미터들의 평가를 위한 청구항 9의 시스템 및 청구항 15의 키트의 사용.
  22. 제 21 항에 있어서, 상기 파라미터들은 상기 대상의 턱, 혀, 입술, 볼, 치아 또는 입의 위치, 힘, 가속도, 속도, 변위 또는 크기를 포함하는 사용.
KR1020147007288A 2011-09-09 2012-09-07 스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들 KR20140068080A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161533087P 2011-09-09 2011-09-09
US61/533,087 2011-09-09
PCT/US2012/054114 WO2013036737A1 (en) 2011-09-09 2012-09-07 Intraoral tactile biofeedback methods, devices and systems for speech and language training

Publications (1)

Publication Number Publication Date
KR20140068080A true KR20140068080A (ko) 2014-06-05

Family

ID=47832577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147007288A KR20140068080A (ko) 2011-09-09 2012-09-07 스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들

Country Status (5)

Country Link
US (1) US20140220520A1 (ko)
JP (1) JP2014526714A (ko)
KR (1) KR20140068080A (ko)
CN (1) CN103828252B (ko)
WO (1) WO2013036737A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129773A1 (ko) * 2015-02-11 2016-08-18 주식회사 퓨처플레이 피드백을 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2018190668A1 (ko) * 2017-04-13 2018-10-18 인하대학교 산학협력단 두경부 조음기관의 물리 특성을 이용한 발화 의도 표현 시스템
KR20210033273A (ko) * 2019-09-18 2021-03-26 재단법인 경북아이티융합 산업기술원 인공 젖꼭지 타입 센서 기반 영유아 발달장애 조기 예측 시스템 및 그 방법
KR102325506B1 (ko) 2020-05-09 2021-11-12 우송대학교 산학협력단 가상현실 기반의 의사소통 개선 시스템 및 방법

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9226866B2 (en) 2012-10-10 2016-01-05 Susan Ann Haseley Speech therapy device
US9072478B1 (en) * 2013-06-10 2015-07-07 AutismSees LLC System and method for improving presentation skills
US10043413B2 (en) * 2014-05-08 2018-08-07 Baylor University Oral-based method and system for educating visually impaired students
US20170156922A1 (en) * 2014-07-16 2017-06-08 Hadassah Academic College Stutter control device
US9610141B2 (en) 2014-09-19 2017-04-04 Align Technology, Inc. Arch expanding appliance
US10449016B2 (en) 2014-09-19 2019-10-22 Align Technology, Inc. Arch adjustment appliance
WO2016134331A1 (en) * 2015-02-19 2016-08-25 Tertl Studos Llc Systems and methods for variably paced real-time translation between the written and spoken forms of a word
CN104758111B (zh) * 2015-04-03 2016-09-21 侯德刚 语言节律控制器
US20160307453A1 (en) * 2015-04-16 2016-10-20 Kadho Inc. System and method for auditory capacity development for language processing
WO2016168738A1 (en) * 2015-04-17 2016-10-20 Declara, Inc. System and methods for haptic learning platform
JP6810949B2 (ja) * 2016-07-08 2021-01-13 国立大学法人岩手大学 口腔内感覚刺激を利用した構音訓練システム
WO2018098406A1 (en) * 2016-11-28 2018-05-31 Intellivance, Llc Multi-sensory literacy acquisition method and system
WO2018102702A1 (en) * 2016-12-02 2018-06-07 Align Technology, Inc. Dental appliance features for speech enhancement
WO2018102770A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Force control, stop mechanism, regulating structure of removable arch adjustment appliance
AU2017366755B2 (en) 2016-12-02 2022-07-28 Align Technology, Inc. Methods and apparatuses for customizing rapid palatal expanders using digital models
EP3547952B1 (en) 2016-12-02 2020-11-04 Align Technology, Inc. Palatal expander
US10969867B2 (en) 2016-12-15 2021-04-06 Sony Interactive Entertainment Inc. Information processing system, controller device, controller device control method and program
US10963054B2 (en) * 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Information processing system, vibration control method and program
US10963055B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Vibration device and control system for presenting corrected vibration data
US10319250B2 (en) * 2016-12-29 2019-06-11 Soundhound, Inc. Pronunciation guided by automatic speech recognition
US10470979B2 (en) 2017-01-24 2019-11-12 Hive Design, Inc. Intelligent pacifier
JP6265454B1 (ja) * 2017-02-14 2018-01-24 株式会社プロナンスティック 発音矯正器具
WO2018193513A1 (ja) 2017-04-18 2018-10-25 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
WO2018193514A1 (ja) 2017-04-18 2018-10-25 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11013990B2 (en) 2017-04-19 2021-05-25 Sony Interactive Entertainment Inc. Vibration control apparatus
US11458389B2 (en) 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
WO2019023373A1 (en) * 2017-07-28 2019-01-31 Wichita State University SYSTEMS AND METHODS FOR EVALUATING ORAL FUNCTION
WO2019038887A1 (ja) 2017-08-24 2019-02-28 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11779836B2 (en) 2017-08-24 2023-10-10 Sony Interactive Entertainment Inc. Vibration control apparatus
WO2019043781A1 (ja) 2017-08-29 2019-03-07 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置、振動制御方法、及びプログラム
AU2019251474A1 (en) 2018-04-11 2020-10-29 Align Technology, Inc. Releasable palatal expanders
CN109259913B (zh) * 2018-10-19 2024-04-30 音置声学技术(上海)工作室 用于辅助声带闭合训练发声的矫治器
CN110085101B (zh) * 2019-03-27 2021-04-23 沈阳工业大学 面向失聪儿童的双语发音进阶训练器及其训练方法
CN110007767A (zh) * 2019-04-15 2019-07-12 上海交通大学医学院附属第九人民医院 人机交互方法和舌训练系统
US11712366B1 (en) * 2019-12-12 2023-08-01 Marshall University Research Corporation Oral therapy tool, system, and related methods
CN111341180A (zh) * 2020-03-20 2020-06-26 韩笑 一种发音矫正工具及其使用方法
TWI768412B (zh) * 2020-07-24 2022-06-21 國立臺灣科技大學 發音教學方法
US20220238110A1 (en) * 2021-01-25 2022-07-28 The Regents Of The University Of California Systems and methods for mobile speech therapy
US20220300083A1 (en) * 2021-03-19 2022-09-22 Optum, Inc. Intra-oral device for facilitating communication
US11688106B2 (en) * 2021-03-29 2023-06-27 International Business Machines Corporation Graphical adjustment recommendations for vocalization

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3448170B2 (ja) * 1996-12-02 2003-09-16 山武コントロールプロダクト株式会社 発声練習訓練器と発声練習訓練システムで用いられる端末装置及びホスト装置
GB2387709B (en) * 2000-11-15 2005-04-06 Logometrix Corp Method for utilizing oral movement and related events
US20090326604A1 (en) * 2003-11-26 2009-12-31 Wicab, Inc. Systems and methods for altering vestibular biology
US7602301B1 (en) * 2006-01-09 2009-10-13 Applied Technology Holdings, Inc. Apparatus, systems, and methods for gathering and processing biometric and biomechanical data
EP2126901B1 (en) * 2007-01-23 2015-07-01 Infoture, Inc. System for analysis of speech
JP5016117B2 (ja) * 2008-01-17 2012-09-05 アーティキュレイト テクノロジーズ インコーポレーティッド 口腔内触知フィードバックのための方法及び装置
US8242880B2 (en) * 2008-05-29 2012-08-14 Georgia Tech Research Corporation Tongue operated magnetic sensor systems and methods
WO2012051605A2 (en) * 2010-10-15 2012-04-19 Jammit Inc. Dynamic point referencing of an audiovisual performance for an accurate and precise selection and controlled cycling of portions of the performance

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129773A1 (ko) * 2015-02-11 2016-08-18 주식회사 퓨처플레이 피드백을 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2018190668A1 (ko) * 2017-04-13 2018-10-18 인하대학교 산학협력단 두경부 조음기관의 물리 특성을 이용한 발화 의도 표현 시스템
KR20210033273A (ko) * 2019-09-18 2021-03-26 재단법인 경북아이티융합 산업기술원 인공 젖꼭지 타입 센서 기반 영유아 발달장애 조기 예측 시스템 및 그 방법
KR102325506B1 (ko) 2020-05-09 2021-11-12 우송대학교 산학협력단 가상현실 기반의 의사소통 개선 시스템 및 방법

Also Published As

Publication number Publication date
CN103828252A (zh) 2014-05-28
US20140220520A1 (en) 2014-08-07
JP2014526714A (ja) 2014-10-06
WO2013036737A1 (en) 2013-03-14
CN103828252B (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
KR20140068080A (ko) 스피치 및 언어 트레이닝을 위한 구강내 촉각 바이오피드백 방법들, 디바이스들 및 시스템들
US9990859B2 (en) Intraoral tactile biofeedback methods, devices and systems for speech and language training
Kent Nonspeech oral movements and oral motor disorders: A narrative review
US9711063B2 (en) Methods and devices for intraoral tactile feedback
Robb Intro: A guide to communication sciences and disorders
Alighieri et al. Effectiveness of speech intervention in patients with a cleft palate: Comparison of motor-phonetic versus linguistic-phonological speech approaches
Di Nuovo et al. Assessment of cognitive skills via human-robot interaction and cloud computing
Peng et al. Evaluating a 3-D virtual talking head on pronunciation learning
Sandler et al. Sign languages
Milloy Breakdown of speech: Causes and remediation
FLETCHER New prospects for speech by the hearing impaired
Ondáš et al. Towards robot-assisted children speech audiometry
Grove Developing intelligible signs with learning‐disabled students: A review of the literature and an assessment procedure
Landis et al. The speech-language pathology treatment planner
Erber Auditory Communication for Deaf Children: A guide for teachers, parents and health professionals
Howland Music therapy for children with speech and language disorders
Öster Computer-based speech therapy using visual feedback with focus on children with profound hearing impairments
Scherer et al. Panel The integration of voice science, voice pathology, medicine, public speaking, acting, and singing
Baker Disability, Lifelong Musical Engagement, and Care
Basha Speech-reading Intervention for Profoundly Deaf Child The Case of Hosanna School for the Deaf, Ethiopia
Yousif Phonological development in children with Down Syndrome: an analysis of patterns and intervention strategies
AbdelKarim Elsayed et al. Diagnosis and Differential Diagnosis of Developmental Disorders of Speech and Language
da Silva Sousa Prosodic exercises for children with ASD via virtual therapy
Mendez Do bilingual speakers shift fundamental frequency based on language acquisition or language dominance?
Skyring French Horn Players’ Attitudes Regarding the Accurate Application of Anatomical Knowledge in Optimal Playing Philosophies

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid