WO2014142328A1 - 聴力検査装置、聴力検査方法および聴力検査用単語作成方法 - Google Patents

聴力検査装置、聴力検査方法および聴力検査用単語作成方法 Download PDF

Info

Publication number
WO2014142328A1
WO2014142328A1 PCT/JP2014/056994 JP2014056994W WO2014142328A1 WO 2014142328 A1 WO2014142328 A1 WO 2014142328A1 JP 2014056994 W JP2014056994 W JP 2014056994W WO 2014142328 A1 WO2014142328 A1 WO 2014142328A1
Authority
WO
WIPO (PCT)
Prior art keywords
word
hearing
question
unit
words
Prior art date
Application number
PCT/JP2014/056994
Other languages
English (en)
French (fr)
Inventor
成紀 森田
英樹 葉山
直樹 坂
亜希子 味元
良一 松嶋
敏明 正木
崇央 楠浦
Original Assignee
日東電工株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日東電工株式会社 filed Critical 日東電工株式会社
Priority to US14/777,006 priority Critical patent/US20160045142A1/en
Priority to CN201480016026.3A priority patent/CN105072999A/zh
Priority to KR1020157024523A priority patent/KR20150131022A/ko
Priority to SG11201507683RA priority patent/SG11201507683RA/en
Priority to EP14765378.6A priority patent/EP2974654A4/en
Publication of WO2014142328A1 publication Critical patent/WO2014142328A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • A61B5/123Audiometering evaluating hearing capacity subjective methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the method for creating a word for hearing test includes: A word selection step for arbitrarily selecting a word from the dictionary; An abnormal hearing conversion step of converting the word selected in the word selection step into an abnormal hearing; A word search step for searching whether or not the word that has been subjected to the abnormal conversion in the abnormal conversion step exists in the dictionary; and A word recording step of recording the word in the recording unit when searched as a word present in the word searching step; It is characterized by providing.
  • the abnormal hearing conversion step includes one of the characters of the word selected in the word selection step based on an abnormal hearing matrix indicating an abnormal hearing tendency of a predetermined word group. It is preferable that it is the process which replaces a part.
  • the recording unit 2 records words that may be mistakenly heard by people with weak hearing.
  • the recording unit 2 is configured by, for example, a database, and a plurality of words that may be mistakenly heard and candidate words that are mistakenly heard are associated and recorded. Specific words will be described later with reference to FIG.
  • the CPU 10 includes a question creation unit 11 and a determination unit 12.
  • the CPU 10 has a question creation function as the question creation unit 11 and a hearing discrimination function as the discrimination unit 12.
  • the question creation unit 11 arbitrarily selects a word recorded in the recording unit 2 that may be mistakenly heard, and creates a question sentence for hearing test including at least one selected word. Sentence examples constituting the question sentence are prepared in advance and stored, for example, in storage means (not shown). The question creating unit 11 creates a question sentence by combining the word selected from the recording unit 2 and the sentence example stored in the storage unit. Note that the sentence example combined with the selected word may be recorded in the recording unit 2 in advance, or may be created by the operator using the input unit 5, for example.
  • the question text created by the question creation unit 11 is output via the question output unit 4.
  • the question output unit 4 outputs the question text by voice, and presents the output question text to the respondent, that is, the subject of the hearing test.
  • the question output unit 4 can be configured by a speaker, for example. Moreover, you may make it comprise in the format which the inspector of the side which performs a hearing test reads a question sentence to an answerer (examinee).
  • FIG. 2 shows an example of an abnormal hearing matrix showing a group of words that may be mistakenly recorded in the recording unit 2.
  • the degree of hearing decline is divided into three levels of mild, moderate, and severe, and is displayed in the upper, middle, and lower stages in this order. Further, in the horizontal direction of each row, words that may be mistaken for each level of decay are displayed in association with candidate words that are mistaken.
  • FIG. 2 shows an abnormal hearing tendency depending on the degree of hearing loss.
  • mishearing between nasal sounds (“n” is “m”) are “NATOTO” for “MATTOU”, “NISHIN” for “MISHIN”, “Japan (NIHON)” ) ”Can be mistaken for“ MIHON ”.
  • frequency information indicating the frequency of use of the word is attached to each stored word and stored.
  • frequency information 500 is attached to the word “NATOTO” shown in the upper row
  • frequency information 150 is attached to “MATTOU”
  • “NISHIN” is attached to “NISHIN”.
  • frequency information of 400 is attached to “MISHIN”
  • 500 is attached to “NIHON”
  • 400 is attached to “MIHON”.
  • the frequency information in FIG. 2 indicates the number of hits of each word by Internet search.
  • the inspector calls a passerby on the street, for example, and asks for a hearing test.
  • the inspector speaks to the passerby as an investigator conducting a questionnaire survey so that the passerby is not known to be a test for testing hearing.
  • the hearing ability of the respondent is tested in the form of answering the questionnaire.
  • Fig. 3 shows a hearing test pattern in which one word is selected from two or more words.
  • the answer of the respondent to the question is input to the hearing test apparatus 1 via the input unit 5, for example (an example of an input step).
  • the respondent answers "NATOTO" to the question step S102
  • “NATOTO” is classified as a word that is easy to misunderstand even for a person with weak hearing loss. Therefore, the discrimination by the discrimination unit 12 in this hearing test pattern is a discrimination result of “no problem with hearing” (step S103: an example of a discrimination step).
  • step S110 when the respondent answers to this question other than “NATOTO”, “MATTOU”, “NISHIN”, “MISHIN” (step S110), the discrimination in the hearing test pattern results in “no discrimination” (step S111).
  • a question sentence is created by the question creation unit 11, and the created question sentence “Select the word you are interested in from the following words.“ United States (BEIKOKU) ”,“ Japan ( NIHON) ”and“ universe (UTYUU) ”are output to the respondent from the question output unit 4, for example (step S301: an example of a question output step).
  • the words “United States (BEIKOKU)”, “Japan (NIHON)”, and “Universe (UTYUU)” included in this question sentence are all words that are easily misunderstood by people with weak hearing. Is one of the word groups recorded in advance (see FIG. 2).
  • step S310 when the respondent responds to this question with “space (UTYUU)” (step S310), the respondent has not made a mistake in hearing the word “universe (UTYUU)”.
  • “universe (UTYUU)” is classified in the lower stage as a word that is easy to be mistaken by a person whose hearing loss is severe. Therefore, the discrimination in the hearing test pattern is a discrimination result that “does not correspond to severe decline (there is a possibility of moderate or mild decline)” (step S311).
  • the respondent answered “ITUU” to this question (step S312), the respondent mistakenly heard “UTYU” as “ITYUU”. Determined.
  • the abnormal hearing between “I (I)” and “U (U)” such as “University (UTYUU)” and “ITUU” is a hearing ability. Is shown in the lower row as a word that is easy to misunderstand. Therefore, in this case, the discrimination in the hearing test pattern is a discrimination result of “suspected of severe hearing loss” (step S313).
  • the respondent When the respondent answers “REIKUKU” to the first question (step S404), the respondent hears “USA (BEIKOKU)” as “REIKOKU”. It is determined that a mistake has been made. Then, as described in steps S304 and S305 in FIG. 5, the determination in the hearing test pattern results in “possibility of moderate or higher hearing loss”. That is, the determination result is that there is a possibility of moderate hearing loss and a possibility of severe hearing loss.
  • step S415 when the respondent answers “RISU” to the first question (step S415), the respondent makes a mistake in listening to the word “RISU”. Not done.
  • "Risu (RISU)" is classified as a word that is easy to be mistaken for a person with severe hearing loss. Therefore, the discrimination in the hearing test pattern has a discrimination result of “does not correspond to severe decline (there is a possibility of moderate or mild decline)” (step S416).
  • the determination unit 12 determines whether or not the respondent's hearing loss has decreased, and the determination result is displayed by the result output unit 6 (for example, by displaying on the display screen or printing Output to respondents).
  • the result output unit 6 for example, by displaying on the display screen or printing Output to respondents.
  • the question text is in the form of a questionnaire or quiz
  • respondents who have not lost their hearing will be able to answer their questions in a natural way without being conscious of hearing tests and determine their hearing. can do. Therefore, for example, a hearing aid seller can investigate people who need a hearing aid and people who do not need a hearing aid in advance, and sell the hearing aid efficiently.
  • the level of hearing loss depends on how the respondent makes a mistake in hearing the word, that is, whether the answer is “correct” or “incorrect”, but also by examining the content of the incorrect answer (listening mistake). Therefore, the hearing ability level of the respondent can be determined more accurately.
  • question sentences containing different words with different possibilities of hearing are prepared and presented to the respondents in stages in a questionnaire survey.
  • the level of hearing loss of the respondent can be determined finely and accurately based on the tendency of hearing loss depending on the degree of hearing loss.
  • the question text is output as voice
  • a unique survey result that can be derived from the questionnaire survey without outputting the result of the hearing test that is, A result irrelevant to the hearing test may be output so as not to notify that the hearing test has been performed.
  • step S501 an example of a word selection step.
  • the word extracted from the dictionary will be described as “USHI”.
  • the “ISHI” created by replacement is converted into Japanese notation using, for example, an electronic dictionary, a personal computer, or the like (step S504).
  • the description will be made assuming that the stone has been converted to “Ishi” (steps S502 to S504 are examples of an abnormal hearing conversion step).
  • the words “beef (USHI)” and “stone (ISHI)” to be additionally recorded are searched for on the Internet, for example, and the number of hits, that is, the possibility of actual use in daily life is attached and recorded as frequency information. (Step S508, see FIG. 2). In FIG. 2, 500 hits are recorded for both “cow (USHI)” and “stone (ISHI)”.
  • various databases such as a literature database, patent database, and paper database connected via a network are accessed and compared with information recorded in each database. As a result, words with a high hit count may be preferentially recorded in the recording unit 2.
  • the present invention is applicable not only to Japanese and English but also to other languages.
  • an abnormal hearing matrix described in “Acoustical Society of America 128 (2010) 444-455” may be used. Specifically, you can set English words that may be missed, such as “Deer” and “Tear”, “Sheep” and “Cheap”, “Peach” and “Beach”, “Seed” and “ Seat ”.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Animal Behavior & Ethology (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 本発明の装置は、聞き間違う可能性がある複数の単語が可能性の高低に基づいて分類された状態で記録された記録部(2)と、聞き間違う可能性がある単語を少なくとも1つ含む設問文章を音声出力する設問出力部(4)と、設問文章に対する回答を入力するための入力部(5)と、入力部(5)に入力された回答の内容に基づいて、回答者の聴力低下の少なくとも有無を判別する判別部(12)と、判別部(12)で判別された判別結果を出力する結果出力部(6)とを備える。

Description

聴力検査装置、聴力検査方法および聴力検査用単語作成方法
 本発明は、聴力検査装置、聴力検査方法および聴力検査用単語作成方法に関するものである。
 補聴器は、聴覚障害者にとって快適な生活を送るための大切な装備品である。補聴器の装着が必要であるにもかかわらず補聴器をつけずにいると難聴の症状が進行し、あまりに難聴の症状が進行すると言語の認識能力自体が失われてしまうこともある。その様な状態になってから補聴器を使用すると、音を認識することはできても言葉を理解できなくなってしまう虞がある。したがって、適切な時期に補聴器をつけ始めることが重要である。
 これに対して補聴器メーカーや販売店は、各難聴者にそれぞれ適した補聴器を早期に提供できるように様々な機会を設けている。例えば、聴力に不安を感じている人達のために聞こえ相談会を開いたり、Webサイトに簡単な聴力診断テストを設けて自由に利用できるようにしている。また、例えば、インターネットを利用した補聴器販売支援システムが提案されている(特許文献1参照)。
日本国特開2002-259714号公報
 日常生活している人にとって、耳が聞こえ難いという自覚があれば耳鼻科に行って診断を受けたり、補聴器販売店を訪問して相談し、聴力テストを受けたりすることができる。しかし、聴力の低下は徐々に進行するため、初期の状態で自覚することは困難である。また、特許文献1に記載されるようなシステムを用いて聴力テストを受ける機会を設定しても、聴力の衰えに自覚のない人は聴力テストを受けること自体に抵抗がある場合がある。この場合、聴力の衰えの自覚のない人に聴力テストを勧めてもその人の自尊心を傷つけてしまい、聴力テストを受けてもらえない場合がある。
 本発明の目的は、聴力の衰えの自覚のない人に違和感なく自然な形で聴力テストを受けてもらうことが可能な聴力検査装置、聴力検査方法および聴力検査用単語作成方法を提供することにある。
 上記課題を解決するために、本発明に係る聴力検査装置は、
 聞き間違う可能性がある複数の単語が前記可能性の高低に基づいて分類された状態で記録された記録部と、
 前記単語を少なくとも1つ含む設問文章を音声出力する設問出力部と、
 前記設問文章に対する回答を入力するための入力部と、
 前記入力部に入力された回答の内容に基づいて、回答者の聴力低下の少なくとも有無を判別する判別部と、
 前記判別部で判別された判別結果を出力する結果出力部と、
を備えることを特徴とするものである。
 また、本発明の聴力検査装置において、前記記録部には、聞き間違う可能性がある単語とその聞き間違う候補の単語とが関連づけられた状態で記録されていることが好ましい。
 また、本発明の聴力検査装置において、前記設問出力部は、聞き間違う可能性の異なる前記単語を含む複数の前記設問文章を、前記入力部に入力された前記回答の内容に基づいて順次出力し、前記判別部は、複数の前記設問文章への回答の内容に基づいて、聴力低下のレベルを判別することが好ましい。
 また、本発明に係る聴力検査方法は、
 聞き間違う可能性が異なる複数の単語から選択された単語を少なくとも1つ含む設問文章を音声出力する設問出力ステップと、
 前記設問文章に対する回答を入力するための入力ステップと、
 前記入力ステップによって入力された回答の内容に基づいて、回答者の聴力低下の少なくとも有無を判別する判別ステップと、
 前記判別ステップで判別された判別結果を出力する結果出力ステップと、
を備えることを特徴とするものである。
 また、本発明に係る聴力検査用単語作成方法は、
 辞書から任意に単語を選択する単語選択ステップと、
 前記単語選択ステップで選択された単語を異聴変換する異聴変換ステップと、
 前記異聴変換ステップで異聴変換された単語が辞書に存在するか否かを検索する単語検索ステップと、
 前記単語検索ステップで存在する単語として検索された場合に、当該単語を前記記録部に記録する単語記録ステップと、
を備えることを特徴とするものである。
 また、本発明の聴力検査用単語作成方法において、前記異聴変換ステップは、所定の単語群の異聴傾向を示す異聴マトリクスに基づいて、前記単語選択ステップで選択された単語の文字の一部を入れ替える処理であることが好ましい。
 また、本発明の聴力検査用単語作成方法において、前記単語検索ステップで存在する単語として検索された単語の数が複数存在する場合、ネットワーク上のデータベースに記録された情報と比較して、比較の結果、使用頻度の高い単語を前記単語記録ステップで前記記録部に記録することが好ましい。
 本発明によれば、聴力の衰えの自覚のない人に違和感なく自然な形で聴力テストを受けてもらうことできる。
本発明に係る聴力検査装置の構成を示す図である。 図1に示す記録部に記録されている単語群の一例を示す図である。 本発明に係る聴力検査の手順の一例を示すフローチャートである。 本発明に係る聴力検査の手順の一例を示すフローチャートである。 本発明に係る聴力検査の手順の一例を示すフローチャートである。 本発明に係る聴力検査の手順の一例を示すフローチャートである。 本発明に係る聴力検査用単語作成手順の一例を示すフローチャートである。
 以下、本発明に係る聴力検査装置、聴力検査方法および聴力検査用単語作成方法の実施形態の一例を添付図面に基づいて説明する。 本発明は、日本語や英語に限らず、他言語にも同様に応用することができるが、以下の例では、日本語を用いた場合について説明する。以下の説明では、かぎ括弧「 」の中の用語は日本語の単語(ひらがな、片仮名、漢字)を示し、かぎ括弧「 」の中の丸括弧( )の中の表記は、かぎ括弧「 」の中の日本語の単語の読み方(音)をローマ字表記したものである。例えば、「鶴(TURU)」の”鶴”は日本語の単語であり、“TURU”は“鶴”の日本語の読み方(音)をローマ字表記したものである。
 図1は、聴力検査装置1の構成を示す。図1に示すように、聴力検査装置1は、聴力検査に用いられる単語群が記録された記録部2と、聴力検査装置1の動作を制御する制御部3と、聴力検査で用いられる検査用の設問文章を出力する設問出力部4と、聴力検査において設問に対する回答を入力するための入力部5と、聴力検査の判別結果を出力する結果出力部6とを備えている。
 記録部2は、聴力に衰えのある人が聞き間違う可能性のある単語を記録している。記録部2は、例えば、データベースにより構成されており、聞き間違う可能性がある単語とその聞き間違う候補の単語とが関連づけられ複数記録されている。具体的な単語については図2を参照して後述する。
 制御部3は、聴力検査時における装置1の各部の動作を制御する。制御部3は、その主構成部としてCPU10を有している。CPU10は、ROM13に記憶されたプログラムに従って各種処理を行ない、また、RAM14を各種データの格納領域として使用している。
 CPU10は、設問作成部11と、判別部12とを備えている。CPU10は、設問作成部11としての設問作成機能および判別部12としての聴力判別機能を有している。
 設問作成部11は、記録部2に記録されている聞き間違う可能性のある単語を任意に選択し、選択した単語を少なくとも1つ含む聴力検査のための設問文章を作成する。設問文章を構成する文例は予め準備されて、例えば、図示を省略する記憶手段に記憶しておく。設問作成部11は記録部2から選択した単語と記憶手段に記憶されている文例を組み合わせて設問文章を作成する。なお、選択した単語と組み合わせる文例は、例えば、予め記録部2に記録しておくようにしても良いし、または、入力部5によって操作者が作成するものであっても良い。
 設問作成部11で作成された設問文章は、設問出力部4を介して出力される。設問出力部4は、設問文章を音声によって出力し、出力した設問文章を回答者に対して、すなわち聴力検査の被検者に対して提示する。設問出力部4は、例えば、スピーカによって構成することができる。また、聴力検査を行う側の検査員が設問文章を回答者(被検者)に読み上げる形式で構成するようにしても良い。
 設問作成部11から音声出力される設問文章の内容は、例えば、あるテーマに関するアンケート調査形式によって、あるいはゲーム形式によって回答者に提示することができる。
 設問出力部4から出力(提示)された設問文章に対する回答者の回答は、入力部5を介して入力(回答)される。入力部5は、例えば、回答者の回答が音声として入力されるマイクロフォンによって構成することができる。また、入力部5は、回答者の回答が文字として入力されるキーボードあるいはタッチパネルによって構成するようにしても良い。マイクロフォン等5に入力された回答は電気信号に変換されて制御部3に入力される。
 入力部5から入力された回答は、制御部3の判別部12に入力される。判別部12は、入力された回答の内容に基づいて回答者の聴力低下の有無、さらには回答者の聴力低下のレベルを判別する。回答者の聴力低下の有無は、設問文章を正確に聞き取ることができているか否か、すなわち設問文章に含まれた聞き間違う可能性のある単語を聞き間違えていないかどうかによって判別している。また、聴力低下のレベルは、回答者が聞き間違う可能性のある単語について聞き間違いをしている場合に、その聞き間違えた文字の種類(異聴傾向)によって判別している。具体的な聴力のレベルについては図2を参照して後述する。
 判別部12によって判別された聴力検査の結果は、結果出力部6を介して出力される。結果出力部6は、例えば、表示画面(LCD、有機EL等)により構成することができる。結果出力部6上には、聴力検査における判別結果、すなわち聴力低下の有無、そして聴力低下が検出された場合にはその低下レベル等が表示される。また、結果出力部6に印刷部を含み、判別結果をプリントアウトできるように構成しても良い。
 図2は、記録部2に記録された聞き間違う可能性のある単語群を示す異聴マトリクスの一例を示している。図2に示すように、聴力の衰えの程度は、軽度、中度、重度の3段階に分けられ、この順番に上段、中段、下段に表示されている。また、各段の横方向には、各衰えの程度において聞き間違える可能性のある単語が聞き間違う候補の単語と関連づけて表示されている。図2は、聴力の衰えの程度による異聴傾向を示している。
 上段に示された聴力の衰えが軽度の場合、“t”を“k”に聞き間違える傾向、“d”を“b”あるいは“r”に聞き間違える傾向、“w”を“r”に聞き間違える傾向、通鼻音間(“n”と“m”)で聞き間違える傾向がある。
 “t”を“k”に聞き間違える例として、「鶴(TURU)」を「来る(KURU)」、「転倒(TENTOU)」を「健闘(KENTOU)」、「妻(TUMA)」を「熊(KUMA)」に聞き間違える例を挙げることができる。
 “d”を“b”,“r”に聞き間違える例として、「抱っこ(DAKKO)」を「ラッコ(RAKKO)」に聞き間違える例を挙げることができる。
 “w”を“r”に聞き間違える例として、「ワイフ(WAIHU)」を「ライフ(RAIHU)」に聞き間違える例を挙げることができる。
 通鼻音間(“n”を“m”)の聞き間違う例として、「納豆(NATTOU)」を「まっとう(MATTOU)」、「ニシン(NISHIN)」を「ミシン(MISHIN)」、「日本(NIHON)」を「見本(MIHON)」に聞き間違える例を挙げることができる。
 また、中段に示された聴力の衰えが中度の場合、聴力の衰えが軽度の場合に加えてさらに、無声子音間で聞き間違える傾向、“有声破裂音”を“r”に聞き間違える傾向、“r”を“通鼻音”に聞き間違える傾向がある。
 無声子音間で聞き間違える傾向の例として、「スイカ(SUIKA)」を「追加(TUIKA)」に聞き間違える例を挙げることができる。
 “有声破裂音”を“r”に聞き間違える例として、「米国(BEIKOKU)」を「冷酷(REIKOKU)」に聞き間違える例を挙げることができる。
 “r”を“通鼻音”に聞き間違える例として、「ロマン(ROMAN)」を「ノマン(NOMAN)」、「来週(RAISHUU)」を「内周(NAISHUU)」に聞き間違える例を挙げることができる。
 また、下段に示された聴力の衰えが重度の場合、聴力の衰えが中度の場合に加えてさらに、語頭子音付加の傾向、“イ(I)”と“ウ(U)”を聞き間違える傾向、“エ(E)”と“オ(O)”を聞き間違える傾向がある。
 語頭子音付加の傾向例として、「秋(AKI)」を「滝(TAKI)」、「雨(AME)」を「亀(KAME)」に聞き間違える例を挙げることができる。
 “イ(I)”と“ウ(U)”を聞き間違える傾向の例として、「うさぎ(USAGI)」と「いさぎ(ISAGI)」、「牛(USHI)」と「石(ISHI)」、「ウコン(UKON)」と「イコン(IKON)」、「リス(RISU)」と「ウス(USU)」、「宇宙(UTYUU)」と「意中(ITYUU)」を聞き間違える例を挙げることができる。
 “エ(E)”と“オ(O)”を聞き間違える傾向の例として、「駅(EKI)」と「沖(OKI)」を聞き間違える場合を挙げることができる。
 また、記憶された各単語には、その単語の使用頻度を示す頻度情報が添付されて記憶されている。例えば、図2では、上段に示した単語「納豆(NATTOU)」に500という頻度情報が添付され、「まっとう(MATTOU)」には150という頻度情報が添付され、「ニシン(NISHIN)」には300、「ミシン(MISHIN)」には400、「日本(NIHON)」には500、「見本(MIHON)」には400という頻度情報が添付されている。図2の頻度情報は、インターネット検索による各単語のヒット件数を示している。
 記録部2に記録されたこのような単語群の中から任意に単語が選択されて聴力検査のための設問文章が作成される。
 次に、図3から図6に示すフローチャートに基づいて聴力検査の手順を説明する。図3から図6は、それぞれ聴力検査パターンの一例を示す。
 先ず、検査員が、例えば街頭で通行人に声を掛けて、聴力テストを受けてもらう。この場合、聴力を検査するテストであることを通行人に知られないように、検査員はアンケート調査を行っている調査員として通行人に声を掛ける。そしてアンケートに回答してもらう形式において回答者(通行人)の聴力を検査する。また、通行人に声を掛ける場合、無作為に選ぶのではなく一般的に聴力に衰えを発生し易い年齢を考慮することが望ましい。
 図3は、2つ以上の言葉の中から1つの言葉を選択してもらう方式の聴力検査パターンである。
 聴力検査が開始されると、聴力検査装置1の設問作成部11によって記録部2から単語が選択され、その単語を少なくとも1つ含む設問文章が作成されて、設問出力部4から回答者に向けて出力される。すなわち、設問出力部4は、回答者に対して設問文章「あなたは「納豆(NATTOU)」と「ニシン(NISHIN)」ではどちらが好きですか」を音声出力する(ステップS101:設問出力ステップの一例)。この設問文章に含まれている「納豆(NATTOU)」および「ニシン(NISHIN)」という単語は、聴力に衰えが生じた場合に聞き間違い易い単語であり、記録部2に予め記録されている単語群の中の一つである(図2参照)。
 設問に対する回答者の回答は、例えば、入力部5を介して聴力検査装置1に入力される(入力ステップの一例)。設問に対して回答者が「納豆(NATTOU)」と回答した場合(ステップS102)には、その回答者は設問文章に含まれている単語を回答しており、「納豆(NATTOU)」という単語に対しては聞き間違いをしていない。そして、図2の異聴傾向の表に示されるように「納豆(NATTOU)」は聴力の衰えが軽度の人でも聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別部12の判別は“聴力に問題なし”という判別結果になる(ステップS103:判別ステップの一例)。
 また、この設問に対して回答者が「まっとう(MATTOU)」と回答した場合(ステップS104)には、その回答者は「納豆(NATTOU)」を「まっとう(MATTOU)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「納豆(NATTOU)」と「まっとう(MATTOU)」のような通鼻音間の異聴は、聴力の衰えが軽度、中度、および重度の人に聞き間違い易い単語として上段、中段、および下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“軽度の難聴の疑いあり(中度、重度の可能性もあり)”という判別結果になる(ステップS105)。
 また、この設問に対して回答者が「ニシン(NISHIN)」と回答した場合(ステップS106)には、その回答者は「ニシン(NISHIN)」という単語に対しては聞き間違いをしていない。図2の異聴傾向の表に示されるように「ニシン(NISHIN)」は聴力の衰えが軽度の人でも聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別は“聴力に問題なし”という判別結果になる(ステップS107)。
 また、この設問に対して回答者が「ミシン(MISHIN)」と回答した場合(ステップS108)には、その回答者は「ニシン(NISHIN)」を「ミシン(MISHIN)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「ニシン(NISHIN)」と「ミシン(MISHIN)」のような通鼻音間の異聴は聴力の衰えが軽度、中度、および重度の人に聞き間違い易い単語として上段、中段、および下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“軽度の難聴の疑いあり(中度、重度の可能性もあり)”という判別結果になる(ステップS109)。
 また、この設問に対して回答者が「納豆(NATTOU)」,「まっとう(MATTOU)」,「ニシン(NISHIN)」,「ミシン(MISHIN)」以外の回答をした場合(ステップS110)には、この聴力検査パターンにおける判別は“判別なし”という結果になる(ステップS111)。
 これらの判別結果は、結果出力部6を介して回答者に出力される(ステップS112:結果出力ステップの一例)。
 なお、判別結果は、回答者の氏名、住所等と共に顧客聴力情報として記録部2に記録される。
 続いて、図4は、1つの単語からその単語に関連する単語を選択してもらう方式の聴力検査パターンである。
 聴力検査が開始されると、設問作成部11によって設問文章が作成され、作成された設問文章「「うさぎ(USAGI)」がいるのは、「動物園」と「水族館」のどちらでしょうか」が、例えば、設問出力部4を介して回答者に対し音声出力されて提示される(ステップS201:設問出力ステップの一例)。この設問文章に含まれている「うさぎ(USAGI)」という単語は、聴力の衰えた人が聞き間違い易い単語であり、記録部2に予め記録されている単語群の中の一つである(図2参照)。
 設問に対する回答者の回答は、例えば、入力部5により入力される(入力ステップの一例)。設問に対して回答者が「動物園」と回答した場合(ステップS202)には、その回答者は「うさぎ(USAGI)」という単語に対しては聞き間違いをしていない。ところで、図2の異聴傾向の表に示されるように「うさぎ(USAGI)」は聴力の衰えが重度の人が聞き間違い易い単語として下段に分類されている。したがって、この聴力検査パターンにおける判別部12の判別は“重度の衰えには該当しない(中度、軽度の衰えの可能性はある)”という判別結果になる(ステップS203:判別ステップの一例)。
 また、この設問に対して回答者が「水族館」と回答した場合(ステップS204)には、その回答者は「うさぎ(USAGI)」を「いさぎ(ISAGI)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「うさぎ(USAGI)」と「いさぎ(ISAGI)」のような“イ(I)”と“ウ(U)”間の異聴は聴力の衰えが重度の人に聞き間違い易い単語として下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“重度の難聴の疑いあり”という判別結果になる(ステップS205)。
 また、この設問に対して回答者が「動物園」、「水族館」以外の回答をした場合(ステップS206)には、この聴力検査パターンにおける判別は“判別なし”という結果になる(ステップS207)。
 これらの判別結果は、結果出力部6により回答者に出力される(ステップS208)。なお、判別結果を記録部2に記録する点については、図3に示した聴力検査パターンと同様である。
 続いて、図5は、3つの単語の中から1つの単語を選択してもらう方式の聴力検査パターンの例である。
 聴力検査が開始されると、設問作成部11によって設問文章が作成され、作成された設問文章「次の単語の中から気になる単語を選んでください。「米国(BEIKOKU)」、「日本(NIHON)」、「宇宙(UTYUU)」」が、例えば、設問出力部4から回答者に対して出力される(ステップS301:設問出力ステップの一例)。この設問文章に含まれている「米国(BEIKOKU)」,「日本(NIHON)」,「宇宙(UTYUU)」という単語は、何れも聴力の衰えた人が聞き間違い易い単語であり、記録部2に予め記録されている単語群の中の一つである(図2参照)。
 設問に対する回答者の回答は、例えば、入力部5を介して入力される(入力ステップの一例)。設問に対して回答者が「米国(BEIKOKU)」と回答した場合(ステップS302)には、その回答者は「米国(BEIKOKU)」という単語に対しては聞き間違いをしていない。ところで、図2の異聴傾向の表に示されるように「米国(BEIKOKU)」は聴力の衰えが中度、および重度の人が聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別は“中度以上の衰えには該当しない(問題なしか、軽度の衰えの可能性はある)”という判別結果になる(ステップS303:判別ステップの一例)。
 また、この設問に対して回答者が「冷酷(REIKOKU)」と回答した場合(ステップS304)には、その回答者は「米国(BEIKOKU)」を「冷酷(REIKOKU)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「米国(BEIKOKU)」と「冷酷(REIKOKU)」のような“有声破裂音”と“r”の異聴は、聴力の衰えが中度、および重度の人に聞き間違い易い単語として中段、および下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“中度以上の聴力障害の可能性あり”という判別結果になる(ステップS305)。
 また、この設問に対して回答者が「日本(NIHON)」と回答した場合(ステップS306)には、その回答者は「日本(NIHON)」という単語に対しては聞き間違いをしていない。そして、図2の異聴傾向の表に示されるように「日本(NHON)」は聴力の衰えが軽度の人でも聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別は“聴力に問題なし”という判別結果になる(ステップS307)。
 また、この設問に対して回答者が「見本(MIHON)」と回答した場合(ステップS308)には、その回答者は「日本(NIHON)」を「見本(MIHON)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「日本(NIHON)」と「見本(MIHON)」のような通鼻音間の異聴は聴力の衰えが軽度、中度、および重度の人に聞き間違い易い単語として上段、中段、および下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“軽度以上の聴力障害の可能性あり”という判別結果になる(ステップS309)。
 また、この設問に対して回答者が「宇宙(UTYUU)」と回答した場合(ステップS310)には、その回答者は「宇宙(UTYUU)」という単語に対しては聞き間違いをしていない。ところで、図2の異聴傾向の表に示されるように「宇宙(UTYUU)」は聴力の衰えが重度の人が聞き間違い易い単語として下段に分類されている。したがって、この聴力検査パターンにおける判別は“重度の衰えには該当しない(中度、軽度の衰えの可能性はある)”という判別結果になる(ステップS311)。
 また、この設問に対して回答者が「意中(ITYUU)」と回答した場合(ステップS312)には、その回答者は「宇宙(UTYUU)」を「意中(ITYUU)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「宇宙(UTYUU)」と「意中(ITYUU)」のような“イ(I)”と“ウ(U)”間の異聴は聴力の衰えが重度の人に聞き間違い易い単語として下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“重度の難聴の疑いあり”という判別結果になる(ステップS313)。
 また、この設問に対して回答者が「米国(BEIKOKU)」,「日本(NIHON)」,「宇宙(UTYUU)」以外の回答をした場合(ステップS314)には、この聴力検査パターンにおける判別は“判別なし”という結果になる(ステップS315)。
 これらの判別結果は、結果出力部6を介して回答者に出力される(ステップS316)。なお、判別結果を記録部2に記憶する点については、図3に示した聴力検査パターンと同様である。
 続いて、図6は、2つ以上の言葉の中から1つの言葉を選択してもらう方式の聴力検査パターンの変形例である。この変形例では、回答者の回答に応じて複数の設問文章を順次提示し聴力検査を行う。
 聴力検査が開始されると、設問作成部11によって設問文章が作成され、作成された設問文章“次の単語の中から気になる単語を選んでください。「米国(BEIKOKU)」、「来週(RAISHUU)」、「リス(RISU)」」が、例えば、設問出力部4から回答者に対して出力される(ステップS401:設問出力ステップの一例)。この設問文章に含まれている「米国(BEIKOKU)」,「来週(RAISHUU)」,「リス(RISU)」という単語は、何れも聴力の衰えた人が聞き間違い易い単語であり、記録部2に予め記録されている単語群の中の一つである(図2参照)。
 設問に対する回答者の回答は、例えば、入力部5を介して入力される(入力ステップの一例)。設問(第1問目の設問という)に対して回答者が「米国(BEIKOKU)」と回答した場合(ステップS402)には、その回答者は「米国(BEIKOKU)」という単語に対しては聞き間違いをしていない。ところで、図2の異聴傾向の表に示されるように「米国(BEIKOKU)」は聴力の衰えが中度、および重度の人が聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別は“中度以上の衰えには該当しない(問題なしか、軽度の衰えの可能性はある)”という判別結果になる(ステップS403:判別ステップの一例)。
 また、第1問目の設問に対して回答者が「冷酷(REIKOKU)」と回答した場合(ステップS404)には、その回答者は「米国(BEIKOKU)」を「冷酷(REIKOKU)」と聞き間違えたと判別される。そして、図5のステップS304、S305で説明したのと同様に、聴力検査パターンにおける判別は“中度以上の聴力障害の可能性あり”という結果になる。つまり、中度の聴力障害の可能性もあるし、重度の可能性もあるという判別結果になる。
 そこで、判別結果をさらに明確にするために、その回答者に対して続けて第2問目の設問文章“次の言葉の中から気になる言葉を選んでください。「うさぎ(USAGI)」、「牛(USHI)」、「ウコン(UKON)」”が提示される(ステップS405)。
 第2問目の設問に対して回答者が「うさぎ(USAGI)」、「牛(USHI)」、あるいは「ウコン(UKON)」と回答した場合(ステップS406)には、その回答者は「うさぎ(USAGI)」,「牛(USHI)」,「ウコン(UKON)」という単語に対しては聞き間違いをしていない。そして、図2の異聴傾向の表に示されるように「うさぎ(USAGI)」,「牛(USHI)」,「ウコン(UKON)」は聴力の衰えが重度の人に聞き間違い易い単語として下段に分類されている。したがって、この第2問目の設問文章における聴力判別では“重度の衰えには該当しない”という判別結果になる。
 よって、第1問目と第2問目とから構成される設問文章を順次出力することで、この聴力検査パターンにおける最終的な判別は“中度の聴力障害の可能性あり”という判別結果になる(ステップS407)。
 また、第2問目の設問に対して回答者が「いさぎ(ISAGI)」,「石(ISHI)」,「イコン(IKON)」の何れかを回答した場合(ステップS408)には、その回答者は「うさぎ(USAGI)」を「いさぎ(ISAGI)」と、「牛(USHI)」を「石(ISHI)」と、「ウコン(UKON)」を「イコン(IKON)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、これらのような“イ(I)”と“ウ(U)”間の異聴は聴力の衰えが重度の人に聞き間違い易い単語として下段に示されている。したがって、この第2問目の設問文章における聴力判別では“重度の聴力障害の可能性あり”という判別結果になる。
 よって、第1問目と第2問目の設問文章を順次出力することで、この聴力検査パターンにおける最終的な判別は“重度の聴力障害の可能性あり”という判別結果になる(ステップS409)。
 また、第2問目の設問に対して回答者がそれ以外の回答をした場合(ステップS410)には、この聴力検査パターンにおける判別は“判別なし”という結果になる(ステップS411)。
 また、第1問目の設問に対して回答者が「来週(RAISHUU)」と回答した場合(ステップS412)には、その回答者は「来週(RAISHUU)」という単語に対しては聞き間違いをしていない。ところで、図2に示されるように「来週(RAISHUU)」は聴力の衰えが中度、および重度の人が聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別は“中度以上の衰えには該当しない(問題なしか、軽度の衰えの可能性はある)”という判別結果になる(ステップS413)。
 また、第1問目の設問に対して回答者が「内周(NAISHUU)」と回答した場合(ステップS414)には、その回答者は「来週(RAISHUU)」を「内周(NAISHUU)」と聞き間違えたと判別される。図2の異聴傾向の表に示されるように、「来週(RAISHUU)」と「内周(NAISHUU)」のようなrと通鼻音の異聴は、聴力の衰えが中度、および重度の人に聞き間違い易い単語として中段、および下段に示されている。したがって、この場合、この聴力検査パターンにおける判別は“中度以上の聴力障害の可能性あり”という判別結果になる。つまり、中度の聴力障害の可能性もあるし、重度の可能性もあるという判別結果になる。
 そこで、判別結果をさらに明確にするため、上記「冷酷(REIKOKU)」(ステップS404)の場合と同様にその回答者に対して続けて第2問目の設問文章が提示され、ステップS406からS411の処理が実行される。
 また、第1問目の設問に対して回答者が「リス(RISU)」と回答した場合(ステップS415)には、その回答者は「リス(RISU)」という単語に対しては聞き間違いをしていない。ところで、図2に示されるように「リス(RISU)」は聴力の衰えが重度の人に聞き間違い易い単語として分類されている。したがって、この聴力検査パターンにおける判別は“重度の衰えには該当しない(中度、軽度の衰えの可能性はある)”という判別結果になる(ステップS416)。
 また、第1問目の設問に対して回答者がそれ以外の回答をした場合(ステップS417)には、この聴力検査パターンにおける判別は“判別なし”という結果になる(ステップS418)。
 これらの判別結果は、結果出力部6を介して回答者に出力される(ステップS419)。なお、判別結果をデータベース等に記憶する点については、図3に示した聴力検査パターンと同様である。
 以上、説明したように、本実施形態の聴力検査装置1および聴力検査方法によれば、聴力の低下した人が聞き間違い易い単語を少なくとも1つ含む設問文章が設問出力部4によって(例えば、スピーカによる音声出力や調査員による読み上げによって)回答者に提示される。設問文章の具体的な内容は任意に設定されるがその形式はアンケート調査形式等であるため、回答者は自己が聞き取った設問文章の内容に対して答えることに注力し自分が聴力検査を受けているという感覚が生じにくい。従って、例えば自分の聴力が低下していないと自負する回答者に対して、聴力検査を意識させることなく、また、その回答者の自尊心を傷つけることなく、設問文章への回答を促すことができる。
 また、回答者が入力した回答の内容に基づいて判別部12により回答者の聴力低下の有無を判別し、その判別結果を結果出力部6によって(例えば、表示画面に表示することによって、あるいはプリントアウトすることによって)回答者に対し出力している。このように、回答者に対して判別部12による判別の結果を提示することによって、聴力の低下している回答者に対してその低下の程度を自覚させる機会を与えることができる。従って、例えば聴力の低下している回答者に対して、早期に補聴器の必要性を認識させ、聴力の低下が進んで言語の認識能力を失う前に補聴器の使用を促すことができる。
 また、設問文章がアンケート調査形式あるいはクイズ形式等であるため、聴力の低下していない回答者に対しても聴力検査を意識させずに無理なく自然な形で設問に回答してもらい聴力を判別することができる。従って、例えば補聴器販売者は、補聴器を必要とする人達と補聴器を必要としない人達とを事前に調査して、効率良く補聴器を販売することができる。
 また、聴力の衰えた被検者が聞き間違い易い単語を聞き間違う単語の候補とともに関連づけて記録部2に予め準備しているので、可能性のある多くの聞き間違いパターンに対しても広く対応することができ、回答者の聴力レベルをより正確に判定することができる。また、回答者から回答された単語が記録部2に記録される関連づけられた単語の組の中に含まれているか否かにより、回答者の聞き間違いが聴力の衰えによるものなのか、単なる勘違いによるものなのかを容易に判断することができる。
 また、回答者がどのように単語の聞き間違いをするかによって、すなわち回答が“正解”か“不正解”かだけでなく、不正解(聞き間違え)の内容を検討することによって聴力低下のレベルを判別することができるので、より正確に回答者の聴力レベルを判定することができる。また、聞き間違う可能性の異なる単語がそれぞれ含まれる設問文章を用意して、アンケート調査等の中でそれら複数の設問文章を回答者に対して段階的に順次提示するので、図2に示した聴力低下の程度による異聴傾向に基づいて回答者の聴力低下レベルを細かく正確に判別することができる。
 また、記録部2に記憶された各単語には、その単語の使用頻度を示す頻度情報が添付されて記憶されている。このため、設問作成部11は、使用頻度が同程度の単語を用いて複数のパターンの設問文章を作成することができ、回答者による回答に特定の単語に依存する偏りが発生することを防ぐことができる。
 なお、設問出力部4から出力される音声は、男性の音声の場合と女性の音声の場合によって周波数が異なる。そして、人は高周波の音ほど聞き取り難い傾向がある。したがって、アンケート形式で調査員が設問出力部4として本実施例を実現する場合、アンケート調査員が男性によって行われるか女性によって行われるかにより判別部12の判別基準を調整するようにしても良い。例えば、女性がアンケート調査を行った場合には、男性が行った場合よりも聴力低下レベルを1ランク良いレベルに調整してもよい。また、音声出力に周波数フィルターを掛けて高周波側の音量を下げて聞き難くすることにより判別基準を調整するようにしても良い。
 また、設問文章を音声出力するに際して、音声のイントネーションから設問内容を推測して判断することも考えられるので、音声出力はできる限り平坦な発音で行われることが望ましい。
 また、アンケート調査(聴力検査)の結果、聴力に衰えがないと判別された回答者に対しては、聴力検査の結果を出力せずに、アンケート調査から導き出すことができるユニークな調査結果、すなわち聴力検査とは無関係の結果を出力するようにして、聴力検査を実施したことを通知しないようにしても良い。
 次に、図7に示すフローチャートに基づいて、図2の記録部2に記録される聴力検査用単語の作成方法の一例について説明する。
 先ず、辞書を準備し、辞書に掲載されている単語を任意に抜き出す(ステップS501:単語選択ステップの一例)。ここでは辞書から抜き出した単語を「牛(USHI)」として以下説明する。
 抜き出した単語(「牛(USHI)」)をアルファベット表記に変換する(ステップS502:ローマ字変換ステップ)。「牛」をアルファベット表記にすると“USHI”になる。
 次に、図2に示した異聴マトリクスに基づいて、“USHI”の中から聞き間違う可能性のある文字(アルファベット)を、聞き間違える文字(アルファベット)に置き換える(ステップS503:アルファベット置換ステップ)。ここでは“USHI”の一部“U”を“I”に置き換えて“ISHI”に変換する。
 置き換えて作成した“ISHI”を、例えば、電子辞書、パソコン等を使用して日本語表記に変換する(ステップS504)。ここでは「石(ISHI)」に変換されたものとして説明する(ステップS502~S504が異聴変換ステップの一例)。
 日本語表記された「石(ISHI)」が単語として存在するか否か、すなわち辞書に表記されているか検索する(ステップS505:単語検索ステップの一例)。検索の結果から辞書に表記されているか否か判別し(ステップS506)、表記されている場合には、記録部2に追加して記録する(ステップS507:単語記録ステップの一例)。記録する際には、聞き間違う可能性がある単語「牛(USHI)」とその聞き間違う候補の単語「石(ISHI)」とを関連づけて記録する(図2参照)。なお、関連づけて記録する候補の単語数は複数個であっても良い。
 また、追加して記録する単語「牛(USHI)」と「石(ISHI)」を例えばインターネットで検索し、そのヒット件数、すなわち日常において実際に使用され得る可能性を頻度情報として添付し記録する(ステップS508、図2参照)。図2では「牛(USHI)」と「石(ISHI)」のヒット件数は共に500が記録されている。なお、聞き間違う候補の単語の数が複数存在する場合には、ネットワークで接続された文献データベース、特許データベース及び論文データベース等の各種データベースにアクセスし、各データベースに記録された情報と比較し照合した結果、ヒット件数が高い単語を優先して記録部2に記録するようにしても良い。または、ヒット件数だけでなく、その単語の一般消費者に対する認知度(例えば漢字であれば常用漢字であるか否か等)も考慮して総合的に判断する基準として周知度を設定して、その周知度を記録する構成としてもよい。なお、図2に示した異聴マトリクスでは、頻度情報(ヒット件数)を単語毎に記録する例を例示したが、上記の周知度を記録する構成であってもよい。
 以上、説明したように、本実施形態の聴力検査用単語作成方法によれば、聴力検査装置1の記録部2に聞き間違える単語を記録するに際して、実際に使用され得る単語(辞書に掲載されている単語)を検索して記録しているので、回答者の多種の回答に対して広く対応することができ聴力レベルを正確に判定することができる。
 また、聴力検査装置1の記録部2に聞き間違える単語を記録するに際して、インターネット検索におけるヒット件数を参照しているので、実際に使用される可能性の高い単語を記録することができ、より正確に聴力レベルの判定を行うことができる。  
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2013年3月15日出願の日本特許出願・出願番号2013-054053に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、日本語や英語に限らず、他言語にも同様に応用することができる。例えば、本発明を英語に応用する場合は、”Acoustical Society of America 128(2010)444-455”に記載の異聴マトリクスなどを用いればよい。具体的には、聞き間違いの可能性のある英単語のセットして、例えば、”Deer”と”Tear”、”Sheep”と”Cheap”、”Peach”と”Beach”、”Seed”と”Seat”などが挙げられる。
 1:聴力検査装置、2:記録部、3:制御部、4:設問出力部、5:入力部、6:結果出力部、10:CPU、11:設問作成部、12:判別部 

Claims (7)

  1.  聞き間違う可能性がある複数の単語が前記可能性の高低に基づいて分類された状態で記録された記録部と、
     前記単語を少なくとも1つ含む設問文章を音声出力する設問出力部と、
     前記設問文章に対する回答を入力するための入力部と、
     前記入力部に入力された回答の内容に基づいて、回答者の聴力低下の少なくとも有無を判別する判別部と、
     前記判別部で判別された判別結果を出力する結果出力部と、
    を備えることを特徴とする聴力検査装置。
  2.  前記記録部には、聞き間違う可能性がある単語とその聞き間違う候補の単語とが関連づけられた状態で記録されていることを特徴とする請求項1に記載の聴力検査装置。
  3.  前記設問出力部は、聞き間違う可能性の異なる前記単語を含む複数の前記設問文章を、前記入力部に入力された前記回答の内容に基づいて順次出力し、
     前記判別部は、複数の前記設問文章への回答の内容に基づいて、聴力低下のレベルを判別することを特徴とする請求項1に記載の聴力検査装置。
  4.  聞き間違う可能性が異なる複数の単語から選択された単語を少なくとも1つ含む設問文章を音声出力する設問出力ステップと、
     前記設問文章に対する回答を入力するための入力ステップと、
     前記入力ステップによって入力された回答の内容に基づいて、回答者の聴力低下の少なくとも有無を判別する判別ステップと、
     前記判別ステップで判別された判別結果を出力する結果出力ステップと、
    を備えることを特徴とする聴力検査方法。
  5.  請求項1に記載の聴力検査装置の記録部に記録される単語を作成する単語作成方法であって、
     辞書から任意に単語を選択する単語選択ステップと、
     前記単語選択ステップで選択された単語を異聴変換する異聴変換ステップと、
     前記異聴変換ステップで異聴変換された単語が辞書に存在するか否かを検索する単語検索ステップと、
     前記単語検索ステップで存在する単語として検索された場合に、当該単語を前記記録部に記録する単語記録ステップと、
    を備えることを特徴とする聴力検査用単語作成方法。
  6.  前記異聴変換ステップは、所定の単語群の異聴傾向を示す異聴マトリクスに基づいて、前記単語選択ステップで選択された単語の文字の一部を入れ替える処理であることを特徴とする請求項5に記載の聴力検査用単語作成方法。
  7.  前記単語検索ステップで存在する単語として検索された単語の数が複数存在する場合、ネットワーク上のデータベースに記録された情報と比較して、比較の結果、使用頻度の高い単語を前記単語記録ステップで前記記録部に記録することを特徴とする請求項5または6に記載の聴力検査用単語作成方法。 
     
     
PCT/JP2014/056994 2013-03-15 2014-03-14 聴力検査装置、聴力検査方法および聴力検査用単語作成方法 WO2014142328A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/777,006 US20160045142A1 (en) 2013-03-15 2014-03-14 Hearing examination device, hearing examination method, and method for generating words for hearing examination
CN201480016026.3A CN105072999A (zh) 2013-03-15 2014-03-14 听力检查装置、听力检查方法以及听力检查用单词制作方法
KR1020157024523A KR20150131022A (ko) 2013-03-15 2014-03-14 청력 검사 장치, 청력 검사 방법 및 청력 검사용 단어 작성 방법
SG11201507683RA SG11201507683RA (en) 2013-03-15 2014-03-14 Hearing examination device, hearing examination method, and method for generating words for hearing examination
EP14765378.6A EP2974654A4 (en) 2013-03-15 2014-03-14 HEARING EXAMINATION DEVICE, HEARING EXAMINATION METHOD AND METHOD FOR PRODUCING HEARING EXAMINATION WORDS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013054053A JP2014176582A (ja) 2013-03-15 2013-03-15 聴力検査装置、聴力検査方法および聴力検査用単語作成方法
JP2013-054053 2013-03-15

Publications (1)

Publication Number Publication Date
WO2014142328A1 true WO2014142328A1 (ja) 2014-09-18

Family

ID=51536975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/056994 WO2014142328A1 (ja) 2013-03-15 2014-03-14 聴力検査装置、聴力検査方法および聴力検査用単語作成方法

Country Status (7)

Country Link
US (1) US20160045142A1 (ja)
EP (1) EP2974654A4 (ja)
JP (1) JP2014176582A (ja)
KR (1) KR20150131022A (ja)
CN (1) CN105072999A (ja)
SG (1) SG11201507683RA (ja)
WO (1) WO2014142328A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105118519A (zh) * 2015-07-10 2015-12-02 中山大学孙逸仙纪念医院 一种听力评估系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078859B2 (en) 2015-07-22 2018-09-18 Sara J. Sable System and method for consumer screening, selecting, recommending, and/or selling personal sound amplification products (PSAP)
CN109381193B (zh) * 2017-08-07 2021-07-20 圣布拉斯特有限公司 听力检测装置及其操作方法
US11074317B2 (en) 2018-11-07 2021-07-27 Samsung Electronics Co., Ltd. System and method for cached convolution calculation
JP2020130535A (ja) * 2019-02-18 2020-08-31 国立大学法人九州大学 音声伝達状況評価システム及び音声伝達状況評価方法
CN110134335B (zh) * 2019-05-10 2022-08-12 天津大学深圳研究院 一种基于键值对的rdf数据管理方法、装置及存储介质
US20220386902A1 (en) * 2019-11-21 2022-12-08 Cochlear Limited Scoring speech audiometry
KR102564571B1 (ko) 2021-04-19 2023-08-10 연세대학교 원주산학협력단 기계 학습에 기초한 순음청력검사의 자동화 결과 판독 장치 및 방법
WO2023209598A1 (en) * 2022-04-27 2023-11-02 Cochlear Limited Dynamic list-based speech testing

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0739540A (ja) * 1993-07-30 1995-02-10 Sony Corp 音声解析装置
JPH0938069A (ja) * 1995-08-02 1997-02-10 Nippon Telegr & Teleph Corp <Ntt> 語音聴力検査方法およびこの方法を実施する装置
US6026361A (en) * 1998-12-03 2000-02-15 Lucent Technologies, Inc. Speech intelligibility testing system
US20020107692A1 (en) * 2001-02-02 2002-08-08 Litovsky Ruth Y. Method and system for rapid and reliable testing of speech intelligibility in children
JP2002259714A (ja) 2001-02-27 2002-09-13 Towa Engineering Corp 補聴器販売支援システム及び方法
JP2002346213A (ja) * 2001-05-30 2002-12-03 Yamaha Corp 聴力測定機能を持つゲーム装置およびゲームプログラム
WO2006007632A1 (en) * 2004-07-16 2006-01-26 Era Centre Pty Ltd A method for diagnostic home testing of hearing impairment, and related developmental problems in infants, toddlers, and children
JP2013054053A (ja) 2011-08-31 2013-03-21 Brother Ind Ltd カートリッジ

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5911137B2 (ja) * 1976-02-14 1984-03-13 三菱電機株式会社 漢字入力方式
US5303327A (en) * 1991-07-02 1994-04-12 Duke University Communication test system
JPH07200615A (ja) * 1993-12-28 1995-08-04 Noriko Yoshii 言語抽出方法
US20070276285A1 (en) * 2003-06-24 2007-11-29 Mark Burrows System and Method for Customized Training to Understand Human Speech Correctly with a Hearing Aid Device
CN102202570B (zh) * 2009-07-03 2014-04-16 松下电器产业株式会社 语音清晰度评价系统、其方法
US9131876B2 (en) * 2009-08-18 2015-09-15 Samsung Electronics Co., Ltd. Portable sound source playing apparatus for testing hearing ability and method of testing hearing ability using the apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0739540A (ja) * 1993-07-30 1995-02-10 Sony Corp 音声解析装置
JPH0938069A (ja) * 1995-08-02 1997-02-10 Nippon Telegr & Teleph Corp <Ntt> 語音聴力検査方法およびこの方法を実施する装置
US6026361A (en) * 1998-12-03 2000-02-15 Lucent Technologies, Inc. Speech intelligibility testing system
US20020107692A1 (en) * 2001-02-02 2002-08-08 Litovsky Ruth Y. Method and system for rapid and reliable testing of speech intelligibility in children
JP2002259714A (ja) 2001-02-27 2002-09-13 Towa Engineering Corp 補聴器販売支援システム及び方法
JP2002346213A (ja) * 2001-05-30 2002-12-03 Yamaha Corp 聴力測定機能を持つゲーム装置およびゲームプログラム
WO2006007632A1 (en) * 2004-07-16 2006-01-26 Era Centre Pty Ltd A method for diagnostic home testing of hearing impairment, and related developmental problems in infants, toddlers, and children
JP2013054053A (ja) 2011-08-31 2013-03-21 Brother Ind Ltd カートリッジ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP2974654A4
THE JOURNAL OF THE ACOUSTICAL SOCIETY OF AMERICA, vol. 128, 2010, pages 444 - 45 5

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105118519A (zh) * 2015-07-10 2015-12-02 中山大学孙逸仙纪念医院 一种听力评估系统

Also Published As

Publication number Publication date
EP2974654A1 (en) 2016-01-20
US20160045142A1 (en) 2016-02-18
SG11201507683RA (en) 2015-10-29
EP2974654A4 (en) 2016-11-16
JP2014176582A (ja) 2014-09-25
CN105072999A (zh) 2015-11-18
KR20150131022A (ko) 2015-11-24

Similar Documents

Publication Publication Date Title
WO2014142328A1 (ja) 聴力検査装置、聴力検査方法および聴力検査用単語作成方法
Guion et al. An investigation of current models of second language speech perception: The case of Japanese adults’ perception of English consonants
Holmes et al. Familiar voices are more intelligible, even if they are not recognized as familiar
Bent et al. Classification of regional dialects, international dialects, and nonnative accents
Alves et al. Prosody and reading in dyslexic children
Nelson et al. Reading, writing, and spoken language assessment profiles for students who are deaf and hard of hearing compared with students with language learning disabilities
Stoyneshka et al. Phoneme restoration methods for investigating prosodic influences on syntactic processing
Kalra et al. Do you like my English? Thai students’ attitudes towards five different Asian accents
Shafiro et al. Perceptual confusions of American-English vowels and consonants by native Arabic bilinguals
Harris et al. Psychometrically equivalent Russian speech audiometry materials by male and female talkers: materiales de logoaudiometría en ruso psicométricamente equivalentes para hablantes masculinos y femeninos
Georgiou Discrimination of uncategorized-categorized and uncategorized-uncategorized Greek consonantal contrasts by Russian speakers
Dean et al. Clinical evaluation of the mini-mental state exam with culturally deaf senior citizens
Myles The clinical use of Arthur Boothroyd (AB) word lists in Australia: exploring evidence-based practice
Freeman et al. First-language influence on second language speech perception depends on task demands
Yap et al. Intonation patterns of questions in Malaysian English
De La Plata et al. Development of the Texas Spanish Naming Test: a test for Spanish speakers
Lev-Ari et al. How the demographic makeup of our community influences speech perception
Hung et al. Development, reliability, and validity of the oral reading assessment for Mandarin-speaking children with hearing loss
El Adas et al. Phonotactic and lexical factors in talker discrimination and identification
Linassi et al. Working memory abilities and the severity of phonological disorders
Baltazani et al. Drifting without an anchor: How pitch accents withstand vowel loss
Williams et al. Sensitivity to the acoustic correlates of lexical stress and their relationship to reading in skilled readers
Shen et al. Accent categorisation by lay listeners: Which type of “native ear” works better
George et al. Community-based naming agreement, familiarity, image agreement and visual complexity ratings among adult Indians
Santos Oliveira et al. Effects of language experience on the discrimination of the Portuguese palatal lateral by nonnative listeners

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480016026.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14765378

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20157024523

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014765378

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14777006

Country of ref document: US

Ref document number: 2014765378

Country of ref document: EP