JP7479013B2 - Method, program, and system for assessing cognitive function - Google Patents
Method, program, and system for assessing cognitive function Download PDFInfo
- Publication number
- JP7479013B2 JP7479013B2 JP2021537304A JP2021537304A JP7479013B2 JP 7479013 B2 JP7479013 B2 JP 7479013B2 JP 2021537304 A JP2021537304 A JP 2021537304A JP 2021537304 A JP2021537304 A JP 2021537304A JP 7479013 B2 JP7479013 B2 JP 7479013B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- cognitive function
- unit
- voice
- license
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 294
- 230000003920 cognitive function Effects 0.000 title claims description 144
- 230000008569 process Effects 0.000 claims description 177
- 238000004891 communication Methods 0.000 claims description 128
- 238000012360 testing method Methods 0.000 claims description 63
- 238000012795 verification Methods 0.000 claims description 38
- 230000008859 change Effects 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims 4
- 230000015654 memory Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 20
- 230000004044 response Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 17
- 230000002265 prevention Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 238000010998 test method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- 241000102542 Kara Species 0.000 description 1
- 241001026509 Kata Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1172—Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Resources & Organizations (AREA)
- Evolutionary Computation (AREA)
- Strategic Management (AREA)
Description
本開示は一般に認知機能の判定方法、プログラム、認知機能の判定システムに関し、より詳細には、運転免許センターでの役務に関連して用いられる認知機能の判定方法、プログラム、認知機能の判定システムに関する。 The present disclosure relates generally to a method, program, and system for assessing cognitive function, and more specifically to a method, program, and system for assessing cognitive function used in connection with services at a driver's license center.
特許文献1には、自動車等の運転免許更新時における後期高齢者を対象として実施する認知機能検査の進行を管理するためのシステムが、開示されている。
特許文献1のシステムは、検査員が使用する検査員装置と、受検者が使用する複数台の端末装置とから構成される。The system in
複数の端末装置の各々は、タブレット型端末装置であり、表示画面上にタッチパネルを備える表示入力装置を有する。端末装置の表示画面上には、説明文、注意文、設問、回答欄等が表示される。受検者は、表示画面上に指または専用ペンを用いてタッチしたり、文字、数字等を手書きしたりして、解答等を入力する。検査員装置は、認知機能検査の進行管理のための情報を表示する表示装置を有する。 Each of the multiple terminal devices is a tablet-type terminal device, and has a display input device with a touch panel on the display screen. Explanations, warnings, questions, answer columns, etc. are displayed on the display screen of the terminal device. Test takers input answers, etc. by touching the display screen with their finger or a special pen, or by handwriting letters, numbers, etc. The examiner device has a display device that displays information for managing the progress of the cognitive function test.
特許文献1のシステムでは、認知機能検査の実施に時間がかかるため、免許更新時に認知機能検査を受検する受検者にかかる負担が大きくなり得る。また、高齢者人口の増加に伴い、免許更新時に認知機能検査の受検が必要な対象者の数も増加しているため、一人当たりの認知機能検査の実施にかかる時間が長くなると、運転免許センターにかかる負担も大きくなり得る。In the system of
本開示は、上記事由に鑑みてなされており、免許更新時の負担の軽減を図ることが可能な認知機能の判定方法、プログラム、及び認知機能の判定システムを提供することを目的とする。 This disclosure has been made in consideration of the above reasons, and aims to provide a method, program, and system for assessing cognitive function that can reduce the burden at the time of license renewal.
本開示の一態様に係る認知機能の判定方法は、提示部と音声取得部と推定部と反映部とを備える認知機能の判定システムによる判定方法である。前記判定方法は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センターにおける、対象者への前記役務の提供に際して用いられる。前記判定方法は、提示処理と、音声取得処理と、推定処
理と、反映処理と、を備える。前記提示処理では、前記提示部が、前記対象者に定型文の読み上げを促す情報を提示する。前記音声取得処理では、前記音声取得部が、前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する。前記推定処理では、前記推定部が、前記音声取得処理で取得された前記音声データに基づいて、前記対象者の認知機能を推定する。前記反映処理では、前記反映部が、前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定処理の結果を反映させる。前記提示処理では、前記運転免許証に関連する質問を前記対象者に提示する。前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含む。前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む。
A cognitive function assessment method according to an embodiment of the present disclosure is a cognitive function assessment method using a cognitive function assessment system including a presentation unit, a voice acquisition unit, an estimation unit, and a reflection unit. The assessment method is used when a driver's license center that performs at least one of the services of issuing and renewing a driver's license provides the service to a subject. The assessment method includes a presentation process, a voice acquisition process, an estimation process, and a reflection process. In the presentation process, the presentation unit presents information that prompts the subject to read a standard phrase. In the voice acquisition process, the voice acquisition unit causes the subject to perform the reading and acquires voice data related to the reading. In the estimation process, the estimation unit estimates the cognitive function of the subject based on the voice data acquired in the voice acquisition process. In the reflection process, the reflection unit reflects the result of the estimation process in the procedure for providing the service to the subject at the driver's license center or in a decision on whether or not the service can be provided. In the presentation process, a question related to the driver's license is presented to the subject. The question includes a content that prompts the subject to read out the fixed phrase as an answer to the question. The question includes a question that prompts the subject to answer the speed indicated by a speedometer by displaying an image of a speedometer on a display unit of a communication device that acquires the subject's voice, or a question that prompts the subject to answer a place name and a number by displaying an image of a license plate on the display unit.
本開示の一態様に係るプログラムは、上記の認知機能の判定方法を、1以上のプロセッサに実行させるプログラムである。 A program according to one aspect of the present disclosure is a program that causes one or more processors to execute the above-mentioned method for assessing cognitive function.
本開示の一態様に係る認知機能の判定システムは、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センターにおける、対象者への前記役務の提供に際して用いられる。前記判定システムは、提示部と、音声取得部と、推定部と、反映部と、を備える。前記提示部は、前記対象者に定型文の読み上げを促す情報を提示する。前記音声取得部は、前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する。前記推定部は、前記音声取得部で取得された前記音声データに基づいて、前記対象者の認知機能を推定する。前記反映部は、前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定部の推定結果を反映させる。前記提示部は、前記運転免許証に関連する質問を前記対象者に提示する。前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含む。前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む。
A cognitive function assessment system according to one aspect of the present disclosure is used when a driver's license center that performs at least one of issuing and renewing a driver's license provides the service to a subject. The assessment system includes a presentation unit, a voice acquisition unit, an estimation unit, and a reflection unit. The presentation unit presents information that prompts the subject to read a standard phrase. The voice acquisition unit causes the subject to perform the reading and acquires voice data related to the reading. The estimation unit estimates the cognitive function of the subject based on the voice data acquired by the voice acquisition unit. The reflection unit reflects the estimation result of the estimation unit in the procedure for providing the service to the subject at the driver's license center or in the determination of whether or not the service can be provided. The presentation unit presents a question related to the driver's license to the subject. The question includes content that prompts the subject to read the standard phrase as an answer to the question. The questions include questions that display an image of a speedometer on the display of a communication device that acquires the subject's voice and prompt the subject to answer the speed indicated by the meter, or questions that display an image of a license plate on the display and prompt the subject to answer a place name and number.
(1)概要
現在日本国では、75才以上のドライバーには、運転免許証の更新時に認知機能検査を受検することが義務づけられている。現状この認知機能検査は、主に、指導員が出す問題に対して受検者がテスト用紙に解答を記入する方式で実施されている。しかしながら、このような方式では、検査会場及び指導員の確保、解答内容の採点等のため、検査を実施する側の負担が大きくなる可能性がある。また、検査自体に時間がかかり、指定された時間に検査会場に向かう必要もあるため、受検者側にも負担を強いる可能性がある。本実施形態の認知機能の判定方法(以下、単に「判定方法」ともいう)及び認知機能の判定システム10(以下、単に「判定システム10」ともいう)は、一例として、このような認知機能検査の代替、或いは認知機能検査の受検者を絞り込むための一次スクリーニングとして用いられることを想定する。
(1) Overview Currently, in Japan, drivers aged 75 or older are required to take a cognitive function test when renewing their driver's license. Currently, this cognitive function test is mainly conducted by having the examinee write answers on a test paper to questions posed by an instructor. However, such a method may impose a heavy burden on the examinee in order to secure a test venue and instructors, and to grade the answers. In addition, the test itself takes time, and it is necessary to head to the test venue at a specified time, which may impose a burden on the examinee. The cognitive function assessment method (hereinafter also simply referred to as the "assessment method") and cognitive function assessment system 10 (hereinafter also simply referred to as the "
例えば、運転免許証の更新時に認知機能検査が義務づけられているドライバー(以下、「対象者2」ともいう)は、運転免許証の更新の通知を郵便等で受け取った場合、運転免許センター1で免許の更新を行う前に、本実施形態の認知機能の判定方法による検査を受検する。この検査結果は、運転免許センター1にて対象者2が運転免許証の更新を行う際に、上記の認知機能検査の代わりとして、或いは上記の認知機能検査の受検が必要な受検者を絞り込むために、用いられ得る。これにより、免許更新時にかかる負担を軽減することが可能となる。For example, when a driver (hereinafter also referred to as "
まず、本実施形態の認知機能の判定方法(以下、単に「判定方法」ともいう)、及び認知機能の判定システム10の概要について、説明する。First, we will explain the cognitive function assessment method of this embodiment (hereinafter also simply referred to as the "assessment method") and an overview of the cognitive
本実施形態の判定方法は、上述のように、運転免許センター1(図2参照)における、対象者2への役務の提供に際して用いられる。運転免許センター1は、ここでは、自動車運転免許証(以下、単に「運転免許証」ともいう)の新規交付(以下、「発行」ともいう)と更新との少なくとも一方の役務を行う施設又は場所を意味する。As described above, the determination method of this embodiment is used when providing services to a
本実施形態での運転免許センター1は、運転免許証の発行と更新との少なくとも一方の役務を行えばよく、運転免許試験場、交通安全(教育)センター、総合交通センター、運転(者)教育センター、運転者講習センター、免許センター、安全運転学校、試験場、(免許)更新センター等と呼ばれる施設を含み得る。また、本実施形態での運転免許センター1は、運転免許証の更新の役務を行う施設としての警察署を含んでもよい。運転免許センター1は、運転免許証の再交付等の、他の役務を更に行ってもよい。The driver's
図3に示すように、本実施形態の判定方法は、音声取得処理S6と、推定処理S9と、反映処理S12と、を含む。As shown in FIG. 3, the determination method of this embodiment includes an audio acquisition process S6, an estimation process S9, and a reflection process S12.
音声取得処理S6は、対象者2に定型文の読み上げを実行させ、読み上げに係る音声データを取得することを含む。推定処理S9は、音声取得処理S6で取得された音声データに基づいて、対象者2の認知機能を推定することを含む。反映処理S12は、運転免許センター1での対象者2への役務の提供の手順又は役務の提供の可否の判断に、推定処理S9の結果を反映させることを含む。The voice acquisition process S6 includes having the
判定システム10(図1参照)は、本実施形態の判定方法を具現化する一態様である。つまり、判定システム10は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センター1における、対象者2への役務の提供に際して用いられる。判定システム10は、音声取得処理S6を実行するための音声取得部F5と、推定処理S9を実行するための推定部F7と、反映処理S12を実行するための反映部F13と、を備えている。The determination system 10 (see FIG. 1) is one aspect that embodies the determination method of this embodiment. In other words, the
本実施形態の判定方法及び判定システム10では、対象者2への運転免許証の発行若しくは更新の際の手順又は可否の判断に反映されることとなる、対象者2の認知機能の推定を、対象者2が定型文の読み上げを行った際の音声を示す音声データに基づいて行っている。そのため、例えばテスト用紙に解答を記入してそれを採点する検査方法に比べて、認知機能の検査に要する時間及び手間を短縮することが可能となり、免許更新時に対象者2及び運転免許センター1にかかる負担を低減することが可能となる。要するに、本実施形態の判定方法及び判定システム10によれば、免許更新時の負担の軽減を図ることが可能となる。また、運転免許証の発行時に認知機能検査を行なう場合についても、本実施形態の認知機能の判定方法及び判定システム10を用いることで、免許発行時の負担の軽減を図ることが可能となる。In the determination method and
(2)詳細
以下、本実施形態の判定方法、判定システム10の詳細について、図1~図3を参照して説明する。
(2) Details Hereinafter, the determination method and the
(2.1)全体構成
図1、図2に、本実施形態の判定方法を実行するための判定システム10の構成を示す。
(2.1) Overall Configuration FIGS. 1 and 2 show the configuration of a
図1に示すように、判定システム10は、第1サーバ4と、第2サーバ5と、を備えている。判定システム10は、対象者2が所持する通話装置3と通信可能である。As shown in FIG. 1, the
ここでは、通話装置3は、対象者2によって携帯可能な装置を想定する。また、第1サーバ4は、本実施形態の判定方法の少なくとも一部をサービスとして提供する団体(企業等)の施設に設置されることを想定する。また、第2サーバ5は、運転免許センター1或いは運転免許センター1を管轄する団体の施設に設置されることを想定する。ただし、本実施形態はこのような配置に限定されない。
Here, the
通話装置3は、対象者2の音声を音声データに変換し、変換して得られた音声データを他の機器へ送信するための装置である。また、通話装置3は、他の機器から送信された音声データを、音声に変換して出力するよう構成されている。一例として、通話装置3としては、対象者2が所持する携帯端末、携帯電話又はパーソナルコンピュータである。携帯端末は、一例として、スマートフォン、タブレット端末等である。ここでは、通話装置3がスマートフォンであることを想定する。そのため、以下では、通話装置3が他の装置(第1サーバ4)と通信することを、「電話をかける」とも表現する。The
図1に示すように、通話装置3は、通信部31と通話部32とを備えている。また、本実施形態の通話装置3は、表示部33、操作部34及び処理部35を更に備えている。As shown in FIG. 1, the
通信部31は、通信インターフェースである。特に、通信部31は、電気通信回線NT1に接続可能な通信インターフェースであり、電気通信回線NT1を通じた通信を行う機能を有する。これにより、通話装置3は、電気通信回線NT1を通じて第1サーバ4と通信可能である(図2参照)。The
電気通信回線NT1は、例えば、移動体通信網、PSTN(公衆交換電話網)、インターネット等を含み得る。電気通信回線NT1は、単一の通信プロトコルに準拠したネットワークだけではなく、異なる通信プロトコルに準拠した複数のネットワークで構成され得る。通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。図2では簡略化されているが、電気通信回線NT1は、リピータハブ、スイッチングハブ、ブリッジ、ゲートウェイ、ルータ等のデータ通信機器を含み得る。The telecommunications line NT1 may include, for example, a mobile communications network, a PSTN (public switched telephone network), the Internet, etc. The telecommunications line NT1 may be composed of multiple networks conforming to different communications protocols, rather than a network conforming to a single communications protocol. The communications protocols may be selected from a variety of well-known wired and wireless communications standards. Although simplified in FIG. 2, the telecommunications line NT1 may include data communications equipment such as a repeater hub, a switching hub, a bridge, a gateway, a router, etc.
通信部31は、電気通信回線NT1を介して第1サーバ4へ信号を送信する。通信部31が第1サーバ4へ送信する信号には、例えば、通話部32が取得した対象者2の音声を示す音声データ(音声信号)がある。その他、通信部31が第1サーバ4へ送信する信号には、例えば、操作部34に対する対象者2の操作入力に応じて出力される操作信号がある。The
通信部31は、電気通信回線NT1を介して第1サーバ4からの信号を受信する。通信部31が第1サーバ4から受信する信号には、例えば、第1サーバ4が通話装置3からの要求を受けて自動送信する音声データ(音声信号)(以下「自動音声信号」ともいう)がある。その他、通信部31が第1サーバ4から受信する信号には、例えば、推定部F7による認知機能の推定結果を示す推定結果信号がある。The
通話部32は、スピーカとマイクロホンとを備えている。マイクロホンは、対象者2が発した音声を含む音を、音声データ(音声信号)へと変換し、通信部31を介して外部へ出力する。スピーカは、外部から通信部31を介して入力された音声データ(音声信号)を、音声(音)に変換して出力する。The
表示部33は、通信部31で受信されたデータ等を用いて表示を行う。表示部33は、例えばLCD(Liquid Crystal Display)又は有機ELディスプレイを含んでいる。The
操作部34は、対象者2からの操作入力を受け付け、受け付けた操作に応じた信号を出力する。本実施形態では、通話装置3は汎用のスマートフォンであるので、例えばタッチパネルディスプレイのように、表示部33と操作部34とが一体化されている。タッチパネルディスプレイにおいては、通話装置3は、表示部33に表示される各画面上でのボタン等のオブジェクトの操作(タップ、スワイプ、ドラッグ等)が操作部34で検出されることをもって、ボタン等のオブジェクトが操作されたことと判断する。つまり、表示部33及び操作部34は、各種の表示に加えて、対象者2からの操作入力を受け付けるユーザインタフェースとして機能する。The
処理部35は、通話装置3の全体的な制御、すなわち、通信部31、通話部32、表示部33及び操作部34の動作を制御するように構成される。処理部35は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部35として機能する。プログラムは、ここでは処理部35のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。The
通話装置3は、対象者2の生体情報を取得するための生体情報取得部を備えていてもよい。生体情報取得部は、例えば、対象者2の指紋の情報を取得する指紋取得部を有していてもよい。生体情報取得部は、例えば、対象者2の顔の情報を取得する顔情報取得部を有していてもよい。指紋取得部及び/又は顔情報取得部は、例えば通話装置3に設けられている撮像部(カメラ)であってもよい。その他、生体情報取得部は、対象者2の静脈情報を取得する静脈情報取得部を有していてもよい。The
第1サーバ4は、図1に示すように、通信部41と記憶部42と処理部43とを備えている。As shown in FIG. 1, the
第1サーバ4は、本実施形態の判定方法を実行する判定システム10の主体を構成する。第1サーバ4は、判定方法の各処理(図3参照)のうち「対象者特定処理S2」、「属性取得処理S3」、「本人確認処理S4」、「提示処理S5」、「音声取得処理S6」、「記録処理S7」、「特徴量取得処理S8」、「推定処理(認知機能推定処理)S9」、「出力処理S10」を実行する。The
通信部41は、通信インターフェースである。通信部41は、電気通信回線NT1に接続可能な通信インターフェースであり、電気通信回線NT1を通じた通信を行う機能を有する。第1サーバ4は、電気通信回線NT1を通じて通話装置3と通信可能である。また、第1サーバ4は、電気通信回線NT1を通じて第2サーバ5と通信可能である。なお、通信部41が通話装置3と通信するための通信プロトコルは、通信部41が第2サーバ5と通信するための通信プロトコルと同じであってもよいし異なっていてもよい。The
通信部41は、電気通信回線NT1を介して通話装置3へ信号を送信する。通信部41が通話装置3へ送信する信号には、上述の自動音声信号、推定結果信号等がある。また、通信部41は、電気通信回線NT1を介して通話装置3からの信号を受信する。通信部41が通話装置3から受信する信号には、上述の音声信号、操作信号等がある。The
通信部41は、電気通信回線NT1を介して第2サーバ5へ信号を送信する。通信部41が第2サーバ5へ送信する信号には、例えば、対象者2の本人確認を行うために用いられる本人確認情報を要求する、要求信号がある。その他、通信部41が第2サーバ5へ送信する信号には、推定部F7による認知機能の推定結果を示す推定結果信号がある。The
通信部41は、電気通信回線NT1を介して第2サーバ5からの信号を受信する。通信部41が第2サーバ5から受信する信号には、例えば、要求信号に応じて第2サーバ5から送信される、本人確認情報を示す信号がある。The
記憶部42は、情報を記憶するための装置である。記憶部42は、ROM(Read Only Memory)、RAM(Random Access Memory)、EEPROM等を含み得る。記憶部42には、通話装置3からの要求(電話での呼び出し)を受けて自動送信される自動音声の音声データが、記憶される。また、記憶部42には、学習済モデル(後述する)が記憶される。また、記憶部42は、通話装置3から送信される対象者2の音声データ(音声信号)を記憶するための領域を、有している。The
処理部43は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部43として機能する。The
処理部43は、第1サーバ4の全体的な制御、すなわち、通信部41及び記憶部42の動作を制御するように構成される。また、図1に示すように、処理部43は、対象者特定部F1と、属性取得部F2と、本人確認部F3と、提示部F4と、音声取得部F5と、記録部F6と、推定部F7と、出力部F8とを備えている。なお、対象者特定部F1、属性取得部F2、本人確認部F3、提示部F4、音声取得部F5、記録部F6、推定部F7及び出力部F8は、実体のある構成を示しているわけではなく、処理部43によって実現される機能を示している。The
対象者特定部F1は、通話装置3で通話している対象者2を特定する。本実施形態では、対象者特定部F1は、第2サーバ5の応答部F11(後述する)と協働して対象者2を特定する。The target person identification unit F1 identifies the
対象者特定部F1は、例えば、通話装置3からの要求(電話での呼び出し)を受けると、記憶部42に記憶されている自動音声の音声データ(自動音声信号)を、通信部41を介して通話装置3へ送信する。For example, when the target person identification unit F1 receives a request (telephone call) from the
対象者特定部F1が送信させる自動音声は、対象者2を特定するための対象者情報の入力を促す内容を含み得る。対象者情報は、例えば、対象者2の免許証番号を含み得る。或いは、対象者情報は、対象者2の氏名、住所等を含み得る。The automated voice transmitted by the subject identification unit F1 may include content that prompts the input of subject information to identify the
なお、対象者情報は通話装置3の電話番号であってもよく、この場合には対象者2による対象者情報の更なる入力は不要である。
In addition, the target person information may be the telephone number of the
対象者特定部F1は、自動音声に対して対象者2から通話装置3に入力された対象者情報を、通話装置3から受信し、受信した対象者情報に基づいて対象者2を特定する。対象者特定部F1による対象者2の特定は、例えば、受信した対象者情報を、所定の情報データベースDB1に記憶されている本人情報と対照することで、行われる。本人情報を含む情報データベースDB1は、本実施形態では、第2サーバ5の記憶部52に記憶されている。The subject identification unit F1 receives, from the
対象者特定部F1は、対象者情報を第2サーバ5へ送信し、第2サーバ5から、対象者情報と情報データベースDB1との対照結果を受信する。対照結果は、第2サーバ5によって特定された対象者2を示す情報を含む。これにより、対象者特定部F1は、対象者2を特定する。なお、対象者特定部F1自体(すなわち第1サーバ4の処理部43)が、対象者情報と本人情報とを対照することで、対象者2を特定してもよい。例えば、対象者特定部F1は、第2サーバ5から情報データベースDB1の一部又は全部の情報を受信し、受信した情報データベースDB1の情報と対象者情報とを対照することで、対象者2を特定してもよい。The subject identification unit F1 transmits the subject information to the
すなわち、本実施形態の判定方法は、対象者2を特定するための対象者特定処理S2を含む。
In other words, the determination method of this embodiment includes a subject identification process S2 for identifying the
なお、通話装置3が指紋取得部等の生体情報取得部を有している場合、対象者情報は、対象者2の指紋等の生体情報を含み得る。或いは、対象者情報は、対象者2の生体情報として、対象者2の音声から得られる声紋の情報を含み得る。この場合、対象者特定処理S2は、対象者2の生体情報(指紋、声紋等)を用いて行われてもよい。
In addition, if the
属性取得部F2は、対象者特定部F1で特定された対象者2の属性に関する属性データを取得する。対象者2の属性としては、例えば、人種・性別・年齢(年代)・教育歴等がある。属性データは、例えば、上述の情報データベースDB1に、本人情報と紐付けて記憶されている。属性取得部F2は、通信部41を介して、第2サーバ5から対象者2の属性データを取得する。The attribute acquisition unit F2 acquires attribute data relating to the attributes of the subject 2 identified by the subject identification unit F1. The attributes of the subject 2 include, for example, race, sex, age (generation), educational background, etc. The attribute data is, for example, stored in the above-mentioned information database DB1 in association with personal information. The attribute acquisition unit F2 acquires the attribute data of the subject 2 from the
すなわち、本実施形態の判定方法は、対象者2の属性に関する属性データを取得する属性取得処理S3を含む。
That is, the determination method of this embodiment includes an attribute acquisition process S3 that acquires attribute data regarding the attributes of the
本人確認部F3は、通話装置3で実際に通話している人が、対象者特定部F1で特定された対象者2本人で間違いないかを確認する。すなわち、通話装置3で通話している人が、自分のものではない他人の対象者情報(免許証番号等)を誤って入力する可能性があるので、本人確認部F3が、通話している人が対象者2本人であることを確認する。本人確認部F3は、対象者特定部F1で対象者2を特定すると、通信部41を介して第2サーバ5へ要求信号を送信し、要求信号の応答として第2サーバ5から、本人確認情報(対照情報)を取得する。本人確認情報は、例えば、対象者2の音声を事前に録音して得られた音声データ(以下、「対照音声データ」という)である。本人確認部F3は、通話装置3から得られる音声データを、対照音声データと比較することで、音声データで示される音声の発声者(通話している人)が対象者2本人であることを確認する。例えば、本人確認部F3は、各音声データで示される音声の声紋を比較し、その一致度を判定することで、本人確認を行う。The identity verification unit F3 verifies whether the person actually speaking on the
すなわち、本実施形態の判定方法は、対象者2が本人であることを確認するための本人確認処理S4を含む。本人確認処理S4は、対象者2の生体情報、より詳細には対象者2の声紋を用いて行われる。That is, the determination method of this embodiment includes an identity verification process S4 for verifying that the
本人確認処理S4は、例えば、通話装置3から音声データを受信した場合に、任意のタイミングで行われてよい。例えば、本人確認処理S4は、対象者特定処理S2と平行して行われてよい。すなわち、対象者特定処理S2において対象者2の生体情報(声紋の情報)を用いて対象者2を特定し、かつ、本人確認処理S4において対象者2の生体情報(声紋の情報)を用いて本人確認を行なう構成の場合、対象者特定処理S2と平行して本人確認処理S4を行うことが可能である。また、本人確認処理S4は、判定方法の実行中及び実行後に、音声取得処理S6で取得される音声データを用いて随時行われてよい。The identity verification process S4 may be performed at any timing, for example, when voice data is received from the
本人確認処理S4は、音声データ以外の情報を用いて行われてもよい。例えば、本人確認処理S4は、対象者2の指紋等の声紋以外の生体情報を用いて行われてもよいし、免許証番号等の生体情報以外の情報を用いて行われてもよい。また、本人確認処理S4は、対象者特定処理S2と同じ情報を用いて行われてもよい。The identity verification process S4 may be performed using information other than voice data. For example, the identity verification process S4 may be performed using biometric information other than the subject 2's voiceprint, such as a fingerprint, or may be performed using information other than biometric information, such as a driver's license number. The identity verification process S4 may also be performed using the same information as the subject identification process S2.
提示部F4は、対象者特定部F1による対象者2の特定後、記憶部42に記憶されている自動音声の音声データ(自動音声信号)を、通信部41を介して通話装置3へ送信する。After the
提示部F4が送信させる自動音声は、対象者2に定型文の読み上げを促す指示内容を含む。指示内容は、例えば、対象者2に読み上げられるべき定型文と、この定型文の読み上げを行うべき期間の始点及び終点を示す音(例えば「ピ」音)と、を含んでもよい。The automated voice transmitted by presentation unit F4 includes instructions prompting subject 2 to read a standard phrase. The instructions may include, for example, the standard phrase to be read to subject 2 and a sound (e.g., a beep) indicating the start and end of the period during which the standard phrase should be read.
指示内容は、異なる複数の定型文を含んでもよい。例えば、指示内容は、6種類の定型文を順次読み上げさせる内容を含んでもよい。定型文は、例えば、閉鎖子音と後続母音とからなる文字が、5以上含まれていてもよい。定型文の一例としては、例えば、「きたからきたかたたたきき」等の文がある。The instruction contents may include a plurality of different standard phrases. For example, the instruction contents may include six types of standard phrases to be read out in sequence. The standard phrases may include, for example, five or more characters each consisting of a stop consonant and a following vowel. An example of a standard phrase is a sentence such as "Kita kara kita kata ta ta taki ki."
また、指示内容は、同一の定型文の複数回の読み上げを指示する内容を含んでもよい。この場合、指示内容は、定型文を読み上げるべき回数を含んでもよい。The instruction content may also include an instruction to read the same template multiple times. In this case, the instruction content may include the number of times the template should be read.
すなわち、本実施形態の判定方法は、定型文の読み上げを促す情報を対象者2に提示する提示処理S5を含む。また、提示処理S5は、対象者2に定型文の読み上げを促す自動音声を再生することを含む。That is, the determination method of this embodiment includes a presentation process S5 that presents information prompting the subject 2 to read out the standard phrase. The presentation process S5 also includes playing an automatic voice that prompts the subject 2 to read out the standard phrase.
音声取得部F5は、提示部F4によって送信された自動音声に応答して対象者2から発せられた音声を示すデータであって通話装置3から送信される音声データを、通信部41を介して取得する。すなわち、本実施形態の判定方法は、対象者2に定型文の読み上げを実行させ読み上げに係る音声データを取得する音声取得処理S6を含む。音声取得処理S6では、電気通信回線NT1を通じて、音声データが取得される。The voice acquisition unit F5 acquires, via the
記録部F6は、音声取得部F5で取得した音声データを、記憶部42に記録(録音)させる。すなわち、本実施形態の判定方法は、音声取得処理S6で取得された音声データを記録する記録処理S7を含む。The recording unit F6 records (audio-records) the voice data acquired by the voice acquisition unit F5 in the
推定部F7は、記憶部42に記録された音声データ(音声取得部F5で取得した音声データ)を処理することで、対象者2の認知機能を推定する。すなわち、本実施形態の判定方法は、音声取得処理S6で取得された音声データに基づいて対象者2の認知機能を推定する推定処理S9を含む。The estimation unit F7 estimates the cognitive function of the subject 2 by processing the voice data (voice data acquired by the voice acquisition unit F5) recorded in the
推定部F7は、例えば、音声データから抽出される特徴量を用いて、対象者2の認知機能を推定する。すなわち、本実施形態の判定方法は、音声データから特徴量を抽出する特徴量取得処理S8を含む。また、推定部F7によって実行される推定処理S9は、音声データから抽出される特徴量を用いて認知機能を推定することを含む。The estimation unit F7 estimates the cognitive function of the subject 2, for example, using features extracted from the voice data. That is, the determination method of this embodiment includes a feature acquisition process S8 that extracts features from the voice data. Furthermore, the estimation process S9 executed by the estimation unit F7 includes estimating the cognitive function using the features extracted from the voice data.
本実施形態の判定システム10において、推定部F7は、属性取得部F2で取得した属性データを更に用いて、認知機能を推定する。すなわち、推定部F7によって実行される推定処理S9は、音声データに加えて、対象者2の属性に関する属性データを更に用いて認知機能を推定することを含む。In the
本実施形態の判定システム10において、推定部F7は、学習済モデルM1を利用して対象者2の認知機能を推定する。本実施形態の判定システム10において、学習済モデルM1は、例えばロジスティック回帰モデルである。すなわち、推定部F7によって実行される推定処理S9では、機械学習により生成された学習済モデルM1を用いて、対象者2の認知機能の推定を行う。In the
学習済モデルM1は、与えられた入力(特徴量)に対して、対象者2の認知機能の程度を示す値を出力するように設計されている。推定部F7は、音声データから得られた特徴量を学習済モデルM1に与え、これによって学習済モデルM1から得られた値に基づいて、対象者2の認知機能の程度を推定する。このような学習済モデルM1は、認知機能の程度を示す値と特徴量との関係を規定する学習用データ(データセット)を用いた教師あり学習により生成することができる。学習済モデルM1は、記憶部42に記憶されている。The trained model M1 is designed to output a value indicating the degree of cognitive function of the subject 2 for a given input (feature). The estimation unit F7 provides the feature obtained from the voice data to the trained model M1, and estimates the degree of cognitive function of the subject 2 based on the value obtained from the trained model M1. Such a trained model M1 can be generated by supervised learning using training data (dataset) that specifies the relationship between the value indicating the degree of cognitive function and the feature. The trained model M1 is stored in the
本実施形態において、推定処理S9に用いられる特徴量は、音声データで示される対象者2の音声に含まれる音節における母音の第一フォルマント周波数又は第二フォルマント周波数に関する量を含み得る。In this embodiment, the features used in the estimation process S9 may include quantities related to the first formant frequency or second formant frequency of a vowel in a syllable contained in the voice of subject 2 represented in the voice data.
ここにおいて、第一フォルマント周波数とは、人から発せられる音声に含まれる周波数ピークのうちで最も周波数が小さいピークに対応する周波数である。第二フォルマント周波数とは、人から発せられる音声に含まれる周波数ピークのうちで二番目に周波数が小さいピークに対応する周波数である。Here, the first formant frequency is the frequency corresponding to the smallest frequency peak contained in the speech produced by a person. The second formant frequency is the frequency corresponding to the second smallest frequency peak contained in the speech produced by a person.
一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の、第一フォルマント周波数、第二フォルマント周波数、又は第一フォルマント周波数に対する第二フォルマント周波数の比のばらつきを含み得る。ばらつきは、例えば標準偏差である。In one example, the amount may include a variance in the first formant frequency, the second formant frequency, or the ratio of the second formant frequency to the first formant frequency, of a plurality of vowels in a plurality of syllables included in the speech of the subject 2 represented by the speech data. The variance may be, for example, a standard deviation.
一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の、第一フォルマント周波数又は第二フォルマント周波数の変化量を含み得る。In one example, the amount may include a change in the first formant frequency or the second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data.
一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の第一フォルマント周波数又は第二フォルマント周波数の変化にかかる所要時間を含み得る。In one example, the above amount may include the time required for a change in the first or second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data.
一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の第一フォルマント周波数又は第二フォルマント周波数の、所要時間に対する変化量の比である変化率を含み得る。In one example, the above amount may include a rate of change, which is the ratio of the amount of change in the first formant frequency or the second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data to the time required.
一例において、上記量は、母音の第一フォルマント周波数に対する第二フォルマント周波数で形成される座標空間において、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の第一フォルマント周波数に対する第二フォルマント周波数の値をプロットした場合の、プロットされた複数の点の間の位置関係、又はそれらの点で形成される多角形の形状又は面積を含み得る。In one example, the above quantity may include the positional relationship between multiple plotted points when values of the first formant frequency versus the second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data are plotted in a coordinate space formed by the first formant frequency versus the second formant frequency of the vowels, or the shape or area of a polygon formed by those points.
また、推定処理S9に用いられる特徴量は、音声データで示される対象者2の音声に含まれる開音節における子音の音圧と当該子音に後続する母音の音圧との間の音圧差を含み得る。 In addition, the features used in the estimation process S9 may include the sound pressure difference between the sound pressure of a consonant in an open syllable contained in the voice of subject 2 represented in the voice data and the sound pressure of the vowel following the consonant.
推定処理S9に用いられる特徴量は、音声データで示される対象者2の音声に含まれる複数の開音節における、子音の音圧と当該子音に後続する母音の音圧との間の音圧差の、ばらつきを含み得る。The features used in the estimation process S9 may include the variation in the sound pressure difference between the sound pressure of a consonant and the sound pressure of the vowel following the consonant in multiple open syllables contained in the voice of the subject 2 represented in the voice data.
推定処理S9に用いられる特徴量は、定型文の読み上げに際し、対象者2が読み上げに要した総時間を含み得る。 The features used in the estimation process S9 may include the total time taken by the subject 2 to read the standard text.
推定処理S9に用いられる特徴量は、同一の定型文の複数回の読み上げに際し、複数回の読み上げにそれぞれ要した時間の変化量を含み得る。The features used in the estimation process S9 may include the amount of change in the time required for each of the multiple readings of the same template.
なお、本実施形態の判定方法を用いた認知機能の検査に用いられ得る対象者2の音声の特徴量については、特許第6337362号を参照されたい。 For information on the voice features of subject 2 that can be used to test cognitive function using the assessment method of this embodiment, please refer to Patent No. 6,337,362.
また、推定処理S9に用いられる特徴量は、属性取得部F2で取得された対象者2の属性を含み得る。 In addition, the features used in the estimation process S9 may include attributes of the subject 2 acquired by the attribute acquisition unit F2.
推定部F7は、対象者2の認知機能の推定結果を出力する。推定結果は、例えば、対象者2の認知機能の程度を示す数値で示される。推定部F7は、例えば、推定した認知機能の程度が、予め決められた複数段階のうちのどの段階に属するかを示す数値(例えば5段階中の2段階目等)を出力してもよい。The estimation unit F7 outputs an estimation result of the cognitive function of the
出力部F8は、推定部F7の推定結果に基づく結果情報を示す推定結果信号を、通信部41を介して通話装置3及び第2サーバ5へ出力する。出力部F8が出力する結果情報は、推定部F7から出力された推定結果(例えば数値)そのものであってもよいし、別の形態であってもよい。出力部F8が出力する結果情報は、例えば、推定結果に基づいて対象者2が次に取るべき行動を示す情報(例えば、病院で医師による認知機能検査を受けることを促す情報)、注意事項(認知機能の改善を促す情報)等であってもよい。通話装置3は、第1サーバ4から推定結果信号を受け取ると、その推定結果を、通話部32により音声で出力する又は表示部33により画像で表示することで、対象者2に通知してもよい。The output unit F8 outputs an estimation result signal indicating result information based on the estimation result of the estimation unit F7 to the
図1に示すように、第2サーバ5は、通信部51と記憶部52と処理部53とを備えている。図2に示すように、第2サーバ5は、例えば運転免許センター1に設置される。As shown in Figure 1, the
第2サーバ5は、判定方法の各処理(図3参照)のうち「記録処理S11」、「反映処理S12」を実行する。The
通信部51は、通信インターフェースである。通信部51は、電気通信回線NT1に接続可能な通信インターフェースであり、電気通信回線NT1を通じた通信を行う機能を有する。第2サーバ5は、電気通信回線NT1を通じて第1サーバ4と通信可能である。The
通信部51は、電気通信回線NT1を介して第1サーバ4へ信号を送信する。通信部51が第1サーバ4へ送信する信号には、例えば、上述の本人確認情報を示す信号等がある。また、通信部51は、電気通信回線NT1を介して第1サーバ4からの信号を受信する。通信部51が第1サーバ4から受信する信号には、例えば、上述の要求信号、推定結果信号等がある。The
記憶部52は、情報を記憶するための装置である。記憶部52は、ROM、RAM、EEPROM等を含み得る。記憶部52には、上述の情報データベースDB1が記憶される。The
処理部53は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部53として機能する。The
処理部53は、第2サーバ5の全体的な制御、すなわち、通信部51及び記憶部52の動作を制御するように構成される。また、図1に示すように、処理部53は、応答部F11と、登録部F12と、反映部F13とを備えている。なお、応答部F11、登録部F12及び反映部F13は、実体のある構成を示しているわけではなく、処理部53によって実現される機能を示している。The
応答部F11は、第1サーバ4から送信される信号に応じて、所定の応答を行う。The response unit F11 makes a predetermined response in response to a signal transmitted from the
例えば、応答部F11は、第1サーバ4から送信される対象者情報を示す信号に応じて、対象者情報で示される対象者2を特定する。応答部F11は、例えば、受信した対象者情報を情報データベースDB1と対照することで、対象者2を特定する。応答部F11は、対照結果(特定された対象者2)を示す情報を、第1サーバ4へ送信する。すなわち、応答部F11は、第1サーバ4の対象者特定部F1と協働して、対象者2を特定する。このとき、応答部F11は、特定された対象者2の属性に関する属性データも合わせて送信する。For example, the response unit F11 identifies the subject 2 indicated in the subject information in response to a signal indicating the subject information transmitted from the
また、応答部F11は、第1サーバ4から送信される要求信号に応答して、本人確認情報を送信する。本人確認情報は、上述のように、対象者2の音声を事前に録音して得られた音声データである対照音声データである。対照音声データは、例えば、対象者2に対して運転免許証を発行(新規交付)する際に録音されてもよいし、過去の運転免許証の更新時に録音されてもよいし、運転免許証の交付又は更新に関係なく録音されてもよい。
Furthermore, the response unit F11 transmits identity verification information in response to a request signal transmitted from the
登録部F12は、第1サーバ4から推定結果信号を受信すると、推定結果信号で示される対象者2の認知機能の推定結果を、情報データベースDB1へ登録する。推定結果の情報は、情報データベースDB1において、対応する対象者2の本人情報と紐付けて登録される。登録部F12は、情報データベースDB1に既に推定結果の情報が登録されている場合、既に登録されている情報を新たな情報で書き換え(更新し)てもよいし、既に登録されている情報を残しつつ新たな情報を追加してもよい。When the registration unit F12 receives an estimation result signal from the
なお、情報データベースDB1に登録される対象者2の認知機能の推定結果には、有効期限が設定されていることが好ましい。有効期限に特に制限はないが、例えば、1年、半年、3ヶ月、1ヶ月、半月、1週間等であってもよい。It is preferable that an expiration date is set for the estimated cognitive function of the subject 2 registered in the information database DB1. There is no particular limit to the expiration date, but it may be, for example, one year, six months, three months, one month, half a month, one week, etc.
反映部F13は、運転免許センター1での対象者2への運転免許証の交付又は更新の手順、及び交付又は更新の可否の判断に、情報データベースDB1へ登録されている対象者2の認知機能の推定結果を反映させる。
The reflection unit F13 reflects the estimated results of the cognitive function of the subject 2 registered in the information database DB1 in the procedure for issuing or renewing a driver's license to the subject 2 at the driver's
反映部F13は、例えば、認知機能の推定結果の程度に応じて、対象者2が運転免許センター1にて運転免許証の更新を行う際の手順を異ならせる。例えば、対象者2の認知機能が低下している場合(例えば、認知機能の程度を示す数値が、5段階中の最も悪い段階である場合)、反映部F13は、この対象者2の運転免許証の更新の際に、医師による認知機能検査の実施を義務づけてもよい。一方、対象者2の認知機能に問題がない場合(例えば、認知機能の程度を示す数値が、5段階中の最も良い段階である場合)、反映部F13は、この対象者2が運転免許証の更新のために運転免許センター1に赴いた際に、認知機能検査を省略させてもよい。The reflection unit F13, for example, changes the procedure when the
反映部F13が推定結果を反映させる具体的な手段は、特に限定されない。例えば、反映部F13は、医師による認知機能検査の実施が必要か否かを対象者2毎に示す情報を、運転免許センター1の職員に対して通知してもよい。例えば、反映部F13は、第2サーバ5に接続されている表示装置に、医師による認知機能検査の実施が必要か否かを対象者2毎に表示させてもよい。運転免許センター1の職員は、表示装置にてこの情報を参照することで、各対象者2の運転免許証の更新の際に、認知機能検査の実施が必要であるか否かを判断することが可能となる。
The specific means by which the reflection unit F13 reflects the estimation result is not particularly limited. For example, the reflection unit F13 may notify the staff of the driver's
なお、情報データベースDB1において、ある対象者2の本人情報に対して認知機能の推定結果が複数紐付けられている場合、反映部F13は、最新の推定結果のみを反映させてもよいし、有効期限内の複数の推定結果を反映させてもよい。 In addition, when multiple estimated cognitive function results are linked to the personal information of a subject 2 in the information database DB1, the reflection unit F13 may reflect only the most recent estimated result, or may reflect multiple estimated results within the validity period.
(2.2)動作
次に、図3を参照して本実施形態の判定方法について簡単に説明する。
(2.2) Operation Next, the determination method of this embodiment will be briefly described with reference to FIG.
運転免許証の更新時に認知機能検査の受検を義務づけられている対象者2は、運転免許証の更新のために運転免許センター1に赴く前に、例えば自宅にて、通話装置3を用いて第1サーバ4へ電話で呼び出しを行う(呼出処理S1)。A subject 2 who is required to take a cognitive function test when renewing his/her driver's license makes a telephone call to the
第1サーバ4は、通話装置3によって電話で呼び出しを受けると、対象者2を特定するための対象者情報の入力を促す自動音声を、通話装置3へ送信する。対象者2は、自動音声に応答して、通話装置3を介して運転免許証番号等の対象者情報を入力し、第1サーバ4は、電気通信回線NT1を介して対象者情報を取得する。第1サーバ4は、取得した対象者情報を第2サーバ5へ送信し、第2サーバ5は、受信した対象者情報を情報データベースDB1と対照することで、対象者2を特定する。第2サーバ5は、特定した対象者2を示す情報を第1サーバ4へ送信し、第1サーバ4は、この情報を第2サーバ5から受信することで、対象者2を特定する(対象者特定処理S2)。また、第2サーバ5は、特定した対象者2の属性を示す属性データを第1サーバ4へ送信し、第1サーバ4は、対象者2の属性データを取得する(属性取得処理S3)。When the
対象者2を特定すると、第1サーバ4は第2サーバ5へ要求信号を送信し、第2サーバ5から本人確認情報を取得する。第1サーバ4は、対象者2の特定後において対象者2との通話中に、本人確認情報を用いて、通話装置3の通話者が対象者2本人であることを確認する(本人確認処理S4)。When the
また、対象者2を特定する(及び通話者が対象者2本人であることを確認する)と、第1サーバ4は、定型文の読み上げを促す自動音声を通話装置3へ送信する(提示処理S5)。また、第1サーバ4は、対象者2が定型文を読み上げた際の音声データを通話装置3から取得し(音声取得処理S6)、取得した音声データを記憶部42に記録(録音)する(記録処理S7)。第1サーバ4は、記録した音声データから、特徴量を抽出(取得)する(特徴量取得処理S8)。Furthermore, upon identifying the target person 2 (and confirming that the caller is the target person 2), the
第1サーバ4は、特徴量取得処理S8で取得した特徴量、及び属性取得処理S3で取得した属性データを用いて、対象者2の認知機能を推定する(認知機能推定処理(推定処理)S9)。第1サーバ4は、推定処理S9で得られた認知機能の推定結果を、通話装置3及び第2サーバ5へ出力する(出力処理S10)。The
通話装置3は、第1サーバ4から得られた認知機能の推定結果を、通話部32又は表示部33を介して、対象者2へ通知する。
The
第2サーバ5は、第1サーバ4から得られた認知機能の推定結果を、記憶部52へ記録する(記録処理S11)。そして、第2サーバ5は、対象者2への運転免許証の交付若しくは更新の手順、又は交付若しくは更新の可否の判断に、対象者2の認知機能の推定結果を反映させる(反映処理S12)。The
その後、対象者2が、運転免許証の更新のために運転免許センター1に赴いた際には、対象者2は、判定法法による認知機能の推定結果が反映された手順に従って、運転免許証の更新を行うことができる。或いは、認知機能の推定結果が、運転免許証の更新に適さないとの結果を示す場合には、運転免許センター1の職員は、その旨を対象者2に告げて、医師による認知機能検査を受検することを対象者2に促してもよい。Thereafter, when subject 2 visits driver's
(2.3)利点
上述のように、本実施形態の認知機能の判定方法及び判定システム10によれば、対象者2に定型文を読み上げさせ、読み上げられた音声の音声データを処理することで、対象者2の認知機能の検査を行っている。この検査を実行する(定型文の読み上げ及び処理を行う)のに要する時間は、例えば6種類の定型文を対象者2に読み上げさせる場合であっても、3分程度である。一方、例えばテスト用紙に解答を記入してそれを採点する従来の検査方法では、解答時間及び採点時間を含めると、少なくとも30分程度の時間を要する。そのため、本実施形態の判定方法及び判定システム10を用いることで、従来の検査方法に比べて、検査に要する時間を短縮することが可能となる。
(2.3) Advantages As described above, according to the cognitive function assessment method and
また、対象者2は、少なくとも通話装置3さえ所持していれば、本実施形態の認知機能の判定方法及び判定システム10による検査を受検することが可能である。そのため、対象者2は、任意の場所で検査を受けることが可能であり、従来の検査方法のように検査会場に赴いて検査を受ける必要がない。そのため、本実施形態の判定方法及び判定システム10によれば、従来の検査方法に比べて、対象者2の負担を軽減することが可能である。
Furthermore, as long as the
要するに、本実施形態の認知機能の判定方法及び判定システム10によれば、免許更新時の負担の軽減を図ることが可能となる。In short, the cognitive function assessment method and
また、運転免許証の更新時に限らず、運転免許証の発行時に認知機能検査を行なう場合についても、本実施形態の認知機能の判定方法及び判定システム10を用いることで、免許発行時の負担の軽減を図ることが可能となる。
In addition, by using the cognitive function assessment method and
(3)変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上記実施形態に係る認知機能の判定方法と同様の機能は、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。
(3) Modifications The embodiments of the present disclosure are not limited to the above embodiments. The above embodiments can be modified in various ways depending on the design, etc., as long as the object of the present disclosure can be achieved. In addition, a function similar to the cognitive function assessment method according to the above embodiment may be embodied in a computer program, a non-transitory recording medium on which a computer program is recorded, or the like.
一態様に係る(コンピュータ)プログラムは、1以上のプロセッサに、上述の実施形態の判定方法を実行させるためのプログラムである。 A (computer) program in one aspect is a program for causing one or more processors to execute the determination method of the above-mentioned embodiment.
以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。Below, we list some variations of the above-mentioned embodiment. The variations described below can be applied in appropriate combinations.
本開示における認知機能の判定システム10は、例えば、通話装置3、第1サーバ4、第2サーバ5等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、通話装置3、第1サーバ4、第2サーバ5としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。The cognitive
また、第1サーバ4、第2サーバ5の各々における複数の機能が、1つの筐体内に集約されていることは判定システム10に必須の構成ではなく、第1サーバ4、第2サーバ5の各々の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、判定システム10の少なくとも一部の機能、例えば、第1サーバ4及び第2サーバ5の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。In addition, it is not essential for the
反対に、上述の実施形態において、複数の装置に分散されている判定システム10の少なくとも一部の機能が、1つの筐体内に集約されていてもよい。例えば、第1サーバ4と第2サーバ5とに分散されている判定システム10の一部の機能が、1つの筐体内に集約されていてもよい。Conversely, in the above-described embodiment, at least some of the functions of the
一変形例において、提示処理S5では、対象者2に定型文の読み上げを促す情報を視覚的に与えてもよい。例えば、提示処理S5において、対象者2に定型文の読み上げを促す文章、画像、映像等を、通話装置3の表示部33に表示させてもよい。In one modified example, in the presentation process S5, information may be visually provided to the subject 2 to prompt the subject 2 to read out the standard phrase. For example, in the presentation process S5, text, images, videos, etc. that prompt the subject 2 to read out the standard phrase may be displayed on the
一変形例において、提示処理S5において提示される内容(自動音声の内容、文章、画像等)は、解答が一義的に決まる質問を含んでもよい。質問は、運転免許証に関連していてもよい。質問の例としては、例えば、一時停止標識の色を答えさせる質問、表示部33にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、表示部33にナンバープレートの画像を表示させて地名、番号等を答えさせる質問等がある。表示部33に表示される画像は、動画であってもよく、例えばその大きさが徐々に変化する(徐々に大きくなる)画像であってもよい。また、表示部33に一時的に画像を表示させてその内容を対象者2に記憶させた後に画像を非表示とし、画像に示されていた内容についての質問を対象者2に提示してもよい。すなわち、提示処理S5では、運転免許証に関連する質問を対象者2に提示し、この質問は、質問に対する解答としての定型文の読み上げを対象者2に促してもよい。In one modified example, the content presented in the presentation process S5 (contents of the automatic voice, text, images, etc.) may include a question for which the answer is uniquely determined. The question may be related to a driver's license. Examples of questions include a question to answer the color of a stop sign, a question to answer the speed indicated by a speedometer by displaying an image of a speedometer on the
一変形例において、提示処理S5において提示される内容は、解答が一義的に決まらない質問を、更に含んでもよい。質問の例としては、例えば、対象者2の氏名、年齢、教育歴等を答えさせる質問がある。In one modified example, the content presented in the presentation process S5 may further include questions for which the answer is not clearly defined. Examples of questions include questions that ask the subject 2 to answer the name, age, educational background, etc.
一変形例において、推定処理S9に用いられる特徴量は、通話装置3に対する対象者2の操作入力に関する情報(例えば、タッチパネルに対する操作速度等)を、更に含んでもよい。すなわち、判定方法は、対象者2から通話装置3への操作入力を受け付ける操作受け付け処理を更に備えてもよい。推定処理S9では、音声取得処理S6で取得された音声データに加えて、操作入力の結果を更に用いて、対象者2の認知機能を推定してもよい。In one variant, the feature used in the estimation process S9 may further include information regarding the subject 2's operation input to the communication device 3 (e.g., the operation speed on the touch panel, etc.). That is, the determination method may further include an operation acceptance process that accepts operation input from the subject 2 to the
一変形例において、本人情報を含む情報データベースDB1は、第1サーバ4の記憶部42に記録されていてもよい。この場合、第1サーバ4のみで、対象者特定処理S2、属性取得処理S3、本人確認処理S4を実行可能である。In one variant, the information database DB1 including the personal information may be recorded in the
一変形例において、属性取得処理S3において、対象者2に通話装置3を用いて属性データを入力させてもよい。
In one variant, in the attribute acquisition process S3, the subject 2 may be asked to input attribute data using the
一変形例において、推定処理S9において、対象者2の属性データを特徴量として用いなくてもよい。
In one variant, in the estimation process S9, attribute data of
一変形例において、通話装置3は、対象者2が携帯可能な装置に限られない。通話装置3は、例えば、対象者2の住戸に備えられるいわゆる固定電話、或いは対象者2を含む不特定多数の人が利用できるように設置される公衆電話等であってもよい。また、通話装置3は電話に限られず、マイクとスピーカ等の通話手段と通信部31とを備えていればよい。通話装置3は、運転免許センター1に備えられていてもよい。すなわち、対象者2は、運転免許センター1にて、本開示の判定方法による検査を受検してもよい。In one variant, the
一変形例において、判定方法において本人確認処理S4は必須ではなく、省略されてもよい。また、判定方法は、本人確認処理S4に代えて或いは加えて、代理受検抑止処理を含んでもよい。代理受検抑止処理は、対象者2以外の人が、対象者2の代わりに判定方法による検査を受検するのを抑止する処理である。なお、本人確認処理S4も、代理受検抑止処理として機能する。In one variant, the identity verification process S4 is not essential in the determination method and may be omitted. The determination method may also include a proxy test prevention process instead of or in addition to the identity verification process S4. The proxy test prevention process is a process that prevents people other than the subject 2 from taking the test using the determination method on behalf of the
一例において、代理受検抑止処理は、通話装置3の表示部33に所定の注意文を表示させることを含んでもよい。注意文の例としては、例えば、「テスト中は声紋による個人認証により常に同じ人が発話していることを確認しています」等の文章がある。In one example, the proxy test-taking prevention process may include displaying a predetermined warning message on the
一例において、通話装置3がカメラ等の撮像部を備えている場合、代理受検抑止処理は、通話装置3で撮影された対象者2の画像を通話装置3の表示部33に表示させることを含んでもよい。この場合、撮影された対象者2の画像を処理した画像データから、対象者2が本人であるかの本人確認を実際に行ってもよいし、行わなくてもよい。また、この場合、判定方法は、対象者2が撮像部の撮像範囲から外れた場合に検査を中止する中止処理を含んでもよい。
In one example, if the
一例において、代理受検抑止処理は、人(例えば運転免許センター1の職員以外の人)による監視を含んでもよい。例えば、運転免許証の更新の通知が郵送で行なわれる場合、代理受検抑止処理は、更新の通知を郵送する郵便局の職員による監視を含んでもよい。 In one example, the proxy test prevention process may include monitoring by a person (e.g., a person other than an employee of the driver's license center 1). For example, if a driver's license renewal notice is sent by mail, the proxy test prevention process may include monitoring by a post office employee who mails the renewal notice.
一変形例において、本人確認処理S4は、運転免許証の更新の際に用いられる第2暗証番号(ワンタイムパスワード)を用いてもよい。 In one variant, the identity verification process S4 may use a second PIN (one-time password) used when renewing a driver's license.
一変形例において、対象者2への推定結果の通知は即座に行われなくてもよく、例えば、電気通信回線NT1に接続されている所定のサーバに通話装置3からアクセスすることで、対象者2が推定結果を閲覧できてもよい。また、推定結果の通知は、通話装置3以外の手段(例えば郵送等)を介して行われてもよい。In one modified example, the
(4)まとめ
以上述べたように、第1の態様の認知機能の判定方法は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センター(1)における、対象者(2)への役務の提供に際して用いられる。判定方法は、音声取得処理(S6)と、推定処理(S9)と、反映処理(S12)と、を備える。音声取得処理(S6)では、対象者(2)に定型文の読み上げを実行させ読み上げに係る音声データを取得する。推定処理(S9)では、音声取得処理(S6)で取得された音声データに基づいて、対象者(2)の認知機能を推定する。反映処理(S12)では、運転免許センター(1)での対象者(2)への役務の提供の手順又は役務の提供の可否の判断に、推定処理(S9)の結果を反映させる。
(4) Summary As described above, the first aspect of the cognitive function assessment method is used when a driver's license center (1) that performs at least one of the services of issuing and renewing a driver's license provides services to a subject (2). The assessment method includes a voice acquisition process (S6), an estimation process (S9), and a reflection process (S12). In the voice acquisition process (S6), the subject (2) is made to read a standard phrase to acquire voice data related to the reading. In the estimation process (S9), the cognitive function of the subject (2) is estimated based on the voice data acquired in the voice acquisition process (S6). In the reflection process (S12), the result of the estimation process (S9) is reflected in the procedure for providing services to the subject (2) at the driver's license center (1) or in the judgment of whether or not the service can be provided.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第2の態様の認知機能の判定方法では、第1の態様において、推定処理(S9)では、音声データから抽出される特徴量を用いて認知機能を推定する。In the second aspect of the method for assessing cognitive function, in the first aspect, the estimation process (S9) estimates cognitive function using features extracted from the voice data.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第3の態様の認知機能の判定方法では、第2の態様において、特徴量は、以下の群から選択される1以上を含む。上記群は、音声データで示される対象者(2)の音声に含まれる音節における母音の第一フォルマント周波数、又は第二フォルマント周波数に関する量を含む。上記群は、音声データで示される対象者(2)の音声に含まれる開音節における子音の音圧と前記子音に後続する母音の音圧との間の音圧差を含む。上記群は、音声データで示される対象者(2)の音声に含まれる複数の開音節における、子音の音圧と前記子音に後続する母音の音圧との間の音圧差の、ばらつきを含む。上記群は、上記定型文の読み上げに要した総時間を含む。上記群は、上記定型文の複数回の読み上げにそれぞれ要した時間の変化量を含む。In the method for assessing cognitive function of the third aspect, in the second aspect, the feature quantity includes one or more selected from the following group. The group includes a quantity related to the first formant frequency or the second formant frequency of a vowel in a syllable included in the voice of the subject (2) represented by the voice data. The group includes a sound pressure difference between the sound pressure of a consonant in an open syllable included in the voice of the subject (2) represented by the voice data and the sound pressure of a vowel following the consonant. The group includes a variance in the sound pressure difference between the sound pressure of a consonant and the sound pressure of a vowel following the consonant in multiple open syllables included in the voice of the subject (2) represented by the voice data. The group includes a total time required to read the fixed phrase. The group includes a change in the time required for each of multiple readings of the fixed phrase.
この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.
第4の態様の認知機能の判定方法は、第1~第3の態様のいずれか1つにおいて、音声取得処理(S6)で取得された音声データを記録する記録処理(S7)を、更に備える。The fourth aspect of the method for assessing cognitive function in any one of the first to third aspects further includes a recording process (S7) for recording the voice data acquired in the voice acquisition process (S6).
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第5の態様の認知機能の判定方法は、第1~第4の態様のいずれか1つにおいて、推定処理(S9)では、機械学習により生成された学習済モデル(M1)を用いて、認知機能を推定する。The fifth aspect of the method for assessing cognitive function is any one of the first to fourth aspects, in which the estimation process (S9) estimates cognitive function using a trained model (M1) generated by machine learning.
この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.
第6の態様の認知機能の判定方法は、第1~第5の態様のいずれか1つにおいて、音声取得処理(S6)では、電気通信回線(NT1)を通じて音声データを取得する。The sixth aspect of the method for assessing cognitive function is any one of the first to fifth aspects, in which the voice acquisition process (S6) acquires voice data via a telecommunications line (NT1).
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第7の態様の認知機能の判定方法は、第1~第6の態様のいずれか1つにおいて、推定処理(S9)では、音声取得処理(S6)で取得された音声データに加えて、対象者(2)の属性に関する属性データを更に用いて、認知機能を推定する。The seventh aspect of the method for assessing cognitive function is any one of the first to sixth aspects, in which the estimation process (S9) estimates cognitive function by further using attribute data relating to the attributes of the subject (2) in addition to the voice data acquired in the voice acquisition process (S6).
この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.
第8の態様の認知機能の判定方法は、第1~第7の態様のいずれか1つにおいて、定型文の読み上げを促す情報を対象者に提示する提示処理(S5)を更に備える。The method for assessing cognitive function in the eighth aspect, in any one of the first to seventh aspects, further includes a presentation process (S5) for presenting information to the subject prompting the subject to read a standard phrase.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第9の態様の認知機能の判定方法は、第8の態様において、提示処理(S5)では、対象者(2)に定型文の読み上げを促す自動音声を再生する。 In the ninth aspect of the method for assessing cognitive function, in the eighth aspect, the presentation process (S5) involves playing an automated voice prompting the subject (2) to read a standard phrase.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第10の態様の認知機能の判定方法は、第8又は第9の態様において、提示処理(S5)では、対象者(2)に定型文の読み上げを促す情報を視覚的に与える。 In the tenth aspect of the method for assessing cognitive function, in the eighth or ninth aspect, the presentation process (S5) visually provides the subject (2) with information prompting him or her to read out a standard phrase.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第11の態様の認知機能の判定方法は、第8~第10の態様のいずれか1つにおいて、提示処理(S5)では、運転免許証に関連する質問を対象者(2)に提示する。上記質問は、質問に対する解答としての定型文の読み上げを対象者(2)に促す内容を含む。The cognitive function assessment method of the eleventh aspect is any one of the eighth to tenth aspects, in which the presentation process (S5) presents a question related to a driver's license to the subject (2). The question includes content that prompts the subject (2) to read out a standard phrase as an answer to the question.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第12の態様の認知機能の判定方法は、第1~第11の態様のいずれか1つにおいて、対象者(2)が本人であることを確認するための本人確認処理(S4)を更に備える。The cognitive function assessment method of the 12th aspect, in any one of the first to 11th aspects, further includes an identity verification process (S4) for verifying that the subject (2) is the subject himself/herself.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第13の態様の認知機能の判定方法は、第12の態様において、本人確認処理(S4)は、対象者(2)の生体情報を用いて行う。 In the 13th aspect of the method for assessing cognitive function, in the 12th aspect, the identity verification process (S4) is performed using biometric information of the subject (2).
この態様によれば、本人確認の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of identity verification.
第14の態様の認知機能の判定方法は、第13の態様において、生体情報は、対象者(2)の声紋の情報を含む。 In the 14th aspect of the method for assessing cognitive function, in the 13th aspect, the biometric information includes voiceprint information of the subject (2).
この態様によれば、本人確認の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of identity verification.
第15の態様の認知機能の判定方法は、第1~第14の態様のいずれか1つにおいて、対象者(2)を特定するための対象者特定処理(S2)を更に備える。The cognitive function assessment method of the 15th aspect, in any one of the first to fourteenth aspects, further includes a subject identification process (S2) for identifying the subject (2).
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第16の態様の認知機能の判定方法は、第15の態様において、対象者特定処理(S2)は、対象者(2)の生体情報を用いて行う。 In the 16th aspect of the method for assessing cognitive function, in the 15th aspect, the subject identification process (S2) is performed using biometric information of the subject (2).
この態様によれば、対象者(2)の特定の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of identifying the subject (2).
第17の態様の認知機能の判定方法は、第1~第16の態様のいずれか1つにおいて、対象者(2)からの操作入力を受け付ける操作受付処理を更に備える。推定処理(S9)は、音声取得処理(S6)で取得された音声データに加えて、操作入力の結果を更に用いて、認知機能を推定する。The cognitive function assessment method of the 17th aspect is any one of the first to 16th aspects, further comprising an operation reception process for receiving an operation input from the subject (2). The estimation process (S9) estimates the cognitive function by using the result of the operation input in addition to the voice data acquired in the voice acquisition process (S6).
この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.
第18の態様のプログラムは、第1~第17の態様のいずれか1つの認知機能の判定方法を、1以上のプロセッサに実行させるためのプログラムである。 The program of the 18th aspect is a program for causing one or more processors to execute a method for assessing cognitive function of any one of the first to seventeenth aspects.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
第19の態様の認知機能の判定システム(10)は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センター(1)における、対象者(2)への役務の提供に際して用いられる。判定システム(10)は、音声取得部(F5)と、推定部(F7)と、反映部(F13)と、を備える。音声取得部(F5)は、対象者(2)に定型文の読み上げを実行させ読み上げに係る音声データを取得する。推定部(F7)は、音声取得部(F5)で取得された音声データに基づいて、対象者(2)の認知機能を推定する。反映部(F13)は、運転免許センター(1)での対象者(2)への役務の提供の手順又は役務の提供の可否の判断に、推定部(F7)の推定結果を反映させる。The cognitive function assessment system (10) of the 19th aspect is used when providing services to a subject (2) at a driver's license center (1) that performs at least one of the services of issuing and renewing driver's licenses. The assessment system (10) includes a voice acquisition unit (F5), an estimation unit (F7), and a reflection unit (F13). The voice acquisition unit (F5) causes the subject (2) to read a standard phrase and acquires voice data related to the reading. The estimation unit (F7) estimates the cognitive function of the subject (2) based on the voice data acquired by the voice acquisition unit (F5). The reflection unit (F13) reflects the estimation result of the estimation unit (F7) in the procedure for providing services to the subject (2) at the driver's license center (1) or in the judgment of whether or not to provide the service.
この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.
1 運転免許センター
2 対象者
10 判定システム
F5 音声取得部
F7 推定部
F13 反映部
S2 対象者特定処理
S4 本人確認処理
S5 提示処理
S6 音声取得処理
S7 記録処理
S9 推定処理
S12 反映処理
M1 学習済モデル
NT1 電気通信回線
1 Driver's
Claims (20)
前記提示部が、前記対象者に定型文の読み上げを促す情報を提示する提示処理と、
前記音声取得部が、前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する音声取得処理と、
前記推定部が、前記音声取得処理で取得された前記音声データに基づいて、前記対象者の認知機能を推定する推定処理と、
前記反映部が、前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定処理の結果を反映させる反映処理と、
を備え、
前記提示処理では、前記運転免許証に関連する質問を前記対象者に提示し、
前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含み、
前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む、
認知機能の判定方法。 A method for assessing cognitive function, which is used in providing at least one of issuing and renewing a driver's license to a subject at a driver's license center that performs the service by using a cognitive function assessment system including a presentation unit, a voice acquisition unit, an estimation unit, and a reflection unit, comprising:
A presentation process in which the presentation unit presents information prompting the target person to read out a fixed phrase;
a voice acquisition process in which the voice acquisition unit causes the subject to perform the reading and acquires voice data related to the reading;
an estimation process in which the estimation unit estimates a cognitive function of the subject based on the voice data acquired in the voice acquisition process;
a reflection process in which the reflection unit reflects a result of the estimation process in a procedure for providing the service to the target person at the driver's license center or in a decision on whether or not to provide the service;
Equipped with
The presenting step presents a question related to the driver's license to the subject;
The question includes a content that prompts the subject to read out the standard phrase as an answer to the question,
The questions include a question in which an image of a speedometer is displayed on a display unit of a communication device that acquires the voice of the subject, and the subject answers the speed indicated by the meter, or a question in which an image of a license plate is displayed on the display unit, and the subject answers a place name and a number.
How to assess cognitive function.
請求項1に記載の認知機能の判定方法。 In the estimation process, the cognitive function is estimated using features extracted from the voice data.
The method for assessing cognitive function according to claim 1.
前記音声データで示される前記対象者の音声に含まれる音節における母音の第一フォルマント周波数、又は第二フォルマント周波数に関する量、
前記対象者の音声に含まれる開音節における子音の音圧と前記子音に後続する母音の音圧との間の音圧差、
前記対象者の音声に含まれる複数の開音節における、子音の音圧と前記子音に後続する母音の音圧との間の音圧差の、ばらつき、
前記読み上げに要した総時間、
前記定型文の複数回の前記読み上げにそれぞれ要した時間の変化量
からなる群から選択される1以上を含む、
請求項2に記載の認知機能の判定方法。 The feature amount is
A quantity related to the first formant frequency or the second formant frequency of a vowel in a syllable included in the voice of the subject represented by the voice data;
A sound pressure difference between a sound pressure of a consonant in an open syllable included in the voice of the subject and a sound pressure of a vowel following the consonant;
Variation in sound pressure difference between a consonant and a vowel following the consonant in a plurality of open syllables included in the speech of the subject;
the total time required for said reading;
a change in the time required for each of the plurality of readouts of the template,
The method for assessing cognitive function according to claim 2.
前記判定方法は、前記音声取得処理で取得された前記音声データを前記記録部に記録する記録処理を、更に備える、
請求項1~3のいずれか1項に記載の認知機能の判定方法。 The determination system further includes a recording unit,
The determination method further includes a recording process of recording the voice data acquired in the voice acquisition process in the recording unit.
The method for assessing cognitive function according to any one of claims 1 to 3.
請求項1~4のいずれか1項に記載の認知機能の判定方法。 In the estimation process, the cognitive function is estimated using a trained model generated by machine learning.
The method for assessing cognitive function according to any one of claims 1 to 4.
請求項1~5のいずれか1項に記載の認知機能の判定方法。 In the voice acquisition process, the voice data is acquired through a telecommunication line.
The method for assessing cognitive function according to any one of claims 1 to 5.
請求項1~6のいずれか1項に記載の認知機能の判定方法。 In the estimation process, the cognitive function is estimated by further using attribute data regarding attributes of the subject in addition to the voice data acquired in the voice acquisition process.
The method for assessing cognitive function according to any one of claims 1 to 6.
請求項1~7のいずれか1項に記載の認知機能の判定方法。 In the presentation process, an automatic voice is played to prompt the target person to read out the template.
The method for assessing cognitive function according to any one of claims 1 to 7.
請求項1~8のいずれか1項に記載の認知機能の判定方法。 In the presentation process, information prompting the target person to read out the template is visually provided.
The method for assessing cognitive function according to any one of claims 1 to 8.
前記判定方法は、前記本人確認部が、前記対象者が本人であることを確認する本人確認処理を更に備える、
請求項1~9のいずれか1項に記載の認知機能の判定方法。 The determination system further includes an identity verification unit,
The determination method further includes an identity verification process in which the identity verification unit verifies that the subject is the person in question.
The method for assessing cognitive function according to any one of claims 1 to 9.
請求項10に記載の認知機能の判定方法。 The identity verification process is performed using biometric information of the subject.
The method for assessing cognitive function according to claim 10.
請求項11に記載の認知機能の判定方法。 The biometric information includes voiceprint information of the subject.
The method for assessing cognitive function according to claim 11.
前記判定方法は、前記対象者特定部が、前記対象者を特定する対象者特定処理を更に備える、
請求項1~12のいずれか1項に記載の認知機能の判定方法。 The determination system further includes a subject identification unit,
The determination method further includes a subject identification process in which the subject identification unit identifies the subject.
The method for assessing cognitive function according to any one of claims 1 to 12.
請求項13に記載の認知機能の判定方法。 The subject identification process is performed using biometric information of the subject.
The method for assessing cognitive function according to claim 13.
前記判定方法は、前記操作部が、前記対象者からの操作入力を受け付ける操作受付処理
を更に備え、
前記推定処理は、前記音声取得処理で取得された前記音声データに加えて、前記操作入力の結果を更に用いて、前記認知機能を推定する、
請求項1~14のいずれか1項に記載の認知機能の判定方法。 The determination system further includes an operation unit,
The method further includes an operation receiving process in which the operation unit receives an operation input from the subject,
The estimation process estimates the cognitive function by using a result of the operation input in addition to the voice data acquired in the voice acquisition process.
The method for assessing cognitive function according to any one of claims 1 to 14.
前記代理受検抑止処理では、前記通話装置の前記表示部に、所定の注意文を表示させる、
請求項1~15のいずれか1項に記載の認知機能の判定方法。 The determination method further includes a proxy test suppression process in which the determination system suppresses a person other than the subject from taking the test by the determination method on behalf of the subject,
In the proxy test suppression process, a predetermined warning message is displayed on the display unit of the communication device.
A method for assessing cognitive function according to any one of claims 1 to 15.
前記代理受検抑止処理では、前記通話装置で撮影された前記対象者の画像を、前記通話装置の前記表示部に表示させる、
請求項1~15のいずれか1項に記載の認知機能の判定方法。 The determination method further includes a proxy test suppression process in which the determination system suppresses a person other than the subject from taking the test by the determination method on behalf of the subject,
In the proxy test suppression process, an image of the subject photographed by the communication device is displayed on the display unit of the communication device.
The method for assessing cognitive function according to any one of claims 1 to 15 .
前記反映処理では、前記有効期限内の前記推定結果が反映される、
請求項1~17のいずれか1項に記載の認知機能の判定方法。 An expiration date is set for the estimation result of the cognitive function of the subject estimated by the estimation process,
In the reflection process, the estimation result within the validity period is reflected.
A method for assessing cognitive function according to any one of claims 1 to 17.
前記対象者に定型文の読み上げを促す情報を提示する提示部と、
前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する音声取得部と、
前記音声取得部で取得された前記音声データに基づいて、前記対象者の認知機能を推定する推定部と、
前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定部の推定結果を反映させる反映部と、
を備え、
前記提示部は、前記運転免許証に関連する質問を前記対象者に提示し、
前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含み、
前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む、
認知機能の判定システム。 A system for assessing cognitive function used in providing at least one of issuing and renewing a driver's license to a subject at a driver's license center, the system comprising:
A presentation unit that presents information that prompts the target person to read out a standard phrase;
a voice acquisition unit that causes the subject to perform the reading and acquires voice data related to the reading;
an estimation unit that estimates a cognitive function of the subject based on the voice data acquired by the voice acquisition unit;
A reflection unit that reflects an estimation result of the estimation unit in a procedure for providing the service to the target person at the driver's license center or a decision on whether or not to provide the service;
Equipped with
The presentation unit presents a question related to the driver's license to the subject,
The question includes a content that prompts the subject to read out the standard phrase as an answer to the question,
The questions include a question in which an image of a speedometer is displayed on a display unit of a communication device that acquires the voice of the subject, and the subject answers the speed indicated by the meter, or a question in which an image of a license plate is displayed on the display unit, and the subject answers a place name and a number.
A system for assessing cognitive function.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019143998 | 2019-08-05 | ||
JP2019143998 | 2019-08-05 | ||
PCT/JP2020/029682 WO2021024987A1 (en) | 2019-08-05 | 2020-08-03 | Determination method for cognitive function, program, and determination system for cognitive function |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021024987A1 JPWO2021024987A1 (en) | 2021-02-11 |
JP7479013B2 true JP7479013B2 (en) | 2024-05-08 |
Family
ID=74502693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537304A Active JP7479013B2 (en) | 2019-08-05 | 2020-08-03 | Method, program, and system for assessing cognitive function |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7479013B2 (en) |
WO (1) | WO2021024987A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017205191A (en) | 2016-05-17 | 2017-11-24 | 公立大学法人会津大学 | Identification/reaction measuring device for measuring identification/reaction functions of subject, and program for executing/controlling measurement of identification/reaction functions of subject |
JP2018050847A (en) | 2016-09-27 | 2018-04-05 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus, cognitive function evaluation method, and program |
JP2018140741A (en) | 2017-02-28 | 2018-09-13 | パイオニア株式会社 | Control device |
JP2018148987A (en) | 2017-03-10 | 2018-09-27 | パイオニア株式会社 | Determination device |
JP2019083902A (en) | 2017-11-02 | 2019-06-06 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus and cognitive function evaluation system |
JP6537005B1 (en) | 2018-10-31 | 2019-07-03 | 日本テクトシステムズ株式会社 | Test control system, method and program for cognitive function test |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000028724A (en) * | 1998-07-14 | 2000-01-28 | Hitachi Ltd | System and method for controlling radiation exposure dose |
JP4464674B2 (en) * | 2003-12-17 | 2010-05-19 | 株式会社 Ytb | Telephone reservation system with voice recognition function and automatic reservation schedule management method |
US20120190001A1 (en) * | 2011-01-25 | 2012-07-26 | Hemisphere Centre for Mental Health & Wellness Inc. | Automated cognitive testing methods and applications therefor |
JP2015219731A (en) * | 2014-05-19 | 2015-12-07 | 吉田 一雄 | Inspection system |
-
2020
- 2020-08-03 JP JP2021537304A patent/JP7479013B2/en active Active
- 2020-08-03 WO PCT/JP2020/029682 patent/WO2021024987A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017205191A (en) | 2016-05-17 | 2017-11-24 | 公立大学法人会津大学 | Identification/reaction measuring device for measuring identification/reaction functions of subject, and program for executing/controlling measurement of identification/reaction functions of subject |
JP2018050847A (en) | 2016-09-27 | 2018-04-05 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus, cognitive function evaluation method, and program |
JP2018140741A (en) | 2017-02-28 | 2018-09-13 | パイオニア株式会社 | Control device |
JP2018148987A (en) | 2017-03-10 | 2018-09-27 | パイオニア株式会社 | Determination device |
JP2019083902A (en) | 2017-11-02 | 2019-06-06 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus and cognitive function evaluation system |
JP6537005B1 (en) | 2018-10-31 | 2019-07-03 | 日本テクトシステムズ株式会社 | Test control system, method and program for cognitive function test |
Non-Patent Citations (1)
Title |
---|
上村 直人 他,「認知症と自動車運転」,老年期痴呆研究会誌,2010年08月24日,Vol.15,pp. 151 -159 |
Also Published As
Publication number | Publication date |
---|---|
WO2021024987A1 (en) | 2021-02-11 |
JPWO2021024987A1 (en) | 2021-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miller | Measuring up to speech intelligibility | |
Munson et al. | Deconstructing phonetic transcription: Covert contrast, perceptual bias, and an extraterrestrial view of Vox Humana | |
Schweinberger et al. | Recognizing famous voices: Influence of stimulus duration and different types of retrieval cues | |
Pilnick et al. | Advice, authority and autonomy in shared decision‐making in antenatal screening: the importance of context | |
McKechnie et al. | Automated speech analysis tools for children’s speech production: A systematic literature review | |
Yousaf et al. | A Novel Technique for Speech Recognition and Visualization Based Mobile Application to Support Two‐Way Communication between Deaf‐Mute and Normal Peoples | |
Siegelman | Statistical learning abilities and their relation to language | |
KR102161638B1 (en) | Method, System and Computer-Readable Mediums thereof for determining the degree of dementia Based on Voice Recognition Using Machine Learning Model | |
WO2006109268A1 (en) | Automated speech disorder detection method and apparatus | |
JP2009503563A (en) | Assessment of spoken language proficiency by computer | |
Elliott | Verbal auditory closure and the speech perception in noise (SPIN) test | |
CN110738998A (en) | Voice-based personal credit evaluation method, device, terminal and storage medium | |
Lehner et al. | Web-based assessment of communication-related parameters in dysarthria: Development and implementation of the KommPaS web app | |
Gauder et al. | A Study on the manifestation of trust in speech | |
Dubas et al. | Speech-in-speech recognition in preschoolers | |
Rex et al. | A preliminary validation of a dynamic speech motor assessment for Swedish-speaking children with childhood apraxia of speech | |
JP7479013B2 (en) | Method, program, and system for assessing cognitive function | |
US11547345B2 (en) | Dynamic neuropsychological assessment tool | |
CN116072297B (en) | Method and related device for determining mental health data based on novel interaction | |
Wong et al. | The perception of lexical tone contrasts in Cantonese children with and without specific language impairment (SLI) | |
JP2021064284A (en) | Cognitive function evaluation system, cognitive function evaluation method, and program | |
KR102468833B1 (en) | Artificial Intelligence-based Mirror Counseling Method for Depression Treatment | |
CN113053409B (en) | Audio evaluation method and device | |
Ha | The Predictability of Naturalistic Evaluation of All-Day Recordings for Speech and Language Development | |
CN109389493A (en) | Customized test question mesh input method, system and equipment based on speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7479013 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |