JP7479013B2 - Method, program, and system for assessing cognitive function - Google Patents

Method, program, and system for assessing cognitive function Download PDF

Info

Publication number
JP7479013B2
JP7479013B2 JP2021537304A JP2021537304A JP7479013B2 JP 7479013 B2 JP7479013 B2 JP 7479013B2 JP 2021537304 A JP2021537304 A JP 2021537304A JP 2021537304 A JP2021537304 A JP 2021537304A JP 7479013 B2 JP7479013 B2 JP 7479013B2
Authority
JP
Japan
Prior art keywords
subject
cognitive function
unit
voice
license
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537304A
Other languages
Japanese (ja)
Other versions
JPWO2021024987A1 (en
Inventor
祐輝 小川
満春 細川
美紗 吉崎
潤一 穗積
博文 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2021024987A1 publication Critical patent/JPWO2021024987A1/ja
Application granted granted Critical
Publication of JP7479013B2 publication Critical patent/JP7479013B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Educational Technology (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Resources & Organizations (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)

Description

本開示は一般に認知機能の判定方法、プログラム、認知機能の判定システムに関し、より詳細には、運転免許センターでの役務に関連して用いられる認知機能の判定方法、プログラム、認知機能の判定システムに関する。 The present disclosure relates generally to a method, program, and system for assessing cognitive function, and more specifically to a method, program, and system for assessing cognitive function used in connection with services at a driver's license center.

特許文献1には、自動車等の運転免許更新時における後期高齢者を対象として実施する認知機能検査の進行を管理するためのシステムが、開示されている。Patent Document 1 discloses a system for managing the progress of cognitive function tests conducted on elderly people when renewing their driver's licenses, etc.

特許文献1のシステムは、検査員が使用する検査員装置と、受検者が使用する複数台の端末装置とから構成される。The system in Patent Document 1 consists of an inspector device used by an inspector and multiple terminal devices used by test takers.

複数の端末装置の各々は、タブレット型端末装置であり、表示画面上にタッチパネルを備える表示入力装置を有する。端末装置の表示画面上には、説明文、注意文、設問、回答欄等が表示される。受検者は、表示画面上に指または専用ペンを用いてタッチしたり、文字、数字等を手書きしたりして、解答等を入力する。検査員装置は、認知機能検査の進行管理のための情報を表示する表示装置を有する。 Each of the multiple terminal devices is a tablet-type terminal device, and has a display input device with a touch panel on the display screen. Explanations, warnings, questions, answer columns, etc. are displayed on the display screen of the terminal device. Test takers input answers, etc. by touching the display screen with their finger or a special pen, or by handwriting letters, numbers, etc. The examiner device has a display device that displays information for managing the progress of the cognitive function test.

特許文献1のシステムでは、認知機能検査の実施に時間がかかるため、免許更新時に認知機能検査を受検する受検者にかかる負担が大きくなり得る。また、高齢者人口の増加に伴い、免許更新時に認知機能検査の受検が必要な対象者の数も増加しているため、一人当たりの認知機能検査の実施にかかる時間が長くなると、運転免許センターにかかる負担も大きくなり得る。In the system of Patent Document 1, since it takes time to conduct the cognitive function test, the burden on test subjects who take the cognitive function test when renewing their licenses may be large. In addition, as the elderly population increases, the number of subjects who need to take the cognitive function test when renewing their licenses is also increasing, so if the time it takes to conduct the cognitive function test per person increases, the burden on the driver's license center may also increase.

特許6517987号公報Patent No. 6517987

本開示は、上記事由に鑑みてなされており、免許更新時の負担の軽減を図ることが可能な認知機能の判定方法、プログラム、及び認知機能の判定システムを提供することを目的とする。 This disclosure has been made in consideration of the above reasons, and aims to provide a method, program, and system for assessing cognitive function that can reduce the burden at the time of license renewal.

本開示の一態様に係る認知機能の判定方法は、提示部と音声取得部と推定部と反映部とを備える認知機能の判定システムによる判定方法である。前記判定方法は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センターにおける、対象者への前記役務の提供に際して用いられる。前記判定方法は、提示処理と、音声取得処理と、推定処
理と、反映処理と、を備える。前記提示処理では、前記提示部が、前記対象者に定型文の読み上げを促す情報を提示する。前記音声取得処理では、前記音声取得部が、前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する。前記推定処理では、前記推定部が、前記音声取得処理で取得された前記音声データに基づいて、前記対象者の認知機能を推定する。前記反映処理では、前記反映部が、前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定処理の結果を反映させる。前記提示処理では、前記運転免許証に関連する質問を前記対象者に提示する。前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含む。前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む。
A cognitive function assessment method according to an embodiment of the present disclosure is a cognitive function assessment method using a cognitive function assessment system including a presentation unit, a voice acquisition unit, an estimation unit, and a reflection unit. The assessment method is used when a driver's license center that performs at least one of the services of issuing and renewing a driver's license provides the service to a subject. The assessment method includes a presentation process, a voice acquisition process, an estimation process, and a reflection process. In the presentation process, the presentation unit presents information that prompts the subject to read a standard phrase. In the voice acquisition process, the voice acquisition unit causes the subject to perform the reading and acquires voice data related to the reading. In the estimation process, the estimation unit estimates the cognitive function of the subject based on the voice data acquired in the voice acquisition process. In the reflection process, the reflection unit reflects the result of the estimation process in the procedure for providing the service to the subject at the driver's license center or in a decision on whether or not the service can be provided. In the presentation process, a question related to the driver's license is presented to the subject. The question includes a content that prompts the subject to read out the fixed phrase as an answer to the question. The question includes a question that prompts the subject to answer the speed indicated by a speedometer by displaying an image of a speedometer on a display unit of a communication device that acquires the subject's voice, or a question that prompts the subject to answer a place name and a number by displaying an image of a license plate on the display unit.

本開示の一態様に係るプログラムは、上記の認知機能の判定方法を、1以上のプロセッサに実行させるプログラムである。 A program according to one aspect of the present disclosure is a program that causes one or more processors to execute the above-mentioned method for assessing cognitive function.

本開示の一態様に係る認知機能の判定システムは、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センターにおける、対象者への前記役務の提供に際して用いられる。前記判定システムは、提示部と、音声取得部と、推定部と、反映部と、を備える。前記提示部は、前記対象者に定型文の読み上げを促す情報を提示する。前記音声取得部は、前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する。前記推定部は、前記音声取得部で取得された前記音声データに基づいて、前記対象者の認知機能を推定する。前記反映部は、前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定部の推定結果を反映させる。前記提示部は、前記運転免許証に関連する質問を前記対象者に提示する。前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含む。前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む。
A cognitive function assessment system according to one aspect of the present disclosure is used when a driver's license center that performs at least one of issuing and renewing a driver's license provides the service to a subject. The assessment system includes a presentation unit, a voice acquisition unit, an estimation unit, and a reflection unit. The presentation unit presents information that prompts the subject to read a standard phrase. The voice acquisition unit causes the subject to perform the reading and acquires voice data related to the reading. The estimation unit estimates the cognitive function of the subject based on the voice data acquired by the voice acquisition unit. The reflection unit reflects the estimation result of the estimation unit in the procedure for providing the service to the subject at the driver's license center or in the determination of whether or not the service can be provided. The presentation unit presents a question related to the driver's license to the subject. The question includes content that prompts the subject to read the standard phrase as an answer to the question. The questions include questions that display an image of a speedometer on the display of a communication device that acquires the subject's voice and prompt the subject to answer the speed indicated by the meter, or questions that display an image of a license plate on the display and prompt the subject to answer a place name and number.

図1は、一実施形態の認知機能の判定方法を実行するための判定システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a determination system for executing a cognitive function determination method according to one embodiment. 図2は、同上の判定システムを模式的に示す模式図である。FIG. 2 is a schematic diagram showing the above-mentioned determination system. 図3は、同上の判定方法の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of the above determination method.

(1)概要
現在日本国では、75才以上のドライバーには、運転免許証の更新時に認知機能検査を受検することが義務づけられている。現状この認知機能検査は、主に、指導員が出す問題に対して受検者がテスト用紙に解答を記入する方式で実施されている。しかしながら、このような方式では、検査会場及び指導員の確保、解答内容の採点等のため、検査を実施する側の負担が大きくなる可能性がある。また、検査自体に時間がかかり、指定された時間に検査会場に向かう必要もあるため、受検者側にも負担を強いる可能性がある。本実施形態の認知機能の判定方法(以下、単に「判定方法」ともいう)及び認知機能の判定システム10(以下、単に「判定システム10」ともいう)は、一例として、このような認知機能検査の代替、或いは認知機能検査の受検者を絞り込むための一次スクリーニングとして用いられることを想定する。
(1) Overview Currently, in Japan, drivers aged 75 or older are required to take a cognitive function test when renewing their driver's license. Currently, this cognitive function test is mainly conducted by having the examinee write answers on a test paper to questions posed by an instructor. However, such a method may impose a heavy burden on the examinee in order to secure a test venue and instructors, and to grade the answers. In addition, the test itself takes time, and it is necessary to head to the test venue at a specified time, which may impose a burden on the examinee. The cognitive function assessment method (hereinafter also simply referred to as the "assessment method") and cognitive function assessment system 10 (hereinafter also simply referred to as the "assessment system 10") of this embodiment are assumed to be used, for example, as a substitute for such a cognitive function test, or as a primary screening for narrowing down the examinees for the cognitive function test.

例えば、運転免許証の更新時に認知機能検査が義務づけられているドライバー(以下、「対象者2」ともいう)は、運転免許証の更新の通知を郵便等で受け取った場合、運転免許センター1で免許の更新を行う前に、本実施形態の認知機能の判定方法による検査を受検する。この検査結果は、運転免許センター1にて対象者2が運転免許証の更新を行う際に、上記の認知機能検査の代わりとして、或いは上記の認知機能検査の受検が必要な受検者を絞り込むために、用いられ得る。これにより、免許更新時にかかる負担を軽減することが可能となる。For example, when a driver (hereinafter also referred to as "subject 2") who is required to take a cognitive function test when renewing his/her driver's license receives a notice to renew his/her driver's license by mail or the like, he/she takes a test using the cognitive function assessment method of this embodiment before renewing the license at the driver's license center 1. The test results can be used as a substitute for the above-mentioned cognitive function test when the subject 2 renews his/her driver's license at the driver's license center 1, or to narrow down the test subjects who need to take the above-mentioned cognitive function test. This makes it possible to reduce the burden imposed when renewing a license.

まず、本実施形態の認知機能の判定方法(以下、単に「判定方法」ともいう)、及び認知機能の判定システム10の概要について、説明する。First, we will explain the cognitive function assessment method of this embodiment (hereinafter also simply referred to as the "assessment method") and an overview of the cognitive function assessment system 10.

本実施形態の判定方法は、上述のように、運転免許センター1(図2参照)における、対象者2への役務の提供に際して用いられる。運転免許センター1は、ここでは、自動車運転免許証(以下、単に「運転免許証」ともいう)の新規交付(以下、「発行」ともいう)と更新との少なくとも一方の役務を行う施設又は場所を意味する。As described above, the determination method of this embodiment is used when providing services to a subject 2 at a driver's license center 1 (see FIG. 2). Here, the driver's license center 1 refers to a facility or place that provides at least one of the services of issuing (hereinafter also referred to as "issuing") and renewing a driver's license (hereinafter also simply referred to as a "driver's license").

本実施形態での運転免許センター1は、運転免許証の発行と更新との少なくとも一方の役務を行えばよく、運転免許試験場、交通安全(教育)センター、総合交通センター、運転(者)教育センター、運転者講習センター、免許センター、安全運転学校、試験場、(免許)更新センター等と呼ばれる施設を含み得る。また、本実施形態での運転免許センター1は、運転免許証の更新の役務を行う施設としての警察署を含んでもよい。運転免許センター1は、運転免許証の再交付等の、他の役務を更に行ってもよい。The driver's license center 1 in this embodiment only needs to perform at least one of the services of issuing and renewing driver's licenses, and may include facilities called driver's license testing centers, traffic safety (education) centers, comprehensive traffic centers, driver (person) education centers, driver training centers, license centers, safe driving schools, testing centers, (license) renewal centers, etc. The driver's license center 1 in this embodiment may also include a police station as a facility that performs the service of renewing driver's licenses. The driver's license center 1 may also perform other services, such as reissuing driver's licenses.

図3に示すように、本実施形態の判定方法は、音声取得処理S6と、推定処理S9と、反映処理S12と、を含む。As shown in FIG. 3, the determination method of this embodiment includes an audio acquisition process S6, an estimation process S9, and a reflection process S12.

音声取得処理S6は、対象者2に定型文の読み上げを実行させ、読み上げに係る音声データを取得することを含む。推定処理S9は、音声取得処理S6で取得された音声データに基づいて、対象者2の認知機能を推定することを含む。反映処理S12は、運転免許センター1での対象者2への役務の提供の手順又は役務の提供の可否の判断に、推定処理S9の結果を反映させることを含む。The voice acquisition process S6 includes having the subject 2 read out a standard phrase and acquiring voice data related to the reading. The estimation process S9 includes estimating the cognitive function of the subject 2 based on the voice data acquired in the voice acquisition process S6. The reflection process S12 includes reflecting the result of the estimation process S9 in the procedure for providing services to the subject 2 at the driver's license center 1 or in the decision on whether or not to provide the services.

判定システム10(図1参照)は、本実施形態の判定方法を具現化する一態様である。つまり、判定システム10は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センター1における、対象者2への役務の提供に際して用いられる。判定システム10は、音声取得処理S6を実行するための音声取得部F5と、推定処理S9を実行するための推定部F7と、反映処理S12を実行するための反映部F13と、を備えている。The determination system 10 (see FIG. 1) is one aspect that embodies the determination method of this embodiment. In other words, the determination system 10 is used when providing services to a subject 2 at a driver's license center 1 that performs at least one of the services of issuing and renewing driver's licenses. The determination system 10 includes a voice acquisition unit F5 for executing the voice acquisition process S6, an estimation unit F7 for executing the estimation process S9, and a reflection unit F13 for executing the reflection process S12.

本実施形態の判定方法及び判定システム10では、対象者2への運転免許証の発行若しくは更新の際の手順又は可否の判断に反映されることとなる、対象者2の認知機能の推定を、対象者2が定型文の読み上げを行った際の音声を示す音声データに基づいて行っている。そのため、例えばテスト用紙に解答を記入してそれを採点する検査方法に比べて、認知機能の検査に要する時間及び手間を短縮することが可能となり、免許更新時に対象者2及び運転免許センター1にかかる負担を低減することが可能となる。要するに、本実施形態の判定方法及び判定システム10によれば、免許更新時の負担の軽減を図ることが可能となる。また、運転免許証の発行時に認知機能検査を行なう場合についても、本実施形態の認知機能の判定方法及び判定システム10を用いることで、免許発行時の負担の軽減を図ることが可能となる。In the determination method and determination system 10 of this embodiment, the cognitive function of the subject 2, which will be reflected in the procedure or judgment of whether or not to issue or renew a driver's license to the subject 2, is estimated based on voice data indicating the voice of the subject 2 when reading a fixed phrase. Therefore, compared to a test method in which answers are written on a test paper and then graded, it is possible to reduce the time and effort required for the cognitive function test, and it is possible to reduce the burden on the subject 2 and the driver's license center 1 when renewing the license. In short, according to the determination method and determination system 10 of this embodiment, it is possible to reduce the burden at the time of license renewal. In addition, even when a cognitive function test is performed at the time of issuing a driver's license, it is possible to reduce the burden at the time of license issuance by using the cognitive function determination method and determination system 10 of this embodiment.

(2)詳細
以下、本実施形態の判定方法、判定システム10の詳細について、図1~図3を参照して説明する。
(2) Details Hereinafter, the determination method and the determination system 10 of the present embodiment will be described in detail with reference to FIGS.

(2.1)全体構成
図1、図2に、本実施形態の判定方法を実行するための判定システム10の構成を示す。
(2.1) Overall Configuration FIGS. 1 and 2 show the configuration of a determination system 10 for executing the determination method of this embodiment.

図1に示すように、判定システム10は、第1サーバ4と、第2サーバ5と、を備えている。判定システム10は、対象者2が所持する通話装置3と通信可能である。As shown in FIG. 1, the determination system 10 includes a first server 4 and a second server 5. The determination system 10 is capable of communicating with a communication device 3 carried by a subject 2.

ここでは、通話装置3は、対象者2によって携帯可能な装置を想定する。また、第1サーバ4は、本実施形態の判定方法の少なくとも一部をサービスとして提供する団体(企業等)の施設に設置されることを想定する。また、第2サーバ5は、運転免許センター1或いは運転免許センター1を管轄する団体の施設に設置されることを想定する。ただし、本実施形態はこのような配置に限定されない。 Here, the communication device 3 is assumed to be a device that can be carried by the subject person 2. The first server 4 is assumed to be installed in the facility of an organization (such as a company) that provides at least a part of the determination method of this embodiment as a service. The second server 5 is assumed to be installed in the facility of the driver's license center 1 or an organization that has jurisdiction over the driver's license center 1. However, this embodiment is not limited to such an arrangement.

通話装置3は、対象者2の音声を音声データに変換し、変換して得られた音声データを他の機器へ送信するための装置である。また、通話装置3は、他の機器から送信された音声データを、音声に変換して出力するよう構成されている。一例として、通話装置3としては、対象者2が所持する携帯端末、携帯電話又はパーソナルコンピュータである。携帯端末は、一例として、スマートフォン、タブレット端末等である。ここでは、通話装置3がスマートフォンであることを想定する。そのため、以下では、通話装置3が他の装置(第1サーバ4)と通信することを、「電話をかける」とも表現する。The communication device 3 is a device for converting the voice of the subject 2 into voice data and transmitting the converted voice data to another device. The communication device 3 is also configured to convert voice data transmitted from another device into voice and output it. As an example, the communication device 3 is a mobile terminal, mobile phone, or personal computer possessed by the subject 2. As an example, the mobile terminal is a smartphone, tablet terminal, etc. Here, it is assumed that the communication device 3 is a smartphone. Therefore, hereinafter, communication by the communication device 3 with another device (first server 4) is also expressed as "making a phone call."

図1に示すように、通話装置3は、通信部31と通話部32とを備えている。また、本実施形態の通話装置3は、表示部33、操作部34及び処理部35を更に備えている。As shown in FIG. 1, the communication device 3 includes a communication unit 31 and a communication unit 32. In addition, the communication device 3 of this embodiment further includes a display unit 33, an operation unit 34, and a processing unit 35.

通信部31は、通信インターフェースである。特に、通信部31は、電気通信回線NT1に接続可能な通信インターフェースであり、電気通信回線NT1を通じた通信を行う機能を有する。これにより、通話装置3は、電気通信回線NT1を通じて第1サーバ4と通信可能である(図2参照)。The communication unit 31 is a communication interface. In particular, the communication unit 31 is a communication interface that can be connected to the telecommunications line NT1, and has a function of communicating through the telecommunications line NT1. This allows the call device 3 to communicate with the first server 4 through the telecommunications line NT1 (see FIG. 2).

電気通信回線NT1は、例えば、移動体通信網、PSTN(公衆交換電話網)、インターネット等を含み得る。電気通信回線NT1は、単一の通信プロトコルに準拠したネットワークだけではなく、異なる通信プロトコルに準拠した複数のネットワークで構成され得る。通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。図2では簡略化されているが、電気通信回線NT1は、リピータハブ、スイッチングハブ、ブリッジ、ゲートウェイ、ルータ等のデータ通信機器を含み得る。The telecommunications line NT1 may include, for example, a mobile communications network, a PSTN (public switched telephone network), the Internet, etc. The telecommunications line NT1 may be composed of multiple networks conforming to different communications protocols, rather than a network conforming to a single communications protocol. The communications protocols may be selected from a variety of well-known wired and wireless communications standards. Although simplified in FIG. 2, the telecommunications line NT1 may include data communications equipment such as a repeater hub, a switching hub, a bridge, a gateway, a router, etc.

通信部31は、電気通信回線NT1を介して第1サーバ4へ信号を送信する。通信部31が第1サーバ4へ送信する信号には、例えば、通話部32が取得した対象者2の音声を示す音声データ(音声信号)がある。その他、通信部31が第1サーバ4へ送信する信号には、例えば、操作部34に対する対象者2の操作入力に応じて出力される操作信号がある。The communication unit 31 transmits a signal to the first server 4 via the telecommunications line NT1. The signal transmitted by the communication unit 31 to the first server 4 includes, for example, voice data (voice signal) indicating the voice of the subject 2 acquired by the call unit 32. In addition, the signal transmitted by the communication unit 31 to the first server 4 includes, for example, an operation signal output in response to an operation input by the subject 2 to the operation unit 34.

通信部31は、電気通信回線NT1を介して第1サーバ4からの信号を受信する。通信部31が第1サーバ4から受信する信号には、例えば、第1サーバ4が通話装置3からの要求を受けて自動送信する音声データ(音声信号)(以下「自動音声信号」ともいう)がある。その他、通信部31が第1サーバ4から受信する信号には、例えば、推定部F7による認知機能の推定結果を示す推定結果信号がある。The communication unit 31 receives a signal from the first server 4 via the telecommunications line NT1. The signal that the communication unit 31 receives from the first server 4 includes, for example, voice data (voice signal) (hereinafter also referred to as "automatic voice signal") that the first server 4 automatically transmits upon receiving a request from the communication device 3. In addition, the signal that the communication unit 31 receives from the first server 4 includes, for example, an estimation result signal that indicates the result of the estimation of cognitive function by the estimation unit F7.

通話部32は、スピーカとマイクロホンとを備えている。マイクロホンは、対象者2が発した音声を含む音を、音声データ(音声信号)へと変換し、通信部31を介して外部へ出力する。スピーカは、外部から通信部31を介して入力された音声データ(音声信号)を、音声(音)に変換して出力する。The communication unit 32 includes a speaker and a microphone. The microphone converts sounds, including the voice uttered by the subject 2, into voice data (voice signals) and outputs the data to the outside via the communication unit 31. The speaker converts voice data (voice signals) input from the outside via the communication unit 31 into voice (sound) and outputs the voice data (voice signals).

表示部33は、通信部31で受信されたデータ等を用いて表示を行う。表示部33は、例えばLCD(Liquid Crystal Display)又は有機ELディスプレイを含んでいる。The display unit 33 displays data received by the communication unit 31. The display unit 33 includes, for example, an LCD (Liquid Crystal Display) or an organic EL display.

操作部34は、対象者2からの操作入力を受け付け、受け付けた操作に応じた信号を出力する。本実施形態では、通話装置3は汎用のスマートフォンであるので、例えばタッチパネルディスプレイのように、表示部33と操作部34とが一体化されている。タッチパネルディスプレイにおいては、通話装置3は、表示部33に表示される各画面上でのボタン等のオブジェクトの操作(タップ、スワイプ、ドラッグ等)が操作部34で検出されることをもって、ボタン等のオブジェクトが操作されたことと判断する。つまり、表示部33及び操作部34は、各種の表示に加えて、対象者2からの操作入力を受け付けるユーザインタフェースとして機能する。The operation unit 34 accepts operation input from the subject 2 and outputs a signal corresponding to the accepted operation. In this embodiment, since the calling device 3 is a general-purpose smartphone, the display unit 33 and the operation unit 34 are integrated, for example, as in a touch panel display. In a touch panel display, the calling device 3 determines that an object such as a button has been operated when the operation unit 34 detects an operation (tap, swipe, drag, etc.) of an object such as a button on each screen displayed on the display unit 33. In other words, the display unit 33 and the operation unit 34 function as a user interface that accepts operation input from the subject 2 in addition to various displays.

処理部35は、通話装置3の全体的な制御、すなわち、通信部31、通話部32、表示部33及び操作部34の動作を制御するように構成される。処理部35は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部35として機能する。プログラムは、ここでは処理部35のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。The processing unit 35 is configured to control the overall operation of the call device 3, i.e., the operation of the communication unit 31, the call unit 32, the display unit 33 and the operation unit 34. The processing unit 35 can be realized, for example, by a computer system including one or more processors (microprocessors) and one or more memories. That is, the one or more processors execute one or more programs (applications) stored in one or more memories to function as the processing unit 35. Here, the programs are pre-recorded in the memory of the processing unit 35, but they may also be provided via a telecommunications line such as the Internet, or recorded on a non-temporary recording medium such as a memory card.

通話装置3は、対象者2の生体情報を取得するための生体情報取得部を備えていてもよい。生体情報取得部は、例えば、対象者2の指紋の情報を取得する指紋取得部を有していてもよい。生体情報取得部は、例えば、対象者2の顔の情報を取得する顔情報取得部を有していてもよい。指紋取得部及び/又は顔情報取得部は、例えば通話装置3に設けられている撮像部(カメラ)であってもよい。その他、生体情報取得部は、対象者2の静脈情報を取得する静脈情報取得部を有していてもよい。The communication device 3 may include a biometric information acquisition unit for acquiring biometric information of the subject 2. The biometric information acquisition unit may include, for example, a fingerprint acquisition unit for acquiring fingerprint information of the subject 2. The biometric information acquisition unit may include, for example, a face information acquisition unit for acquiring face information of the subject 2. The fingerprint acquisition unit and/or the face information acquisition unit may be, for example, an imaging unit (camera) provided in the communication device 3. Additionally, the biometric information acquisition unit may include a vein information acquisition unit for acquiring vein information of the subject 2.

第1サーバ4は、図1に示すように、通信部41と記憶部42と処理部43とを備えている。As shown in FIG. 1, the first server 4 has a communication unit 41, a memory unit 42, and a processing unit 43.

第1サーバ4は、本実施形態の判定方法を実行する判定システム10の主体を構成する。第1サーバ4は、判定方法の各処理(図3参照)のうち「対象者特定処理S2」、「属性取得処理S3」、「本人確認処理S4」、「提示処理S5」、「音声取得処理S6」、「記録処理S7」、「特徴量取得処理S8」、「推定処理(認知機能推定処理)S9」、「出力処理S10」を実行する。The first server 4 constitutes the main body of the judgment system 10 that executes the judgment method of this embodiment. The first server 4 executes the "subject identification process S2", "attribute acquisition process S3", "identity verification process S4", "presentation process S5", "voice acquisition process S6", "recording process S7", "feature acquisition process S8", "estimation process (cognitive function estimation process) S9", and "output process S10" out of the various processes of the judgment method (see FIG. 3).

通信部41は、通信インターフェースである。通信部41は、電気通信回線NT1に接続可能な通信インターフェースであり、電気通信回線NT1を通じた通信を行う機能を有する。第1サーバ4は、電気通信回線NT1を通じて通話装置3と通信可能である。また、第1サーバ4は、電気通信回線NT1を通じて第2サーバ5と通信可能である。なお、通信部41が通話装置3と通信するための通信プロトコルは、通信部41が第2サーバ5と通信するための通信プロトコルと同じであってもよいし異なっていてもよい。The communication unit 41 is a communication interface. The communication unit 41 is a communication interface that can be connected to the telecommunications line NT1, and has the function of communicating through the telecommunications line NT1. The first server 4 can communicate with the call device 3 through the telecommunications line NT1. The first server 4 can also communicate with the second server 5 through the telecommunications line NT1. The communication protocol by which the communication unit 41 communicates with the call device 3 may be the same as or different from the communication protocol by which the communication unit 41 communicates with the second server 5.

通信部41は、電気通信回線NT1を介して通話装置3へ信号を送信する。通信部41が通話装置3へ送信する信号には、上述の自動音声信号、推定結果信号等がある。また、通信部41は、電気通信回線NT1を介して通話装置3からの信号を受信する。通信部41が通話装置3から受信する信号には、上述の音声信号、操作信号等がある。The communication unit 41 transmits a signal to the communication device 3 via the telecommunications line NT1. The signals that the communication unit 41 transmits to the communication device 3 include the above-mentioned automatic voice signal, the estimated result signal, etc. In addition, the communication unit 41 receives a signal from the communication device 3 via the telecommunications line NT1. The signals that the communication unit 41 receives from the communication device 3 include the above-mentioned voice signal, the operation signal, etc.

通信部41は、電気通信回線NT1を介して第2サーバ5へ信号を送信する。通信部41が第2サーバ5へ送信する信号には、例えば、対象者2の本人確認を行うために用いられる本人確認情報を要求する、要求信号がある。その他、通信部41が第2サーバ5へ送信する信号には、推定部F7による認知機能の推定結果を示す推定結果信号がある。The communication unit 41 transmits a signal to the second server 5 via the telecommunications line NT1. The signals transmitted by the communication unit 41 to the second server 5 include, for example, a request signal requesting identity verification information used to verify the identity of the subject 2. In addition, the signals transmitted by the communication unit 41 to the second server 5 include an estimation result signal indicating the result of the estimation of cognitive function by the estimation unit F7.

通信部41は、電気通信回線NT1を介して第2サーバ5からの信号を受信する。通信部41が第2サーバ5から受信する信号には、例えば、要求信号に応じて第2サーバ5から送信される、本人確認情報を示す信号がある。The communication unit 41 receives a signal from the second server 5 via the telecommunications line NT1. The signal that the communication unit 41 receives from the second server 5 includes, for example, a signal indicating identity verification information transmitted from the second server 5 in response to a request signal.

記憶部42は、情報を記憶するための装置である。記憶部42は、ROM(Read Only Memory)、RAM(Random Access Memory)、EEPROM等を含み得る。記憶部42には、通話装置3からの要求(電話での呼び出し)を受けて自動送信される自動音声の音声データが、記憶される。また、記憶部42には、学習済モデル(後述する)が記憶される。また、記憶部42は、通話装置3から送信される対象者2の音声データ(音声信号)を記憶するための領域を、有している。The memory unit 42 is a device for storing information. The memory unit 42 may include a ROM (Read Only Memory), a RAM (Random Access Memory), an EEPROM, etc. The memory unit 42 stores voice data of an automated voice that is automatically transmitted in response to a request (telephone call) from the communication device 3. The memory unit 42 also stores a trained model (described later). The memory unit 42 also has an area for storing voice data (voice signals) of the subject 2 transmitted from the communication device 3.

処理部43は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部43として機能する。The processing unit 43 may be realized, for example, by a computer system including one or more processors (microprocessors) and one or more memories. In other words, the processing unit 43 functions as the one or more processors executing one or more programs (applications) stored in one or more memories.

処理部43は、第1サーバ4の全体的な制御、すなわち、通信部41及び記憶部42の動作を制御するように構成される。また、図1に示すように、処理部43は、対象者特定部F1と、属性取得部F2と、本人確認部F3と、提示部F4と、音声取得部F5と、記録部F6と、推定部F7と、出力部F8とを備えている。なお、対象者特定部F1、属性取得部F2、本人確認部F3、提示部F4、音声取得部F5、記録部F6、推定部F7及び出力部F8は、実体のある構成を示しているわけではなく、処理部43によって実現される機能を示している。The processing unit 43 is configured to control the overall control of the first server 4, i.e., to control the operation of the communication unit 41 and the memory unit 42. As shown in FIG. 1, the processing unit 43 includes a subject identification unit F1, an attribute acquisition unit F2, a personal identification unit F3, a presentation unit F4, a voice acquisition unit F5, a recording unit F6, an estimation unit F7, and an output unit F8. Note that the subject identification unit F1, the attribute acquisition unit F2, the personal identification unit F3, the presentation unit F4, the voice acquisition unit F5, the recording unit F6, the estimation unit F7, and the output unit F8 do not represent physical configurations, but rather represent functions realized by the processing unit 43.

対象者特定部F1は、通話装置3で通話している対象者2を特定する。本実施形態では、対象者特定部F1は、第2サーバ5の応答部F11(後述する)と協働して対象者2を特定する。The target person identification unit F1 identifies the target person 2 who is talking on the communication device 3. In this embodiment, the target person identification unit F1 identifies the target person 2 in cooperation with the response unit F11 (described later) of the second server 5.

対象者特定部F1は、例えば、通話装置3からの要求(電話での呼び出し)を受けると、記憶部42に記憶されている自動音声の音声データ(自動音声信号)を、通信部41を介して通話装置3へ送信する。For example, when the target person identification unit F1 receives a request (telephone call) from the communication device 3, it transmits the automated voice data (automated voice signal) stored in the memory unit 42 to the communication device 3 via the communication unit 41.

対象者特定部F1が送信させる自動音声は、対象者2を特定するための対象者情報の入力を促す内容を含み得る。対象者情報は、例えば、対象者2の免許証番号を含み得る。或いは、対象者情報は、対象者2の氏名、住所等を含み得る。The automated voice transmitted by the subject identification unit F1 may include content that prompts the input of subject information to identify the subject 2. The subject information may include, for example, the driver's license number of the subject 2. Alternatively, the subject information may include the name, address, etc. of the subject 2.

なお、対象者情報は通話装置3の電話番号であってもよく、この場合には対象者2による対象者情報の更なる入力は不要である。 In addition, the target person information may be the telephone number of the communication device 3, in which case there is no need for the target person 2 to further input the target person information.

対象者特定部F1は、自動音声に対して対象者2から通話装置3に入力された対象者情報を、通話装置3から受信し、受信した対象者情報に基づいて対象者2を特定する。対象者特定部F1による対象者2の特定は、例えば、受信した対象者情報を、所定の情報データベースDB1に記憶されている本人情報と対照することで、行われる。本人情報を含む情報データベースDB1は、本実施形態では、第2サーバ5の記憶部52に記憶されている。The subject identification unit F1 receives, from the communication device 3, the subject information input by the subject 2 to the communication device 3 in response to the automated voice, and identifies the subject 2 based on the received subject information. The subject identification unit F1 identifies the subject 2, for example, by comparing the received subject information with personal information stored in a specified information database DB1. In this embodiment, the information database DB1 containing the personal information is stored in the memory unit 52 of the second server 5.

対象者特定部F1は、対象者情報を第2サーバ5へ送信し、第2サーバ5から、対象者情報と情報データベースDB1との対照結果を受信する。対照結果は、第2サーバ5によって特定された対象者2を示す情報を含む。これにより、対象者特定部F1は、対象者2を特定する。なお、対象者特定部F1自体(すなわち第1サーバ4の処理部43)が、対象者情報と本人情報とを対照することで、対象者2を特定してもよい。例えば、対象者特定部F1は、第2サーバ5から情報データベースDB1の一部又は全部の情報を受信し、受信した情報データベースDB1の情報と対象者情報とを対照することで、対象者2を特定してもよい。The subject identification unit F1 transmits the subject information to the second server 5 and receives the comparison result between the subject information and the information database DB1 from the second server 5. The comparison result includes information indicating the subject 2 identified by the second server 5. This allows the subject identification unit F1 to identify the subject 2. Note that the subject identification unit F1 itself (i.e., the processing unit 43 of the first server 4) may identify the subject 2 by comparing the subject information with personal information. For example, the subject identification unit F1 may receive some or all of the information of the information database DB1 from the second server 5 and identify the subject 2 by comparing the information of the received information database DB1 with the subject information.

すなわち、本実施形態の判定方法は、対象者2を特定するための対象者特定処理S2を含む。 In other words, the determination method of this embodiment includes a subject identification process S2 for identifying the subject 2.

なお、通話装置3が指紋取得部等の生体情報取得部を有している場合、対象者情報は、対象者2の指紋等の生体情報を含み得る。或いは、対象者情報は、対象者2の生体情報として、対象者2の音声から得られる声紋の情報を含み得る。この場合、対象者特定処理S2は、対象者2の生体情報(指紋、声紋等)を用いて行われてもよい。 In addition, if the communication device 3 has a biometric information acquisition unit such as a fingerprint acquisition unit, the subject information may include biometric information such as a fingerprint of the subject 2. Alternatively, the subject information may include voiceprint information obtained from the voice of the subject 2 as the biometric information of the subject 2. In this case, the subject identification process S2 may be performed using the biometric information of the subject 2 (fingerprint, voiceprint, etc.).

属性取得部F2は、対象者特定部F1で特定された対象者2の属性に関する属性データを取得する。対象者2の属性としては、例えば、人種・性別・年齢(年代)・教育歴等がある。属性データは、例えば、上述の情報データベースDB1に、本人情報と紐付けて記憶されている。属性取得部F2は、通信部41を介して、第2サーバ5から対象者2の属性データを取得する。The attribute acquisition unit F2 acquires attribute data relating to the attributes of the subject 2 identified by the subject identification unit F1. The attributes of the subject 2 include, for example, race, sex, age (generation), educational background, etc. The attribute data is, for example, stored in the above-mentioned information database DB1 in association with personal information. The attribute acquisition unit F2 acquires the attribute data of the subject 2 from the second server 5 via the communication unit 41.

すなわち、本実施形態の判定方法は、対象者2の属性に関する属性データを取得する属性取得処理S3を含む。 That is, the determination method of this embodiment includes an attribute acquisition process S3 that acquires attribute data regarding the attributes of the subject 2.

本人確認部F3は、通話装置3で実際に通話している人が、対象者特定部F1で特定された対象者2本人で間違いないかを確認する。すなわち、通話装置3で通話している人が、自分のものではない他人の対象者情報(免許証番号等)を誤って入力する可能性があるので、本人確認部F3が、通話している人が対象者2本人であることを確認する。本人確認部F3は、対象者特定部F1で対象者2を特定すると、通信部41を介して第2サーバ5へ要求信号を送信し、要求信号の応答として第2サーバ5から、本人確認情報(対照情報)を取得する。本人確認情報は、例えば、対象者2の音声を事前に録音して得られた音声データ(以下、「対照音声データ」という)である。本人確認部F3は、通話装置3から得られる音声データを、対照音声データと比較することで、音声データで示される音声の発声者(通話している人)が対象者2本人であることを確認する。例えば、本人確認部F3は、各音声データで示される音声の声紋を比較し、その一致度を判定することで、本人確認を行う。The identity verification unit F3 verifies whether the person actually speaking on the communication device 3 is the subject 2 identified by the subject identification unit F1. In other words, since there is a possibility that the person speaking on the communication device 3 may mistakenly input the subject information (such as a driver's license number) of another person who is not the person himself, the identity verification unit F3 verifies that the person speaking is the subject 2. When the subject identification unit F1 identifies the subject 2, the identity verification unit F3 transmits a request signal to the second server 5 via the communication unit 41, and obtains identity verification information (control information) from the second server 5 in response to the request signal. The identity verification information is, for example, voice data obtained by recording the voice of the subject 2 in advance (hereinafter referred to as "control voice data"). The identity verification unit F3 compares the voice data obtained from the communication device 3 with the control voice data to verify that the speaker of the voice indicated by the voice data (the person speaking) is the subject 2 himself. For example, the identity verification unit F3 performs identity verification by comparing the voiceprints of the voices indicated by each voice data and determining the degree of agreement.

すなわち、本実施形態の判定方法は、対象者2が本人であることを確認するための本人確認処理S4を含む。本人確認処理S4は、対象者2の生体情報、より詳細には対象者2の声紋を用いて行われる。That is, the determination method of this embodiment includes an identity verification process S4 for verifying that the subject 2 is the person in question. The identity verification process S4 is performed using biometric information of the subject 2, more specifically, the voiceprint of the subject 2.

本人確認処理S4は、例えば、通話装置3から音声データを受信した場合に、任意のタイミングで行われてよい。例えば、本人確認処理S4は、対象者特定処理S2と平行して行われてよい。すなわち、対象者特定処理S2において対象者2の生体情報(声紋の情報)を用いて対象者2を特定し、かつ、本人確認処理S4において対象者2の生体情報(声紋の情報)を用いて本人確認を行なう構成の場合、対象者特定処理S2と平行して本人確認処理S4を行うことが可能である。また、本人確認処理S4は、判定方法の実行中及び実行後に、音声取得処理S6で取得される音声データを用いて随時行われてよい。The identity verification process S4 may be performed at any timing, for example, when voice data is received from the communication device 3. For example, the identity verification process S4 may be performed in parallel with the subject identification process S2. That is, in a configuration in which the subject identification process S2 identifies the subject 2 using the biometric information (voiceprint information) of the subject 2, and the identity verification process S4 uses the biometric information (voiceprint information) of the subject 2 to verify the subject's identity, it is possible to perform the identity verification process S4 in parallel with the subject identification process S2. Furthermore, the identity verification process S4 may be performed at any time using the voice data acquired in the voice acquisition process S6 during and after the execution of the determination method.

本人確認処理S4は、音声データ以外の情報を用いて行われてもよい。例えば、本人確認処理S4は、対象者2の指紋等の声紋以外の生体情報を用いて行われてもよいし、免許証番号等の生体情報以外の情報を用いて行われてもよい。また、本人確認処理S4は、対象者特定処理S2と同じ情報を用いて行われてもよい。The identity verification process S4 may be performed using information other than voice data. For example, the identity verification process S4 may be performed using biometric information other than the subject 2's voiceprint, such as a fingerprint, or may be performed using information other than biometric information, such as a driver's license number. The identity verification process S4 may also be performed using the same information as the subject identification process S2.

提示部F4は、対象者特定部F1による対象者2の特定後、記憶部42に記憶されている自動音声の音声データ(自動音声信号)を、通信部41を介して通話装置3へ送信する。After the target person 2 is identified by the target person identification unit F1, the presentation unit F4 transmits the automated voice data (automatic voice signal) stored in the memory unit 42 to the communication device 3 via the communication unit 41.

提示部F4が送信させる自動音声は、対象者2に定型文の読み上げを促す指示内容を含む。指示内容は、例えば、対象者2に読み上げられるべき定型文と、この定型文の読み上げを行うべき期間の始点及び終点を示す音(例えば「ピ」音)と、を含んでもよい。The automated voice transmitted by presentation unit F4 includes instructions prompting subject 2 to read a standard phrase. The instructions may include, for example, the standard phrase to be read to subject 2 and a sound (e.g., a beep) indicating the start and end of the period during which the standard phrase should be read.

指示内容は、異なる複数の定型文を含んでもよい。例えば、指示内容は、6種類の定型文を順次読み上げさせる内容を含んでもよい。定型文は、例えば、閉鎖子音と後続母音とからなる文字が、5以上含まれていてもよい。定型文の一例としては、例えば、「きたからきたかたたたきき」等の文がある。The instruction contents may include a plurality of different standard phrases. For example, the instruction contents may include six types of standard phrases to be read out in sequence. The standard phrases may include, for example, five or more characters each consisting of a stop consonant and a following vowel. An example of a standard phrase is a sentence such as "Kita kara kita kata ta ta taki ki."

また、指示内容は、同一の定型文の複数回の読み上げを指示する内容を含んでもよい。この場合、指示内容は、定型文を読み上げるべき回数を含んでもよい。The instruction content may also include an instruction to read the same template multiple times. In this case, the instruction content may include the number of times the template should be read.

すなわち、本実施形態の判定方法は、定型文の読み上げを促す情報を対象者2に提示する提示処理S5を含む。また、提示処理S5は、対象者2に定型文の読み上げを促す自動音声を再生することを含む。That is, the determination method of this embodiment includes a presentation process S5 that presents information prompting the subject 2 to read out the standard phrase. The presentation process S5 also includes playing an automatic voice that prompts the subject 2 to read out the standard phrase.

音声取得部F5は、提示部F4によって送信された自動音声に応答して対象者2から発せられた音声を示すデータであって通話装置3から送信される音声データを、通信部41を介して取得する。すなわち、本実施形態の判定方法は、対象者2に定型文の読み上げを実行させ読み上げに係る音声データを取得する音声取得処理S6を含む。音声取得処理S6では、電気通信回線NT1を通じて、音声データが取得される。The voice acquisition unit F5 acquires, via the communication unit 41, voice data indicating the voice uttered by the subject 2 in response to the automated voice transmitted by the presentation unit F4 and transmitted from the communication device 3. That is, the determination method of this embodiment includes a voice acquisition process S6 that causes the subject 2 to read a standard phrase aloud and acquires voice data relating to the reading. In the voice acquisition process S6, the voice data is acquired via the telecommunications line NT1.

記録部F6は、音声取得部F5で取得した音声データを、記憶部42に記録(録音)させる。すなわち、本実施形態の判定方法は、音声取得処理S6で取得された音声データを記録する記録処理S7を含む。The recording unit F6 records (audio-records) the voice data acquired by the voice acquisition unit F5 in the memory unit 42. That is, the determination method of this embodiment includes a recording process S7 that records the voice data acquired by the voice acquisition process S6.

推定部F7は、記憶部42に記録された音声データ(音声取得部F5で取得した音声データ)を処理することで、対象者2の認知機能を推定する。すなわち、本実施形態の判定方法は、音声取得処理S6で取得された音声データに基づいて対象者2の認知機能を推定する推定処理S9を含む。The estimation unit F7 estimates the cognitive function of the subject 2 by processing the voice data (voice data acquired by the voice acquisition unit F5) recorded in the memory unit 42. That is, the determination method of this embodiment includes an estimation process S9 that estimates the cognitive function of the subject 2 based on the voice data acquired in the voice acquisition process S6.

推定部F7は、例えば、音声データから抽出される特徴量を用いて、対象者2の認知機能を推定する。すなわち、本実施形態の判定方法は、音声データから特徴量を抽出する特徴量取得処理S8を含む。また、推定部F7によって実行される推定処理S9は、音声データから抽出される特徴量を用いて認知機能を推定することを含む。The estimation unit F7 estimates the cognitive function of the subject 2, for example, using features extracted from the voice data. That is, the determination method of this embodiment includes a feature acquisition process S8 that extracts features from the voice data. Furthermore, the estimation process S9 executed by the estimation unit F7 includes estimating the cognitive function using the features extracted from the voice data.

本実施形態の判定システム10において、推定部F7は、属性取得部F2で取得した属性データを更に用いて、認知機能を推定する。すなわち、推定部F7によって実行される推定処理S9は、音声データに加えて、対象者2の属性に関する属性データを更に用いて認知機能を推定することを含む。In the determination system 10 of this embodiment, the estimation unit F7 estimates the cognitive function by further using the attribute data acquired by the attribute acquisition unit F2. That is, the estimation process S9 executed by the estimation unit F7 includes estimating the cognitive function by further using attribute data related to the attributes of the subject 2 in addition to the voice data.

本実施形態の判定システム10において、推定部F7は、学習済モデルM1を利用して対象者2の認知機能を推定する。本実施形態の判定システム10において、学習済モデルM1は、例えばロジスティック回帰モデルである。すなわち、推定部F7によって実行される推定処理S9では、機械学習により生成された学習済モデルM1を用いて、対象者2の認知機能の推定を行う。In the judgment system 10 of this embodiment, the estimation unit F7 estimates the cognitive function of the subject 2 using the trained model M1. In the judgment system 10 of this embodiment, the trained model M1 is, for example, a logistic regression model. That is, in the estimation process S9 executed by the estimation unit F7, the cognitive function of the subject 2 is estimated using the trained model M1 generated by machine learning.

学習済モデルM1は、与えられた入力(特徴量)に対して、対象者2の認知機能の程度を示す値を出力するように設計されている。推定部F7は、音声データから得られた特徴量を学習済モデルM1に与え、これによって学習済モデルM1から得られた値に基づいて、対象者2の認知機能の程度を推定する。このような学習済モデルM1は、認知機能の程度を示す値と特徴量との関係を規定する学習用データ(データセット)を用いた教師あり学習により生成することができる。学習済モデルM1は、記憶部42に記憶されている。The trained model M1 is designed to output a value indicating the degree of cognitive function of the subject 2 for a given input (feature). The estimation unit F7 provides the feature obtained from the voice data to the trained model M1, and estimates the degree of cognitive function of the subject 2 based on the value obtained from the trained model M1. Such a trained model M1 can be generated by supervised learning using training data (dataset) that specifies the relationship between the value indicating the degree of cognitive function and the feature. The trained model M1 is stored in the memory unit 42.

本実施形態において、推定処理S9に用いられる特徴量は、音声データで示される対象者2の音声に含まれる音節における母音の第一フォルマント周波数又は第二フォルマント周波数に関する量を含み得る。In this embodiment, the features used in the estimation process S9 may include quantities related to the first formant frequency or second formant frequency of a vowel in a syllable contained in the voice of subject 2 represented in the voice data.

ここにおいて、第一フォルマント周波数とは、人から発せられる音声に含まれる周波数ピークのうちで最も周波数が小さいピークに対応する周波数である。第二フォルマント周波数とは、人から発せられる音声に含まれる周波数ピークのうちで二番目に周波数が小さいピークに対応する周波数である。Here, the first formant frequency is the frequency corresponding to the smallest frequency peak contained in the speech produced by a person. The second formant frequency is the frequency corresponding to the second smallest frequency peak contained in the speech produced by a person.

一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の、第一フォルマント周波数、第二フォルマント周波数、又は第一フォルマント周波数に対する第二フォルマント周波数の比のばらつきを含み得る。ばらつきは、例えば標準偏差である。In one example, the amount may include a variance in the first formant frequency, the second formant frequency, or the ratio of the second formant frequency to the first formant frequency, of a plurality of vowels in a plurality of syllables included in the speech of the subject 2 represented by the speech data. The variance may be, for example, a standard deviation.

一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の、第一フォルマント周波数又は第二フォルマント周波数の変化量を含み得る。In one example, the amount may include a change in the first formant frequency or the second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data.

一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の第一フォルマント周波数又は第二フォルマント周波数の変化にかかる所要時間を含み得る。In one example, the above amount may include the time required for a change in the first or second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data.

一例において、上記量は、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の第一フォルマント周波数又は第二フォルマント周波数の、所要時間に対する変化量の比である変化率を含み得る。In one example, the above amount may include a rate of change, which is the ratio of the amount of change in the first formant frequency or the second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data to the time required.

一例において、上記量は、母音の第一フォルマント周波数に対する第二フォルマント周波数で形成される座標空間において、音声データで示される対象者2の音声に含まれる複数の音節における複数の母音の第一フォルマント周波数に対する第二フォルマント周波数の値をプロットした場合の、プロットされた複数の点の間の位置関係、又はそれらの点で形成される多角形の形状又は面積を含み得る。In one example, the above quantity may include the positional relationship between multiple plotted points when values of the first formant frequency versus the second formant frequency of multiple vowels in multiple syllables contained in the voice of subject 2 represented in the voice data are plotted in a coordinate space formed by the first formant frequency versus the second formant frequency of the vowels, or the shape or area of a polygon formed by those points.

また、推定処理S9に用いられる特徴量は、音声データで示される対象者2の音声に含まれる開音節における子音の音圧と当該子音に後続する母音の音圧との間の音圧差を含み得る。 In addition, the features used in the estimation process S9 may include the sound pressure difference between the sound pressure of a consonant in an open syllable contained in the voice of subject 2 represented in the voice data and the sound pressure of the vowel following the consonant.

推定処理S9に用いられる特徴量は、音声データで示される対象者2の音声に含まれる複数の開音節における、子音の音圧と当該子音に後続する母音の音圧との間の音圧差の、ばらつきを含み得る。The features used in the estimation process S9 may include the variation in the sound pressure difference between the sound pressure of a consonant and the sound pressure of the vowel following the consonant in multiple open syllables contained in the voice of the subject 2 represented in the voice data.

推定処理S9に用いられる特徴量は、定型文の読み上げに際し、対象者2が読み上げに要した総時間を含み得る。 The features used in the estimation process S9 may include the total time taken by the subject 2 to read the standard text.

推定処理S9に用いられる特徴量は、同一の定型文の複数回の読み上げに際し、複数回の読み上げにそれぞれ要した時間の変化量を含み得る。The features used in the estimation process S9 may include the amount of change in the time required for each of the multiple readings of the same template.

なお、本実施形態の判定方法を用いた認知機能の検査に用いられ得る対象者2の音声の特徴量については、特許第6337362号を参照されたい。 For information on the voice features of subject 2 that can be used to test cognitive function using the assessment method of this embodiment, please refer to Patent No. 6,337,362.

また、推定処理S9に用いられる特徴量は、属性取得部F2で取得された対象者2の属性を含み得る。 In addition, the features used in the estimation process S9 may include attributes of the subject 2 acquired by the attribute acquisition unit F2.

推定部F7は、対象者2の認知機能の推定結果を出力する。推定結果は、例えば、対象者2の認知機能の程度を示す数値で示される。推定部F7は、例えば、推定した認知機能の程度が、予め決められた複数段階のうちのどの段階に属するかを示す数値(例えば5段階中の2段階目等)を出力してもよい。The estimation unit F7 outputs an estimation result of the cognitive function of the subject 2. The estimation result is indicated, for example, by a numerical value indicating the degree of the cognitive function of the subject 2. The estimation unit F7 may output, for example, a numerical value indicating to which of a plurality of predetermined stages the estimated degree of cognitive function belongs (for example, the second stage out of five stages).

出力部F8は、推定部F7の推定結果に基づく結果情報を示す推定結果信号を、通信部41を介して通話装置3及び第2サーバ5へ出力する。出力部F8が出力する結果情報は、推定部F7から出力された推定結果(例えば数値)そのものであってもよいし、別の形態であってもよい。出力部F8が出力する結果情報は、例えば、推定結果に基づいて対象者2が次に取るべき行動を示す情報(例えば、病院で医師による認知機能検査を受けることを促す情報)、注意事項(認知機能の改善を促す情報)等であってもよい。通話装置3は、第1サーバ4から推定結果信号を受け取ると、その推定結果を、通話部32により音声で出力する又は表示部33により画像で表示することで、対象者2に通知してもよい。The output unit F8 outputs an estimation result signal indicating result information based on the estimation result of the estimation unit F7 to the communication device 3 and the second server 5 via the communication unit 41. The result information output by the output unit F8 may be the estimation result (e.g., a numerical value) itself output from the estimation unit F7, or may be in another form. The result information output by the output unit F8 may be, for example, information indicating the next action that the subject 2 should take based on the estimation result (e.g., information encouraging the subject 2 to undergo a cognitive function test by a doctor at a hospital), precautions (information encouraging the subject 2 to improve cognitive function), etc. When the communication device 3 receives the estimation result signal from the first server 4, the communication device 3 may notify the subject 2 of the estimation result by outputting it as a voice by the communication unit 32 or displaying it as an image by the display unit 33.

図1に示すように、第2サーバ5は、通信部51と記憶部52と処理部53とを備えている。図2に示すように、第2サーバ5は、例えば運転免許センター1に設置される。As shown in Figure 1, the second server 5 has a communication unit 51, a memory unit 52, and a processing unit 53. As shown in Figure 2, the second server 5 is installed, for example, in the driver's license center 1.

第2サーバ5は、判定方法の各処理(図3参照)のうち「記録処理S11」、「反映処理S12」を実行する。The second server 5 executes the "recording process S11" and the "reflection process S12" among the various processes of the determination method (see Figure 3).

通信部51は、通信インターフェースである。通信部51は、電気通信回線NT1に接続可能な通信インターフェースであり、電気通信回線NT1を通じた通信を行う機能を有する。第2サーバ5は、電気通信回線NT1を通じて第1サーバ4と通信可能である。The communication unit 51 is a communication interface. The communication unit 51 is a communication interface that can be connected to the telecommunications line NT1, and has the function of communicating through the telecommunications line NT1. The second server 5 can communicate with the first server 4 through the telecommunications line NT1.

通信部51は、電気通信回線NT1を介して第1サーバ4へ信号を送信する。通信部51が第1サーバ4へ送信する信号には、例えば、上述の本人確認情報を示す信号等がある。また、通信部51は、電気通信回線NT1を介して第1サーバ4からの信号を受信する。通信部51が第1サーバ4から受信する信号には、例えば、上述の要求信号、推定結果信号等がある。The communication unit 51 transmits a signal to the first server 4 via the telecommunications line NT1. The signal transmitted by the communication unit 51 to the first server 4 includes, for example, a signal indicating the above-mentioned personal identification information. The communication unit 51 also receives a signal from the first server 4 via the telecommunications line NT1. The signal received by the communication unit 51 from the first server 4 includes, for example, the above-mentioned request signal and estimation result signal.

記憶部52は、情報を記憶するための装置である。記憶部52は、ROM、RAM、EEPROM等を含み得る。記憶部52には、上述の情報データベースDB1が記憶される。The memory unit 52 is a device for storing information. The memory unit 52 may include a ROM, a RAM, an EEPROM, etc. The memory unit 52 stores the above-mentioned information database DB1.

処理部53は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部53として機能する。The processing unit 53 may be realized, for example, by a computer system including one or more processors (microprocessors) and one or more memories. In other words, the processing unit 53 functions as the one or more processors executing one or more programs (applications) stored in one or more memories.

処理部53は、第2サーバ5の全体的な制御、すなわち、通信部51及び記憶部52の動作を制御するように構成される。また、図1に示すように、処理部53は、応答部F11と、登録部F12と、反映部F13とを備えている。なお、応答部F11、登録部F12及び反映部F13は、実体のある構成を示しているわけではなく、処理部53によって実現される機能を示している。The processing unit 53 is configured to control the overall operation of the second server 5, i.e., the operation of the communication unit 51 and the memory unit 52. As shown in FIG. 1, the processing unit 53 includes a response unit F11, a registration unit F12, and a reflection unit F13. Note that the response unit F11, the registration unit F12, and the reflection unit F13 do not represent physical configurations, but rather represent functions realized by the processing unit 53.

応答部F11は、第1サーバ4から送信される信号に応じて、所定の応答を行う。The response unit F11 makes a predetermined response in response to a signal transmitted from the first server 4.

例えば、応答部F11は、第1サーバ4から送信される対象者情報を示す信号に応じて、対象者情報で示される対象者2を特定する。応答部F11は、例えば、受信した対象者情報を情報データベースDB1と対照することで、対象者2を特定する。応答部F11は、対照結果(特定された対象者2)を示す情報を、第1サーバ4へ送信する。すなわち、応答部F11は、第1サーバ4の対象者特定部F1と協働して、対象者2を特定する。このとき、応答部F11は、特定された対象者2の属性に関する属性データも合わせて送信する。For example, the response unit F11 identifies the subject 2 indicated in the subject information in response to a signal indicating the subject information transmitted from the first server 4. The response unit F11 identifies the subject 2, for example, by comparing the received subject information with an information database DB1. The response unit F11 transmits information indicating the comparison result (the identified subject 2) to the first server 4. That is, the response unit F11 cooperates with the subject identification unit F1 of the first server 4 to identify the subject 2. At this time, the response unit F11 also transmits attribute data regarding the attributes of the identified subject 2.

また、応答部F11は、第1サーバ4から送信される要求信号に応答して、本人確認情報を送信する。本人確認情報は、上述のように、対象者2の音声を事前に録音して得られた音声データである対照音声データである。対照音声データは、例えば、対象者2に対して運転免許証を発行(新規交付)する際に録音されてもよいし、過去の運転免許証の更新時に録音されてもよいし、運転免許証の交付又は更新に関係なく録音されてもよい。 Furthermore, the response unit F11 transmits identity verification information in response to a request signal transmitted from the first server 4. The identity verification information is control voice data, which is voice data obtained by pre-recording the voice of the subject 2, as described above. The control voice data may be recorded, for example, when issuing (newly issuing) a driver's license to the subject 2, or when renewing a previous driver's license, or may be recorded regardless of the issuance or renewal of a driver's license.

登録部F12は、第1サーバ4から推定結果信号を受信すると、推定結果信号で示される対象者2の認知機能の推定結果を、情報データベースDB1へ登録する。推定結果の情報は、情報データベースDB1において、対応する対象者2の本人情報と紐付けて登録される。登録部F12は、情報データベースDB1に既に推定結果の情報が登録されている場合、既に登録されている情報を新たな情報で書き換え(更新し)てもよいし、既に登録されている情報を残しつつ新たな情報を追加してもよい。When the registration unit F12 receives an estimation result signal from the first server 4, it registers the estimation result of the cognitive function of the subject 2 indicated by the estimation result signal in the information database DB1. The estimation result information is registered in the information database DB1 in association with the personal information of the corresponding subject 2. If estimation result information has already been registered in the information database DB1, the registration unit F12 may rewrite (update) the already registered information with new information, or may add new information while leaving the already registered information.

なお、情報データベースDB1に登録される対象者2の認知機能の推定結果には、有効期限が設定されていることが好ましい。有効期限に特に制限はないが、例えば、1年、半年、3ヶ月、1ヶ月、半月、1週間等であってもよい。It is preferable that an expiration date is set for the estimated cognitive function of the subject 2 registered in the information database DB1. There is no particular limit to the expiration date, but it may be, for example, one year, six months, three months, one month, half a month, one week, etc.

反映部F13は、運転免許センター1での対象者2への運転免許証の交付又は更新の手順、及び交付又は更新の可否の判断に、情報データベースDB1へ登録されている対象者2の認知機能の推定結果を反映させる。 The reflection unit F13 reflects the estimated results of the cognitive function of the subject 2 registered in the information database DB1 in the procedure for issuing or renewing a driver's license to the subject 2 at the driver's license center 1, and in the decision on whether to issue or renew the license.

反映部F13は、例えば、認知機能の推定結果の程度に応じて、対象者2が運転免許センター1にて運転免許証の更新を行う際の手順を異ならせる。例えば、対象者2の認知機能が低下している場合(例えば、認知機能の程度を示す数値が、5段階中の最も悪い段階である場合)、反映部F13は、この対象者2の運転免許証の更新の際に、医師による認知機能検査の実施を義務づけてもよい。一方、対象者2の認知機能に問題がない場合(例えば、認知機能の程度を示す数値が、5段階中の最も良い段階である場合)、反映部F13は、この対象者2が運転免許証の更新のために運転免許センター1に赴いた際に、認知機能検査を省略させてもよい。The reflection unit F13, for example, changes the procedure when the subject 2 renews his/her driver's license at the driver's license center 1 depending on the degree of the estimated cognitive function. For example, if the cognitive function of the subject 2 is deteriorated (for example, if the numerical value indicating the degree of cognitive function is the worst level out of five levels), the reflection unit F13 may require a cognitive function test to be conducted by a doctor when the subject 2 renews his/her driver's license. On the other hand, if there is no problem with the cognitive function of the subject 2 (for example, if the numerical value indicating the degree of cognitive function is the best level out of five levels), the reflection unit F13 may omit the cognitive function test when the subject 2 visits the driver's license center 1 to renew his/her driver's license.

反映部F13が推定結果を反映させる具体的な手段は、特に限定されない。例えば、反映部F13は、医師による認知機能検査の実施が必要か否かを対象者2毎に示す情報を、運転免許センター1の職員に対して通知してもよい。例えば、反映部F13は、第2サーバ5に接続されている表示装置に、医師による認知機能検査の実施が必要か否かを対象者2毎に表示させてもよい。運転免許センター1の職員は、表示装置にてこの情報を参照することで、各対象者2の運転免許証の更新の際に、認知機能検査の実施が必要であるか否かを判断することが可能となる。 The specific means by which the reflection unit F13 reflects the estimation result is not particularly limited. For example, the reflection unit F13 may notify the staff of the driver's license center 1 of information indicating whether or not a cognitive function test by a doctor is required for each subject 2. For example, the reflection unit F13 may cause a display device connected to the second server 5 to display, for each subject 2, whether or not a cognitive function test by a doctor is required. By referring to this information on the display device, the staff of the driver's license center 1 can determine whether or not a cognitive function test is required when renewing the driver's license of each subject 2.

なお、情報データベースDB1において、ある対象者2の本人情報に対して認知機能の推定結果が複数紐付けられている場合、反映部F13は、最新の推定結果のみを反映させてもよいし、有効期限内の複数の推定結果を反映させてもよい。 In addition, when multiple estimated cognitive function results are linked to the personal information of a subject 2 in the information database DB1, the reflection unit F13 may reflect only the most recent estimated result, or may reflect multiple estimated results within the validity period.

(2.2)動作
次に、図3を参照して本実施形態の判定方法について簡単に説明する。
(2.2) Operation Next, the determination method of this embodiment will be briefly described with reference to FIG.

運転免許証の更新時に認知機能検査の受検を義務づけられている対象者2は、運転免許証の更新のために運転免許センター1に赴く前に、例えば自宅にて、通話装置3を用いて第1サーバ4へ電話で呼び出しを行う(呼出処理S1)。A subject 2 who is required to take a cognitive function test when renewing his/her driver's license makes a telephone call to the first server 4 using a communication device 3, for example at home, before going to a driver's license center 1 to renew his/her driver's license (call process S1).

第1サーバ4は、通話装置3によって電話で呼び出しを受けると、対象者2を特定するための対象者情報の入力を促す自動音声を、通話装置3へ送信する。対象者2は、自動音声に応答して、通話装置3を介して運転免許証番号等の対象者情報を入力し、第1サーバ4は、電気通信回線NT1を介して対象者情報を取得する。第1サーバ4は、取得した対象者情報を第2サーバ5へ送信し、第2サーバ5は、受信した対象者情報を情報データベースDB1と対照することで、対象者2を特定する。第2サーバ5は、特定した対象者2を示す情報を第1サーバ4へ送信し、第1サーバ4は、この情報を第2サーバ5から受信することで、対象者2を特定する(対象者特定処理S2)。また、第2サーバ5は、特定した対象者2の属性を示す属性データを第1サーバ4へ送信し、第1サーバ4は、対象者2の属性データを取得する(属性取得処理S3)。When the first server 4 receives a call by telephone through the communication device 3, it transmits an automated voice message to the communication device 3, prompting the user to input information on the subject 2 to identify the subject 2. The subject 2 responds to the automated voice message by inputting the subject information, such as the driver's license number, through the communication device 3, and the first server 4 acquires the subject information through the telecommunications line NT1. The first server 4 transmits the acquired subject information to the second server 5, and the second server 5 identifies the subject 2 by comparing the received subject information with the information database DB1. The second server 5 transmits information indicating the identified subject 2 to the first server 4, and the first server 4 receives this information from the second server 5 to identify the subject 2 (subject identification process S2). The second server 5 also transmits attribute data indicating the attributes of the identified subject 2 to the first server 4, and the first server 4 acquires the attribute data on the subject 2 (attribute acquisition process S3).

対象者2を特定すると、第1サーバ4は第2サーバ5へ要求信号を送信し、第2サーバ5から本人確認情報を取得する。第1サーバ4は、対象者2の特定後において対象者2との通話中に、本人確認情報を用いて、通話装置3の通話者が対象者2本人であることを確認する(本人確認処理S4)。When the target person 2 is identified, the first server 4 transmits a request signal to the second server 5 and acquires identity verification information from the second server 5. After identifying the target person 2, the first server 4 uses the identity verification information during the call with the target person 2 to verify that the caller on the call device 3 is the target person 2 (identity verification process S4).

また、対象者2を特定する(及び通話者が対象者2本人であることを確認する)と、第1サーバ4は、定型文の読み上げを促す自動音声を通話装置3へ送信する(提示処理S5)。また、第1サーバ4は、対象者2が定型文を読み上げた際の音声データを通話装置3から取得し(音声取得処理S6)、取得した音声データを記憶部42に記録(録音)する(記録処理S7)。第1サーバ4は、記録した音声データから、特徴量を抽出(取得)する(特徴量取得処理S8)。Furthermore, upon identifying the target person 2 (and confirming that the caller is the target person 2), the first server 4 transmits to the communication device 3 an automated voice prompting the target person 2 to read out the template (presentation process S5). The first server 4 also acquires from the communication device 3 voice data of the target person 2 reading out the template (voice acquisition process S6), and records (audio recording) the acquired voice data in the storage unit 42 (recording process S7). The first server 4 extracts (acquires) features from the recorded voice data (feature acquisition process S8).

第1サーバ4は、特徴量取得処理S8で取得した特徴量、及び属性取得処理S3で取得した属性データを用いて、対象者2の認知機能を推定する(認知機能推定処理(推定処理)S9)。第1サーバ4は、推定処理S9で得られた認知機能の推定結果を、通話装置3及び第2サーバ5へ出力する(出力処理S10)。The first server 4 estimates the cognitive function of the subject 2 using the features acquired in the feature acquisition process S8 and the attribute data acquired in the attribute acquisition process S3 (cognitive function estimation process (estimation process) S9). The first server 4 outputs the estimation result of the cognitive function obtained in the estimation process S9 to the communication device 3 and the second server 5 (output process S10).

通話装置3は、第1サーバ4から得られた認知機能の推定結果を、通話部32又は表示部33を介して、対象者2へ通知する。 The communication device 3 notifies the subject 2 of the estimated cognitive function results obtained from the first server 4 via the communication unit 32 or the display unit 33.

第2サーバ5は、第1サーバ4から得られた認知機能の推定結果を、記憶部52へ記録する(記録処理S11)。そして、第2サーバ5は、対象者2への運転免許証の交付若しくは更新の手順、又は交付若しくは更新の可否の判断に、対象者2の認知機能の推定結果を反映させる(反映処理S12)。The second server 5 records the estimated cognitive function obtained from the first server 4 in the memory unit 52 (recording process S11). The second server 5 then reflects the estimated cognitive function of the subject 2 in the procedure for issuing or renewing a driver's license to the subject 2, or in the decision on whether to issue or renew the license (reflection process S12).

その後、対象者2が、運転免許証の更新のために運転免許センター1に赴いた際には、対象者2は、判定法法による認知機能の推定結果が反映された手順に従って、運転免許証の更新を行うことができる。或いは、認知機能の推定結果が、運転免許証の更新に適さないとの結果を示す場合には、運転免許センター1の職員は、その旨を対象者2に告げて、医師による認知機能検査を受検することを対象者2に促してもよい。Thereafter, when subject 2 visits driver's license center 1 to renew his/her driver's license, subject 2 can renew his/her driver's license according to a procedure that reflects the estimated cognitive function result obtained by the assessment method. Alternatively, if the estimated cognitive function result indicates that subject 2 is not suitable for renewal of his/her driver's license, a staff member at driver's license center 1 may inform subject 2 of this and encourage subject 2 to undergo a cognitive function test by a doctor.

(2.3)利点
上述のように、本実施形態の認知機能の判定方法及び判定システム10によれば、対象者2に定型文を読み上げさせ、読み上げられた音声の音声データを処理することで、対象者2の認知機能の検査を行っている。この検査を実行する(定型文の読み上げ及び処理を行う)のに要する時間は、例えば6種類の定型文を対象者2に読み上げさせる場合であっても、3分程度である。一方、例えばテスト用紙に解答を記入してそれを採点する従来の検査方法では、解答時間及び採点時間を含めると、少なくとも30分程度の時間を要する。そのため、本実施形態の判定方法及び判定システム10を用いることで、従来の検査方法に比べて、検査に要する時間を短縮することが可能となる。
(2.3) Advantages As described above, according to the cognitive function assessment method and assessment system 10 of the present embodiment, the subject 2 is made to read a set phrase, and the speech data of the read speech is processed to test the cognitive function of the subject 2. The time required to perform this test (to read and process the set phrase) is about 3 minutes, even when the subject 2 is made to read six types of set phrases, for example. On the other hand, in the conventional test method in which answers are written on a test paper and then graded, it takes at least about 30 minutes, including the time to answer and the time to grade. Therefore, by using the assessment method and assessment system 10 of the present embodiment, it is possible to shorten the time required for the test compared to the conventional test method.

また、対象者2は、少なくとも通話装置3さえ所持していれば、本実施形態の認知機能の判定方法及び判定システム10による検査を受検することが可能である。そのため、対象者2は、任意の場所で検査を受けることが可能であり、従来の検査方法のように検査会場に赴いて検査を受ける必要がない。そのため、本実施形態の判定方法及び判定システム10によれば、従来の検査方法に比べて、対象者2の負担を軽減することが可能である。 Furthermore, as long as the subject 2 possesses at least the communication device 3, he or she can take the test using the cognitive function assessment method and assessment system 10 of this embodiment. Therefore, the subject 2 can take the test at any location, and does not need to go to a testing site as in conventional testing methods. Therefore, according to the assessment method and assessment system 10 of this embodiment, it is possible to reduce the burden on the subject 2 compared to conventional testing methods.

要するに、本実施形態の認知機能の判定方法及び判定システム10によれば、免許更新時の負担の軽減を図ることが可能となる。In short, the cognitive function assessment method and assessment system 10 of this embodiment make it possible to reduce the burden at the time of license renewal.

また、運転免許証の更新時に限らず、運転免許証の発行時に認知機能検査を行なう場合についても、本実施形態の認知機能の判定方法及び判定システム10を用いることで、免許発行時の負担の軽減を図ることが可能となる。 In addition, by using the cognitive function assessment method and assessment system 10 of this embodiment, it is possible to reduce the burden at the time of license issuance, not only when a cognitive function test is conducted at the time of driver's license issuance, but also when a cognitive function test is conducted at the time of driver's license issuance.

(3)変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上記実施形態に係る認知機能の判定方法と同様の機能は、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。
(3) Modifications The embodiments of the present disclosure are not limited to the above embodiments. The above embodiments can be modified in various ways depending on the design, etc., as long as the object of the present disclosure can be achieved. In addition, a function similar to the cognitive function assessment method according to the above embodiment may be embodied in a computer program, a non-transitory recording medium on which a computer program is recorded, or the like.

一態様に係る(コンピュータ)プログラムは、1以上のプロセッサに、上述の実施形態の判定方法を実行させるためのプログラムである。 A (computer) program in one aspect is a program for causing one or more processors to execute the determination method of the above-mentioned embodiment.

以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。Below, we list some variations of the above-mentioned embodiment. The variations described below can be applied in appropriate combinations.

本開示における認知機能の判定システム10は、例えば、通話装置3、第1サーバ4、第2サーバ5等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、通話装置3、第1サーバ4、第2サーバ5としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。The cognitive function assessment system 10 in the present disclosure includes a computer system, for example, in the communication device 3, the first server 4, the second server 5, etc. The computer system is mainly composed of a processor and a memory as hardware. The processor executes a program recorded in the memory of the computer system to realize the functions of the communication device 3, the first server 4, and the second server 5. The program may be pre-recorded in the memory of the computer system, may be provided through a telecommunication line, or may be recorded and provided in a non-transitory recording medium such as a memory card, an optical disk, or a hard disk drive that can be read by the computer system. The processor of the computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large-scale integrated circuit (LSI). The integrated circuits such as IC or LSI referred to here are called different names depending on the degree of integration, and include integrated circuits called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Furthermore, a field-programmable gate array (FPGA) that is programmed after the manufacture of an LSI, or a logic device that allows reconfiguration of the connection relationship within the LSI or reconfiguration of the circuit partition within the LSI, can also be adopted as a processor. The electronic circuits may be integrated into one chip, or may be distributed among multiple chips. The chips may be integrated into one device, or may be distributed among multiple devices. The computer system referred to here includes a microcontroller having one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or more electronic circuits including a semiconductor integrated circuit or a large-scale integrated circuit.

また、第1サーバ4、第2サーバ5の各々における複数の機能が、1つの筐体内に集約されていることは判定システム10に必須の構成ではなく、第1サーバ4、第2サーバ5の各々の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、判定システム10の少なくとも一部の機能、例えば、第1サーバ4及び第2サーバ5の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。In addition, it is not essential for the determination system 10 that the multiple functions of each of the first server 4 and the second server 5 are concentrated in one housing, and each of the components of the first server 4 and the second server 5 may be distributed across multiple housings. Furthermore, at least some of the functions of the determination system 10, for example, some of the functions of the first server 4 and the second server 5, may be realized by the cloud (cloud computing) or the like.

反対に、上述の実施形態において、複数の装置に分散されている判定システム10の少なくとも一部の機能が、1つの筐体内に集約されていてもよい。例えば、第1サーバ4と第2サーバ5とに分散されている判定システム10の一部の機能が、1つの筐体内に集約されていてもよい。Conversely, in the above-described embodiment, at least some of the functions of the determination system 10 that are distributed among multiple devices may be consolidated in one housing. For example, some of the functions of the determination system 10 that are distributed among the first server 4 and the second server 5 may be consolidated in one housing.

一変形例において、提示処理S5では、対象者2に定型文の読み上げを促す情報を視覚的に与えてもよい。例えば、提示処理S5において、対象者2に定型文の読み上げを促す文章、画像、映像等を、通話装置3の表示部33に表示させてもよい。In one modified example, in the presentation process S5, information may be visually provided to the subject 2 to prompt the subject 2 to read out the standard phrase. For example, in the presentation process S5, text, images, videos, etc. that prompt the subject 2 to read out the standard phrase may be displayed on the display unit 33 of the communication device 3.

一変形例において、提示処理S5において提示される内容(自動音声の内容、文章、画像等)は、解答が一義的に決まる質問を含んでもよい。質問は、運転免許証に関連していてもよい。質問の例としては、例えば、一時停止標識の色を答えさせる質問、表示部33にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、表示部33にナンバープレートの画像を表示させて地名、番号等を答えさせる質問等がある。表示部33に表示される画像は、動画であってもよく、例えばその大きさが徐々に変化する(徐々に大きくなる)画像であってもよい。また、表示部33に一時的に画像を表示させてその内容を対象者2に記憶させた後に画像を非表示とし、画像に示されていた内容についての質問を対象者2に提示してもよい。すなわち、提示処理S5では、運転免許証に関連する質問を対象者2に提示し、この質問は、質問に対する解答としての定型文の読み上げを対象者2に促してもよい。In one modified example, the content presented in the presentation process S5 (contents of the automatic voice, text, images, etc.) may include a question for which the answer is uniquely determined. The question may be related to a driver's license. Examples of questions include a question to answer the color of a stop sign, a question to answer the speed indicated by a speedometer by displaying an image of a speedometer on the display unit 33, and a question to answer a place name, number, etc. by displaying an image of a license plate on the display unit 33. The image displayed on the display unit 33 may be a moving image, for example, an image whose size gradually changes (gradually becomes larger). In addition, an image may be temporarily displayed on the display unit 33, and the content may be stored by the subject 2, and then the image may be hidden, and a question about the content shown in the image may be presented to the subject 2. That is, in the presentation process S5, a question related to a driver's license may be presented to the subject 2, and the question may prompt the subject 2 to read out a standard phrase as an answer to the question.

一変形例において、提示処理S5において提示される内容は、解答が一義的に決まらない質問を、更に含んでもよい。質問の例としては、例えば、対象者2の氏名、年齢、教育歴等を答えさせる質問がある。In one modified example, the content presented in the presentation process S5 may further include questions for which the answer is not clearly defined. Examples of questions include questions that ask the subject 2 to answer the name, age, educational background, etc.

一変形例において、推定処理S9に用いられる特徴量は、通話装置3に対する対象者2の操作入力に関する情報(例えば、タッチパネルに対する操作速度等)を、更に含んでもよい。すなわち、判定方法は、対象者2から通話装置3への操作入力を受け付ける操作受け付け処理を更に備えてもよい。推定処理S9では、音声取得処理S6で取得された音声データに加えて、操作入力の結果を更に用いて、対象者2の認知機能を推定してもよい。In one variant, the feature used in the estimation process S9 may further include information regarding the subject 2's operation input to the communication device 3 (e.g., the operation speed on the touch panel, etc.). That is, the determination method may further include an operation acceptance process that accepts operation input from the subject 2 to the communication device 3. In the estimation process S9, the cognitive function of the subject 2 may be estimated by further using the result of the operation input in addition to the voice data acquired in the voice acquisition process S6.

一変形例において、本人情報を含む情報データベースDB1は、第1サーバ4の記憶部42に記録されていてもよい。この場合、第1サーバ4のみで、対象者特定処理S2、属性取得処理S3、本人確認処理S4を実行可能である。In one variant, the information database DB1 including the personal information may be recorded in the memory unit 42 of the first server 4. In this case, the subject identification process S2, the attribute acquisition process S3, and the personal identification process S4 can be executed by the first server 4 alone.

一変形例において、属性取得処理S3において、対象者2に通話装置3を用いて属性データを入力させてもよい。 In one variant, in the attribute acquisition process S3, the subject 2 may be asked to input attribute data using the communication device 3.

一変形例において、推定処理S9において、対象者2の属性データを特徴量として用いなくてもよい。 In one variant, in the estimation process S9, attribute data of subject 2 does not need to be used as a feature.

一変形例において、通話装置3は、対象者2が携帯可能な装置に限られない。通話装置3は、例えば、対象者2の住戸に備えられるいわゆる固定電話、或いは対象者2を含む不特定多数の人が利用できるように設置される公衆電話等であってもよい。また、通話装置3は電話に限られず、マイクとスピーカ等の通話手段と通信部31とを備えていればよい。通話装置3は、運転免許センター1に備えられていてもよい。すなわち、対象者2は、運転免許センター1にて、本開示の判定方法による検査を受検してもよい。In one variant, the communication device 3 is not limited to a device that can be carried by the subject 2. The communication device 3 may be, for example, a so-called landline phone provided in the residence of the subject 2, or a public phone installed so that it can be used by an unspecified number of people including the subject 2. Furthermore, the communication device 3 is not limited to a telephone, but may be any device that has communication means such as a microphone and speaker and a communication unit 31. The communication device 3 may be provided at the driver's license center 1. In other words, the subject 2 may take an examination using the determination method of the present disclosure at the driver's license center 1.

一変形例において、判定方法において本人確認処理S4は必須ではなく、省略されてもよい。また、判定方法は、本人確認処理S4に代えて或いは加えて、代理受検抑止処理を含んでもよい。代理受検抑止処理は、対象者2以外の人が、対象者2の代わりに判定方法による検査を受検するのを抑止する処理である。なお、本人確認処理S4も、代理受検抑止処理として機能する。In one variant, the identity verification process S4 is not essential in the determination method and may be omitted. The determination method may also include a proxy test prevention process instead of or in addition to the identity verification process S4. The proxy test prevention process is a process that prevents people other than the subject 2 from taking the test using the determination method on behalf of the subject 2. The identity verification process S4 also functions as a proxy test prevention process.

一例において、代理受検抑止処理は、通話装置3の表示部33に所定の注意文を表示させることを含んでもよい。注意文の例としては、例えば、「テスト中は声紋による個人認証により常に同じ人が発話していることを確認しています」等の文章がある。In one example, the proxy test-taking prevention process may include displaying a predetermined warning message on the display unit 33 of the communication device 3. An example of the warning message is, for example, "During the test, we use voiceprint-based personal authentication to ensure that the same person is always speaking."

一例において、通話装置3がカメラ等の撮像部を備えている場合、代理受検抑止処理は、通話装置3で撮影された対象者2の画像を通話装置3の表示部33に表示させることを含んでもよい。この場合、撮影された対象者2の画像を処理した画像データから、対象者2が本人であるかの本人確認を実際に行ってもよいし、行わなくてもよい。また、この場合、判定方法は、対象者2が撮像部の撮像範囲から外れた場合に検査を中止する中止処理を含んでもよい。 In one example, if the communication device 3 is equipped with an imaging unit such as a camera, the proxy test prevention process may include displaying an image of the subject 2 captured by the communication device 3 on the display unit 33 of the communication device 3. In this case, the identity of the subject 2 may or may not be confirmed based on image data obtained by processing the captured image of the subject 2. Also, in this case, the determination method may include a cancellation process that cancels the test if the subject 2 moves out of the imaging range of the imaging unit.

一例において、代理受検抑止処理は、人(例えば運転免許センター1の職員以外の人)による監視を含んでもよい。例えば、運転免許証の更新の通知が郵送で行なわれる場合、代理受検抑止処理は、更新の通知を郵送する郵便局の職員による監視を含んでもよい。 In one example, the proxy test prevention process may include monitoring by a person (e.g., a person other than an employee of the driver's license center 1). For example, if a driver's license renewal notice is sent by mail, the proxy test prevention process may include monitoring by a post office employee who mails the renewal notice.

一変形例において、本人確認処理S4は、運転免許証の更新の際に用いられる第2暗証番号(ワンタイムパスワード)を用いてもよい。 In one variant, the identity verification process S4 may use a second PIN (one-time password) used when renewing a driver's license.

一変形例において、対象者2への推定結果の通知は即座に行われなくてもよく、例えば、電気通信回線NT1に接続されている所定のサーバに通話装置3からアクセスすることで、対象者2が推定結果を閲覧できてもよい。また、推定結果の通知は、通話装置3以外の手段(例えば郵送等)を介して行われてもよい。In one modified example, the subject 2 does not need to be notified of the estimation result immediately, and for example, the subject 2 may be able to view the estimation result by accessing a predetermined server connected to the telecommunications line NT1 from the communication device 3. The estimation result may also be notified via a means other than the communication device 3 (for example, by mail, etc.).

(4)まとめ
以上述べたように、第1の態様の認知機能の判定方法は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センター(1)における、対象者(2)への役務の提供に際して用いられる。判定方法は、音声取得処理(S6)と、推定処理(S9)と、反映処理(S12)と、を備える。音声取得処理(S6)では、対象者(2)に定型文の読み上げを実行させ読み上げに係る音声データを取得する。推定処理(S9)では、音声取得処理(S6)で取得された音声データに基づいて、対象者(2)の認知機能を推定する。反映処理(S12)では、運転免許センター(1)での対象者(2)への役務の提供の手順又は役務の提供の可否の判断に、推定処理(S9)の結果を反映させる。
(4) Summary As described above, the first aspect of the cognitive function assessment method is used when a driver's license center (1) that performs at least one of the services of issuing and renewing a driver's license provides services to a subject (2). The assessment method includes a voice acquisition process (S6), an estimation process (S9), and a reflection process (S12). In the voice acquisition process (S6), the subject (2) is made to read a standard phrase to acquire voice data related to the reading. In the estimation process (S9), the cognitive function of the subject (2) is estimated based on the voice data acquired in the voice acquisition process (S6). In the reflection process (S12), the result of the estimation process (S9) is reflected in the procedure for providing services to the subject (2) at the driver's license center (1) or in the judgment of whether or not the service can be provided.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第2の態様の認知機能の判定方法では、第1の態様において、推定処理(S9)では、音声データから抽出される特徴量を用いて認知機能を推定する。In the second aspect of the method for assessing cognitive function, in the first aspect, the estimation process (S9) estimates cognitive function using features extracted from the voice data.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第3の態様の認知機能の判定方法では、第2の態様において、特徴量は、以下の群から選択される1以上を含む。上記群は、音声データで示される対象者(2)の音声に含まれる音節における母音の第一フォルマント周波数、又は第二フォルマント周波数に関する量を含む。上記群は、音声データで示される対象者(2)の音声に含まれる開音節における子音の音圧と前記子音に後続する母音の音圧との間の音圧差を含む。上記群は、音声データで示される対象者(2)の音声に含まれる複数の開音節における、子音の音圧と前記子音に後続する母音の音圧との間の音圧差の、ばらつきを含む。上記群は、上記定型文の読み上げに要した総時間を含む。上記群は、上記定型文の複数回の読み上げにそれぞれ要した時間の変化量を含む。In the method for assessing cognitive function of the third aspect, in the second aspect, the feature quantity includes one or more selected from the following group. The group includes a quantity related to the first formant frequency or the second formant frequency of a vowel in a syllable included in the voice of the subject (2) represented by the voice data. The group includes a sound pressure difference between the sound pressure of a consonant in an open syllable included in the voice of the subject (2) represented by the voice data and the sound pressure of a vowel following the consonant. The group includes a variance in the sound pressure difference between the sound pressure of a consonant and the sound pressure of a vowel following the consonant in multiple open syllables included in the voice of the subject (2) represented by the voice data. The group includes a total time required to read the fixed phrase. The group includes a change in the time required for each of multiple readings of the fixed phrase.

この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.

第4の態様の認知機能の判定方法は、第1~第3の態様のいずれか1つにおいて、音声取得処理(S6)で取得された音声データを記録する記録処理(S7)を、更に備える。The fourth aspect of the method for assessing cognitive function in any one of the first to third aspects further includes a recording process (S7) for recording the voice data acquired in the voice acquisition process (S6).

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第5の態様の認知機能の判定方法は、第1~第4の態様のいずれか1つにおいて、推定処理(S9)では、機械学習により生成された学習済モデル(M1)を用いて、認知機能を推定する。The fifth aspect of the method for assessing cognitive function is any one of the first to fourth aspects, in which the estimation process (S9) estimates cognitive function using a trained model (M1) generated by machine learning.

この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.

第6の態様の認知機能の判定方法は、第1~第5の態様のいずれか1つにおいて、音声取得処理(S6)では、電気通信回線(NT1)を通じて音声データを取得する。The sixth aspect of the method for assessing cognitive function is any one of the first to fifth aspects, in which the voice acquisition process (S6) acquires voice data via a telecommunications line (NT1).

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第7の態様の認知機能の判定方法は、第1~第6の態様のいずれか1つにおいて、推定処理(S9)では、音声取得処理(S6)で取得された音声データに加えて、対象者(2)の属性に関する属性データを更に用いて、認知機能を推定する。The seventh aspect of the method for assessing cognitive function is any one of the first to sixth aspects, in which the estimation process (S9) estimates cognitive function by further using attribute data relating to the attributes of the subject (2) in addition to the voice data acquired in the voice acquisition process (S6).

この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.

第8の態様の認知機能の判定方法は、第1~第7の態様のいずれか1つにおいて、定型文の読み上げを促す情報を対象者に提示する提示処理(S5)を更に備える。The method for assessing cognitive function in the eighth aspect, in any one of the first to seventh aspects, further includes a presentation process (S5) for presenting information to the subject prompting the subject to read a standard phrase.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第9の態様の認知機能の判定方法は、第8の態様において、提示処理(S5)では、対象者(2)に定型文の読み上げを促す自動音声を再生する。 In the ninth aspect of the method for assessing cognitive function, in the eighth aspect, the presentation process (S5) involves playing an automated voice prompting the subject (2) to read a standard phrase.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第10の態様の認知機能の判定方法は、第8又は第9の態様において、提示処理(S5)では、対象者(2)に定型文の読み上げを促す情報を視覚的に与える。 In the tenth aspect of the method for assessing cognitive function, in the eighth or ninth aspect, the presentation process (S5) visually provides the subject (2) with information prompting him or her to read out a standard phrase.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第11の態様の認知機能の判定方法は、第8~第10の態様のいずれか1つにおいて、提示処理(S5)では、運転免許証に関連する質問を対象者(2)に提示する。上記質問は、質問に対する解答としての定型文の読み上げを対象者(2)に促す内容を含む。The cognitive function assessment method of the eleventh aspect is any one of the eighth to tenth aspects, in which the presentation process (S5) presents a question related to a driver's license to the subject (2). The question includes content that prompts the subject (2) to read out a standard phrase as an answer to the question.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第12の態様の認知機能の判定方法は、第1~第11の態様のいずれか1つにおいて、対象者(2)が本人であることを確認するための本人確認処理(S4)を更に備える。The cognitive function assessment method of the 12th aspect, in any one of the first to 11th aspects, further includes an identity verification process (S4) for verifying that the subject (2) is the subject himself/herself.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第13の態様の認知機能の判定方法は、第12の態様において、本人確認処理(S4)は、対象者(2)の生体情報を用いて行う。 In the 13th aspect of the method for assessing cognitive function, in the 12th aspect, the identity verification process (S4) is performed using biometric information of the subject (2).

この態様によれば、本人確認の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of identity verification.

第14の態様の認知機能の判定方法は、第13の態様において、生体情報は、対象者(2)の声紋の情報を含む。 In the 14th aspect of the method for assessing cognitive function, in the 13th aspect, the biometric information includes voiceprint information of the subject (2).

この態様によれば、本人確認の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of identity verification.

第15の態様の認知機能の判定方法は、第1~第14の態様のいずれか1つにおいて、対象者(2)を特定するための対象者特定処理(S2)を更に備える。The cognitive function assessment method of the 15th aspect, in any one of the first to fourteenth aspects, further includes a subject identification process (S2) for identifying the subject (2).

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第16の態様の認知機能の判定方法は、第15の態様において、対象者特定処理(S2)は、対象者(2)の生体情報を用いて行う。 In the 16th aspect of the method for assessing cognitive function, in the 15th aspect, the subject identification process (S2) is performed using biometric information of the subject (2).

この態様によれば、対象者(2)の特定の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of identifying the subject (2).

第17の態様の認知機能の判定方法は、第1~第16の態様のいずれか1つにおいて、対象者(2)からの操作入力を受け付ける操作受付処理を更に備える。推定処理(S9)は、音声取得処理(S6)で取得された音声データに加えて、操作入力の結果を更に用いて、認知機能を推定する。The cognitive function assessment method of the 17th aspect is any one of the first to 16th aspects, further comprising an operation reception process for receiving an operation input from the subject (2). The estimation process (S9) estimates the cognitive function by using the result of the operation input in addition to the voice data acquired in the voice acquisition process (S6).

この態様によれば、判定方法による判定結果の正確性の向上を図ることが可能となる。 According to this aspect, it is possible to improve the accuracy of the judgment results obtained by the judgment method.

第18の態様のプログラムは、第1~第17の態様のいずれか1つの認知機能の判定方法を、1以上のプロセッサに実行させるためのプログラムである。 The program of the 18th aspect is a program for causing one or more processors to execute a method for assessing cognitive function of any one of the first to seventeenth aspects.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

第19の態様の認知機能の判定システム(10)は、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センター(1)における、対象者(2)への役務の提供に際して用いられる。判定システム(10)は、音声取得部(F5)と、推定部(F7)と、反映部(F13)と、を備える。音声取得部(F5)は、対象者(2)に定型文の読み上げを実行させ読み上げに係る音声データを取得する。推定部(F7)は、音声取得部(F5)で取得された音声データに基づいて、対象者(2)の認知機能を推定する。反映部(F13)は、運転免許センター(1)での対象者(2)への役務の提供の手順又は役務の提供の可否の判断に、推定部(F7)の推定結果を反映させる。The cognitive function assessment system (10) of the 19th aspect is used when providing services to a subject (2) at a driver's license center (1) that performs at least one of the services of issuing and renewing driver's licenses. The assessment system (10) includes a voice acquisition unit (F5), an estimation unit (F7), and a reflection unit (F13). The voice acquisition unit (F5) causes the subject (2) to read a standard phrase and acquires voice data related to the reading. The estimation unit (F7) estimates the cognitive function of the subject (2) based on the voice data acquired by the voice acquisition unit (F5). The reflection unit (F13) reflects the estimation result of the estimation unit (F7) in the procedure for providing services to the subject (2) at the driver's license center (1) or in the judgment of whether or not to provide the service.

この態様によれば、免許更新時の負担の軽減を図ることが可能となる。 According to this aspect, it is possible to reduce the burden when renewing a license.

1 運転免許センター
2 対象者
10 判定システム
F5 音声取得部
F7 推定部
F13 反映部
S2 対象者特定処理
S4 本人確認処理
S5 提示処理
S6 音声取得処理
S7 記録処理
S9 推定処理
S12 反映処理
M1 学習済モデル
NT1 電気通信回線

1 Driver's License Center 2 Subject 10 Judgment system F5 Voice acquisition unit F7 Estimation unit F13 Reflection unit S2 Subject identification process S4 Personal identification process S5 Presentation process S6 Voice acquisition process S7 Recording process S9 Estimation process S12 Reflection process M1 Trained model NT1 Telecommunication line

Claims (20)

提示部と音声取得部と推定部と反映部とを備える認知機能の判定システムによる、運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センターにおける、対象者への前記役務の提供に際して用いられる認知機能の判定方法であって、
前記提示部が、前記対象者に定型文の読み上げを促す情報を提示する提示処理と、
前記音声取得部が、前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する音声取得処理と、
前記推定部が、前記音声取得処理で取得された前記音声データに基づいて、前記対象者の認知機能を推定する推定処理と、
前記反映部が、前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定処理の結果を反映させる反映処理と、
を備え、
前記提示処理では、前記運転免許証に関連する質問を前記対象者に提示し、
前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含み、
前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む、
認知機能の判定方法。
A method for assessing cognitive function, which is used in providing at least one of issuing and renewing a driver's license to a subject at a driver's license center that performs the service by using a cognitive function assessment system including a presentation unit, a voice acquisition unit, an estimation unit, and a reflection unit, comprising:
A presentation process in which the presentation unit presents information prompting the target person to read out a fixed phrase;
a voice acquisition process in which the voice acquisition unit causes the subject to perform the reading and acquires voice data related to the reading;
an estimation process in which the estimation unit estimates a cognitive function of the subject based on the voice data acquired in the voice acquisition process;
a reflection process in which the reflection unit reflects a result of the estimation process in a procedure for providing the service to the target person at the driver's license center or in a decision on whether or not to provide the service;
Equipped with
The presenting step presents a question related to the driver's license to the subject;
The question includes a content that prompts the subject to read out the standard phrase as an answer to the question,
The questions include a question in which an image of a speedometer is displayed on a display unit of a communication device that acquires the voice of the subject, and the subject answers the speed indicated by the meter, or a question in which an image of a license plate is displayed on the display unit, and the subject answers a place name and a number.
How to assess cognitive function.
前記推定処理では、前記音声データから抽出される特徴量を用いて前記認知機能を推定する、
請求項1に記載の認知機能の判定方法。
In the estimation process, the cognitive function is estimated using features extracted from the voice data.
The method for assessing cognitive function according to claim 1.
前記特徴量は、
前記音声データで示される前記対象者の音声に含まれる音節における母音の第一フォルマント周波数、又は第二フォルマント周波数に関する量、
前記対象者の音声に含まれる開音節における子音の音圧と前記子音に後続する母音の音圧との間の音圧差、
前記対象者の音声に含まれる複数の開音節における、子音の音圧と前記子音に後続する母音の音圧との間の音圧差の、ばらつき、
前記読み上げに要した総時間、
前記定型文の複数回の前記読み上げにそれぞれ要した時間の変化量
からなる群から選択される1以上を含む、
請求項2に記載の認知機能の判定方法。
The feature amount is
A quantity related to the first formant frequency or the second formant frequency of a vowel in a syllable included in the voice of the subject represented by the voice data;
A sound pressure difference between a sound pressure of a consonant in an open syllable included in the voice of the subject and a sound pressure of a vowel following the consonant;
Variation in sound pressure difference between a consonant and a vowel following the consonant in a plurality of open syllables included in the speech of the subject;
the total time required for said reading;
a change in the time required for each of the plurality of readouts of the template,
The method for assessing cognitive function according to claim 2.
前記判定システムは、記録部を更に備え、
前記判定方法は、前記音声取得処理で取得された前記音声データを前記記録部に記録する記録処理を、更に備える、
請求項1~3のいずれか1項に記載の認知機能の判定方法。
The determination system further includes a recording unit,
The determination method further includes a recording process of recording the voice data acquired in the voice acquisition process in the recording unit.
The method for assessing cognitive function according to any one of claims 1 to 3.
前記推定処理では、機械学習により生成された学習済モデルを用いて、前記認知機能を推定する、
請求項1~4のいずれか1項に記載の認知機能の判定方法。
In the estimation process, the cognitive function is estimated using a trained model generated by machine learning.
The method for assessing cognitive function according to any one of claims 1 to 4.
前記音声取得処理では、電気通信回線を通じて前記音声データを取得する、
請求項1~5のいずれか1項に記載の認知機能の判定方法。
In the voice acquisition process, the voice data is acquired through a telecommunication line.
The method for assessing cognitive function according to any one of claims 1 to 5.
前記推定処理では、前記音声取得処理で取得された前記音声データに加えて、前記対象者の属性に関する属性データを更に用いて、前記認知機能を推定する、
請求項1~6のいずれか1項に記載の認知機能の判定方法。
In the estimation process, the cognitive function is estimated by further using attribute data regarding attributes of the subject in addition to the voice data acquired in the voice acquisition process.
The method for assessing cognitive function according to any one of claims 1 to 6.
前記提示処理では、前記対象者に前記定型文の前記読み上げを促す自動音声を再生する、
請求項1~7のいずれか1項に記載の認知機能の判定方法。
In the presentation process, an automatic voice is played to prompt the target person to read out the template.
The method for assessing cognitive function according to any one of claims 1 to 7.
前記提示処理では、前記対象者に前記定型文の前記読み上げを促す情報を視覚的に与える、
請求項1~8のいずれか1項に記載の認知機能の判定方法。
In the presentation process, information prompting the target person to read out the template is visually provided.
The method for assessing cognitive function according to any one of claims 1 to 8.
前記判定システムは、本人確認部を更に備え、
前記判定方法は、前記本人確認部が、前記対象者が本人であることを確認する本人確認処理を更に備える、
請求項1~9のいずれか1項に記載の認知機能の判定方法。
The determination system further includes an identity verification unit,
The determination method further includes an identity verification process in which the identity verification unit verifies that the subject is the person in question.
The method for assessing cognitive function according to any one of claims 1 to 9.
前記本人確認処理は、前記対象者の生体情報を用いて行う、
請求項10に記載の認知機能の判定方法。
The identity verification process is performed using biometric information of the subject.
The method for assessing cognitive function according to claim 10.
前記生体情報は、前記対象者の声紋の情報を含む、
請求項11に記載の認知機能の判定方法。
The biometric information includes voiceprint information of the subject.
The method for assessing cognitive function according to claim 11.
前記判定システムは、対象者特定部を更に備え、
前記判定方法は、前記対象者特定部が、前記対象者を特定する対象者特定処理を更に備える、
請求項1~12のいずれか1項に記載の認知機能の判定方法。
The determination system further includes a subject identification unit,
The determination method further includes a subject identification process in which the subject identification unit identifies the subject.
The method for assessing cognitive function according to any one of claims 1 to 12.
前記対象者特定処理は、前記対象者の生体情報を用いて行う、
請求項13に記載の認知機能の判定方法。
The subject identification process is performed using biometric information of the subject.
The method for assessing cognitive function according to claim 13.
前記判定システムは、操作部を更に備え、
前記判定方法は、前記操作部が、前記対象者からの操作入力を受け付ける操作受付処理
を更に備え、
前記推定処理は、前記音声取得処理で取得された前記音声データに加えて、前記操作入力の結果を更に用いて、前記認知機能を推定する、
請求項1~14のいずれか1項に記載の認知機能の判定方法。
The determination system further includes an operation unit,
The method further includes an operation receiving process in which the operation unit receives an operation input from the subject,
The estimation process estimates the cognitive function by using a result of the operation input in addition to the voice data acquired in the voice acquisition process.
The method for assessing cognitive function according to any one of claims 1 to 14.
前記判定方法は、前記判定システムが、前記対象者以外の人が前記対象者の代わりに前記判定方法による検査を受検するのを抑止する代理受検抑止処理を更に備え、
前記代理受検抑止処理では、前記通話装置の前記表示部に、所定の注意文を表示させる、
請求項1~15のいずれか1項に記載の認知機能の判定方法。
The determination method further includes a proxy test suppression process in which the determination system suppresses a person other than the subject from taking the test by the determination method on behalf of the subject,
In the proxy test suppression process, a predetermined warning message is displayed on the display unit of the communication device.
A method for assessing cognitive function according to any one of claims 1 to 15.
前記判定方法は、前記判定システムが、前記対象者以外の人が前記対象者の代わりに前記判定方法による検査を受検するのを抑止する代理受検抑止処理を更に備え、
前記代理受検抑止処理では、前記通話装置で撮影された前記対象者の画像を、前記通話装置の前記表示部に表示させる、
請求項1~15のいずれか1項に記載の認知機能の判定方法。
The determination method further includes a proxy test suppression process in which the determination system suppresses a person other than the subject from taking the test by the determination method on behalf of the subject,
In the proxy test suppression process, an image of the subject photographed by the communication device is displayed on the display unit of the communication device.
The method for assessing cognitive function according to any one of claims 1 to 15 .
前記推定処理で推定された前記対象者の前記認知機能の推定結果には、有効期限が設定され、
前記反映処理では、前記有効期限内の前記推定結果が反映される、
請求項1~17のいずれか1項に記載の認知機能の判定方法。
An expiration date is set for the estimation result of the cognitive function of the subject estimated by the estimation process,
In the reflection process, the estimation result within the validity period is reflected.
A method for assessing cognitive function according to any one of claims 1 to 17.
請求項1~18のいずれか1項に記載の認知機能の判定方法を、1以上のプロセッサに実行させるプログラム。 A program that causes one or more processors to execute the cognitive function assessment method according to any one of claims 1 to 18. 運転免許証の発行と更新との少なくとも一方の役務を行う運転免許センターにおける、対象者への前記役務の提供に際して用いられる認知機能の判定システムであって、
前記対象者に定型文の読み上げを促す情報を提示する提示部と、
前記対象者に前記読み上げを実行させ前記読み上げに係る音声データを取得する音声取得部と、
前記音声取得部で取得された前記音声データに基づいて、前記対象者の認知機能を推定する推定部と、
前記運転免許センターでの前記対象者への前記役務の提供の手順又は前記役務の提供の可否の判断に、前記推定部の推定結果を反映させる反映部と、
を備え、
前記提示部は、前記運転免許証に関連する質問を前記対象者に提示し、
前記質問は、前記質問に対する解答としての前記定型文の前記読み上げを前記対象者に促す内容を含み、
前記質問は、前記対象者の音声を取得する通話装置の表示部にスピードメータの画像を表示させてメータが指し示す速度を答えさせる質問、又は前記表示部にナンバープレートの画像を表示させて地名及び番号を答えさせる質問を含む、
認知機能の判定システム。
A system for assessing cognitive function used in providing at least one of issuing and renewing a driver's license to a subject at a driver's license center, the system comprising:
A presentation unit that presents information that prompts the target person to read out a standard phrase;
a voice acquisition unit that causes the subject to perform the reading and acquires voice data related to the reading;
an estimation unit that estimates a cognitive function of the subject based on the voice data acquired by the voice acquisition unit;
A reflection unit that reflects an estimation result of the estimation unit in a procedure for providing the service to the target person at the driver's license center or a decision on whether or not to provide the service;
Equipped with
The presentation unit presents a question related to the driver's license to the subject,
The question includes a content that prompts the subject to read out the standard phrase as an answer to the question,
The questions include a question in which an image of a speedometer is displayed on a display unit of a communication device that acquires the voice of the subject, and the subject answers the speed indicated by the meter, or a question in which an image of a license plate is displayed on the display unit, and the subject answers a place name and a number.
A system for assessing cognitive function.
JP2021537304A 2019-08-05 2020-08-03 Method, program, and system for assessing cognitive function Active JP7479013B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019143998 2019-08-05
JP2019143998 2019-08-05
PCT/JP2020/029682 WO2021024987A1 (en) 2019-08-05 2020-08-03 Determination method for cognitive function, program, and determination system for cognitive function

Publications (2)

Publication Number Publication Date
JPWO2021024987A1 JPWO2021024987A1 (en) 2021-02-11
JP7479013B2 true JP7479013B2 (en) 2024-05-08

Family

ID=74502693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537304A Active JP7479013B2 (en) 2019-08-05 2020-08-03 Method, program, and system for assessing cognitive function

Country Status (2)

Country Link
JP (1) JP7479013B2 (en)
WO (1) WO2021024987A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205191A (en) 2016-05-17 2017-11-24 公立大学法人会津大学 Identification/reaction measuring device for measuring identification/reaction functions of subject, and program for executing/controlling measurement of identification/reaction functions of subject
JP2018050847A (en) 2016-09-27 2018-04-05 パナソニックIpマネジメント株式会社 Cognitive function evaluation apparatus, cognitive function evaluation method, and program
JP2018140741A (en) 2017-02-28 2018-09-13 パイオニア株式会社 Control device
JP2018148987A (en) 2017-03-10 2018-09-27 パイオニア株式会社 Determination device
JP2019083902A (en) 2017-11-02 2019-06-06 パナソニックIpマネジメント株式会社 Cognitive function evaluation apparatus and cognitive function evaluation system
JP6537005B1 (en) 2018-10-31 2019-07-03 日本テクトシステムズ株式会社 Test control system, method and program for cognitive function test

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4464674B2 (en) * 2003-12-17 2010-05-19 株式会社 Ytb Telephone reservation system with voice recognition function and automatic reservation schedule management method
US20120190001A1 (en) * 2011-01-25 2012-07-26 Hemisphere Centre for Mental Health & Wellness Inc. Automated cognitive testing methods and applications therefor
JP2015219731A (en) * 2014-05-19 2015-12-07 吉田 一雄 Inspection system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205191A (en) 2016-05-17 2017-11-24 公立大学法人会津大学 Identification/reaction measuring device for measuring identification/reaction functions of subject, and program for executing/controlling measurement of identification/reaction functions of subject
JP2018050847A (en) 2016-09-27 2018-04-05 パナソニックIpマネジメント株式会社 Cognitive function evaluation apparatus, cognitive function evaluation method, and program
JP2018140741A (en) 2017-02-28 2018-09-13 パイオニア株式会社 Control device
JP2018148987A (en) 2017-03-10 2018-09-27 パイオニア株式会社 Determination device
JP2019083902A (en) 2017-11-02 2019-06-06 パナソニックIpマネジメント株式会社 Cognitive function evaluation apparatus and cognitive function evaluation system
JP6537005B1 (en) 2018-10-31 2019-07-03 日本テクトシステムズ株式会社 Test control system, method and program for cognitive function test

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
上村 直人 他,「認知症と自動車運転」,老年期痴呆研究会誌,2010年08月24日,Vol.15,pp. 151 -159

Also Published As

Publication number Publication date
WO2021024987A1 (en) 2021-02-11
JPWO2021024987A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
Miller Measuring up to speech intelligibility
Munson et al. Deconstructing phonetic transcription: Covert contrast, perceptual bias, and an extraterrestrial view of Vox Humana
Schweinberger et al. Recognizing famous voices: Influence of stimulus duration and different types of retrieval cues
Pilnick et al. Advice, authority and autonomy in shared decision‐making in antenatal screening: the importance of context
McKechnie et al. Automated speech analysis tools for children’s speech production: A systematic literature review
Yousaf et al. A Novel Technique for Speech Recognition and Visualization Based Mobile Application to Support Two‐Way Communication between Deaf‐Mute and Normal Peoples
WO2006109268A1 (en) Automated speech disorder detection method and apparatus
KR102161638B1 (en) Method, System and Computer-Readable Mediums thereof for determining the degree of dementia Based on Voice Recognition Using Machine Learning Model
Siegelman Statistical learning abilities and their relation to language
JP2009503563A (en) Assessment of spoken language proficiency by computer
CN110738998A (en) Voice-based personal credit evaluation method, device, terminal and storage medium
Elliott Verbal auditory closure and the speech perception in noise (SPIN) test
Lehner et al. Web-based assessment of communication-related parameters in dysarthria: Development and implementation of the KommPaS web app
Lehner et al. Clinical measures of communication limitations in dysarthria assessed through crowdsourcing: Specificity, sensitivity, and retest-reliability
JP7479013B2 (en) Method, program, and system for assessing cognitive function
US11547345B2 (en) Dynamic neuropsychological assessment tool
JP2021064284A (en) Cognitive function evaluation system, cognitive function evaluation method, and program
Dubas et al. Speech-in-speech recognition in preschoolers
CN116072297A (en) Method and related device for determining mental health data based on novel interaction
Gauder et al. A Study on the manifestation of trust in speech
KR102468833B1 (en) Artificial Intelligence-based Mirror Counseling Method for Depression Treatment
CN113053409B (en) Audio evaluation method and device
Torgerson Jr A comparison of Beijing and Taiwan Mandarin tone register: An acoustic analysis of three native speech styles
McCartney Assessment of expressive language
Rex et al. A preliminary validation of a dynamic speech motor assessment for Swedish-speaking children with childhood apraxia of speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240412