JP2024068004A - Information processing method, program, and information processing system - Google Patents

Information processing method, program, and information processing system Download PDF

Info

Publication number
JP2024068004A
JP2024068004A JP2022178482A JP2022178482A JP2024068004A JP 2024068004 A JP2024068004 A JP 2024068004A JP 2022178482 A JP2022178482 A JP 2022178482A JP 2022178482 A JP2022178482 A JP 2022178482A JP 2024068004 A JP2024068004 A JP 2024068004A
Authority
JP
Japan
Prior art keywords
driver
information
driving
user interface
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022178482A
Other languages
Japanese (ja)
Other versions
JP7220862B1 (en
Inventor
倩穎 戴
貴登 中川
直人 小松
択真 大植
智明 前川
実 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2022178482A priority Critical patent/JP7220862B1/en
Application granted granted Critical
Publication of JP7220862B1 publication Critical patent/JP7220862B1/en
Publication of JP2024068004A publication Critical patent/JP2024068004A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】装適切な車両用ユーザインタフェースを生成する。【解決手段】運転者の運転操作に関する情報を取得する運転情報取得ステップと、運転者の運転操作中に、運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、運転者が所定の処理を実行中に、運転者の運転操作、所定の処理及び運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、運転者状態情報取得ステップにて取得した情報を基に、運転者の認知機能を評価する評価ステップと、評価ステップにより判定された運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、を含む。【選択図】図1[Problem] A method for generating an appropriate user interface for a vehicle includes a driving information acquisition step for acquiring information about a driver's driving operation, a separate task request step for requesting the driver to execute a predetermined process different from the driving operation while the driver is driving, a driver state information acquisition step for acquiring information about at least one of the driver's driving operation, the predetermined process, and the driver's state while the driver is executing the predetermined process, an evaluation step for evaluating the driver's cognitive function based on the information acquired in the driver state information acquisition step, and a generation step for generating a user interface for a vehicle based on the evaluation result of the driver's cognitive function determined in the evaluation step. [Selected Figure] Figure 1

Description

本発明は、情報処理方法、プログラム及び情報処理システムに関する。 The present invention relates to an information processing method, a program, and an information processing system.

引用文献1には、表示制御装置が開示されている。この文献に開示された表示制御装置は、車両の乗員が視認する液晶ディスプレイ等の表示手段における表示を制御するものであり、表示手段に表示する地図上のアイコン又はマークの表示態様を乗員への推薦度に応じて変更する。 Cited Document 1 discloses a display control device. The display control device disclosed in this document controls the display on a display means such as a liquid crystal display that is visually recognized by a vehicle occupant, and changes the display mode of icons or marks on a map displayed on the display means according to the degree of recommendation to the occupant.

特開2017-045285号公報JP 2017-045285 A

ところで、近年の車両の運転におけるユーザインタフェースは、車両の機能増加等の背景があり物理的なボタンからタッチスクリーンを利用した装置の採用が増加している。タッチスクリーンを操作する場合、表示が動的に変化することもあり、操作をする際にタッチスクリーンを注視することになるため、車両の運転中における操作には危険を伴うことがある。特に、運転者の車両運転時の認知機能(認知能力とも言う、以下「認知機能」と称する。)が低下している場合では、タッチスクリーンの操作に気が取られる可能性がある。したがって、適切な車両用ユーザインタフェースを生成する点において改善の余地がある。 In recent years, the user interface for driving a vehicle has increasingly been shifting from physical buttons to devices using touch screens, due to factors such as an increase in vehicle functionality. When operating a touch screen, the display may change dynamically, and the driver must look closely at the touch screen when operating it, which can be dangerous. In particular, if the driver's cognitive function (also known as cognitive ability, hereinafter referred to as "cognitive function") while driving a vehicle is impaired, the driver may be distracted by operating the touch screen. Therefore, there is room for improvement in generating an appropriate user interface for a vehicle.

本発明は、上記事実を考慮し、適切な車両用ユーザインタフェースを生成することができる情報処理方法、プログラム及び情報処理システムを得ることを目的とする。 In consideration of the above, the present invention aims to provide an information processing method, program, and information processing system that can generate an appropriate user interface for a vehicle.

一実施形態に係る情報処理方法によれば、情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、運転者の運転操作に関する情報を取得する運転情報取得ステップと、前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、を含む。 According to an information processing method according to one embodiment, a method for generating a user interface for a vehicle is executed by an information processing device, and includes a driving information acquisition step for acquiring information about a driver's driving operation, a separate task request step for requesting the driver to execute a predetermined process different from the driving operation while the driver is driving, a driver state information acquisition step for acquiring information about at least one of the driver's driving operation, the execution of the predetermined process, and the driver's state while the driver is executing the predetermined process, an evaluation step for evaluating the cognitive function of the driver based on the information acquired in the driver state information acquisition step, and a generation step for generating a user interface for a vehicle based on the evaluation result of the driver's cognitive function determined in the evaluation step.

一実施形態に係るプログラムによれば、情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、運転者の運転操作に関する情報を取得する運転情報取得ステップと、前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、をコンピュータに実行させる。 According to a program of one embodiment, a method for generating a user interface for a vehicle is executed by an information processing device, and the method causes a computer to execute the following steps: a driving information acquisition step for acquiring information about a driver's driving operation; a separate task request step for requesting the driver to execute a predetermined process different from the driving operation while the driver is driving; a driver state information acquisition step for acquiring information about at least one of the driver's driving operation, the execution of the predetermined process, and the driver's state while the driver is executing the predetermined process; an evaluation step for evaluating the cognitive function of the driver based on the information acquired in the driver state information acquisition step; and a generation step for generating a user interface for a vehicle based on the evaluation result of the driver's cognitive function determined in the evaluation step.

一実施形態に係る情報処理システムによれば、車両の運転のための運転操作情報を取得する運転情報取得装置と、運転を実行する運転者に対して車両運転以外の所定の処理の実行の要求、実行の受け付け、実行結果の取得を行う別タスク実行装置と、前記運転者に関する情報、前記運転情報取得装置による前記運転操作情報及び前記別タスク実行装置より取得される前記所定の処理の実行に関する情報の少なくとも一方から前記運転者の認知機能を評価する評価装置と、評価された前記認知機能に基いて車両用ユーザインタフェースを生成する生成装置と、を備え、前記運転者の運転操作に関する情報を取得する運転情報取得ステップと、前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、前記評価ステップにより判定された前記認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、を実行する。 According to an information processing system according to one embodiment, the information processing system includes a driving information acquisition device that acquires driving operation information for driving a vehicle, a separate task execution device that requests the driver who is driving to execute a predetermined process other than vehicle driving, accepts the execution, and acquires the execution result, an evaluation device that evaluates the cognitive function of the driver from at least one of information about the driver, the driving operation information by the driving information acquisition device, and information about the execution of the predetermined process acquired by the separate task execution device, and a generation device that generates a user interface for a vehicle based on the evaluated cognitive function, and executes the following steps: a driving information acquisition step that acquires information about the driving operation of the driver, a separate task request step that requests the driver to execute a predetermined process different from the driving operation while the driver is driving, a driver state information acquisition step that acquires information about at least one of the driving operation of the driver, the execution of the predetermined process, and the state of the driver while the driver is executing the predetermined process, an evaluation step that evaluates the cognitive function of the driver based on the information acquired in the driver state information acquisition step, and a generation step that generates a user interface for a vehicle based on the evaluation result of the cognitive function determined in the evaluation step.

一実施形態によれば、適切な車両用ユーザインタフェースを生成することができる。 According to one embodiment, an appropriate vehicle user interface can be generated.

第1実施形態に係る情報処理システムの構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an information processing system according to a first embodiment. 第1実施形態に係るシミュレータ装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a simulator device according to the first embodiment. 第1実施形態に係る別タスク実行装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a different task execution device according to the first embodiment. 第1実施形態に係る評価装置及び生成装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an evaluation device and a generation device according to the first embodiment. 第1実施形態に係るシミュレータ装置の機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of a simulator device according to the first embodiment. 第1実施形態に係る別タスク実行装置の機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of a different task execution device according to the first embodiment. 第1実施形態に係る評価装置及び生成装置の機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of an evaluation device and a generation device according to the first embodiment. 第1実施形態に係る情報処理システムが実行する処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing executed by the information processing system according to the first embodiment. (A)は第1実施形態に係る情報処理システムにより生成される通常状態の車両用ユーザインタフェースの表示の一例であり、(B)は(A)に対して評価結果に基づき異なって生成された車両用ユーザインタフェースの表示の一例を示す図である。FIG. 1A is an example of a display of a vehicle user interface in a normal state generated by the information processing system of the first embodiment, and FIG. 1B is a figure showing an example of a display of a vehicle user interface generated differently from (A) based on evaluation results. 第2実施形態に係る情報処理システムの構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a configuration of an information processing system according to a second embodiment. 第2実施形態に係る評価装置及び生成装置の機能構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a functional configuration of an evaluation device and a generation device according to a second embodiment. 第2実施形態に係る情報処理システムが実行する処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing executed by an information processing system according to a second embodiment. (A)は第2実施形態に係る情報処理システムにより生成される通常状態の車両用ユーザインタフェースの表示の一例であり、(B)は(A)に対して評価結果に基づき異なって生成された車両用ユーザインタフェースの表示の一例を示す図である。FIG. 13A is an example of a display of a vehicle user interface in a normal state generated by an information processing system according to the second embodiment, and FIG. 13B is a figure showing an example of a display of a vehicle user interface generated differently from (A) based on evaluation results.

(第1実施形態)
以下、図1~図9を用いて、本発明に係る情報処理システムの第1実施形態について説明する。なお、各図において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
First Embodiment
A first embodiment of an information processing system according to the present invention will be described below with reference to Figures 1 to 9. Note that the same or equivalent components and parts in each figure are given the same reference numerals. Also, the dimensional ratios in the drawings are exaggerated for the convenience of explanation and may differ from the actual ratios.

(システム概要)
まず、本実施形態に係る情報処理システム10の概要について説明する。本実施形態に係る情報処理システム10は、運転シミュレーションを実行する運転情報取得装置としてのシミュレータ装置を利用して運転者における車両の運転に必要な認知機能を評価し、認知機能の評価結果を基に当該運転者へ適した車両用ユーザインタフェースを生成するためのシステムである。運転者が利用する車両のカスタマイズや学術研究など、任意の状況にて利用できる。運転者の認知機能は、運転者が運転操作を行っている際に、運転操作とは異なる所定の処理である別タスクとして計算テスト問題、記憶テスト問題及び反応時間テスト問題を出題してこれに回答している運転者の様子や運転操作の状態、別タスクの処理状況等から判定するように構成されている。換言すると、運転者の様子と、運転操作と別タスク処理とを実行させるマルチタスク操作の結果と、から、運転者の認知機能を判定し、当該認知機能の評価結果に基いて車両用ユーザインタフェースを生成する。なお、本実施形態における車両用ユーザインタフェースは、車両運転時、操作必要な車両と車両の周辺設備の操作のためのユーザインタフェースである。具体的には、主に液晶ディスプレイなどに表示される、車両機能の操作、道路案内、業務運転者向けの業務連絡画面、映像再生及び携帯端末との連動機能操作などをするためのインタフェースとされており、情報処理システム10の制御に応じて表示内容が変更可能なものとされている。
(System Overview)
First, an overview of the information processing system 10 according to the present embodiment will be described. The information processing system 10 according to the present embodiment is a system for evaluating the cognitive functions required for driving a vehicle by a driver using a simulator device as a driving information acquisition device that executes a driving simulation, and generating a vehicle user interface suitable for the driver based on the evaluation result of the cognitive functions. The system can be used in any situation, such as customization of a vehicle used by a driver and academic research. The cognitive functions of a driver are determined from the appearance of the driver who is answering calculation test questions, memory test questions, and reaction time test questions as separate tasks that are predetermined processing different from the driving operation, the state of the driving operation, the processing status of the separate tasks, etc., when the driver is performing a driving operation. In other words, the cognitive functions of the driver are determined from the appearance of the driver and the result of a multitasking operation that executes a driving operation and a separate task process, and a vehicle user interface is generated based on the evaluation result of the cognitive functions. The vehicle user interface in this embodiment is a user interface for operating a vehicle and peripheral equipment of the vehicle that need to be operated when driving a vehicle. Specifically, it is an interface that is mainly displayed on an LCD display or the like and is used to operate vehicle functions, provide road guidance, provide business communication screens for commercial drivers, play videos, and operate functions linked to mobile devices, and the like, and the display content can be changed according to the control of the information processing system 10.

(システム構成)
図1は、本実施形態に係る情報処理システム10の構成の一例を示す図である。図1に示すように、本実施形態に係る情報処理システム10は、ネットワークNや配線ケーブルC等を介して相互に通信可能に接続された、シミュレータ装置12と、別タスク実行装置14と、評価装置16と、を備える。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、インターネット、公衆回線網、モバイルデータ通信網、又はこれらの組み合わせである。
(System configuration)
Fig. 1 is a diagram showing an example of a configuration of an information processing system 10 according to the present embodiment. As shown in Fig. 1, the information processing system 10 according to the present embodiment includes a simulator device 12, a separate task execution device 14, and an evaluation device 16, which are communicably connected to each other via a network N, a wiring cable C, or the like. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, the Internet, a public line network, a mobile data communication network, or a combination of these.

シミュレータ装置12は、運転者に実際の車を運転させず、模擬的に生成された運転状況下で運転操作手段を模擬的に操作させて運転シミュレーションを行うためのものであり、シミュレーションを制御する情報処理装置(コンピュータ)の一例である。シミュレータ装置12の具体的な構成及び作用については、後述する。 The simulator device 12 is an example of an information processing device (computer) that controls a simulation, and is used to perform a driving simulation by having a driver operate a driving operation means in a simulated driving situation, without having the driver drive an actual vehicle. The specific configuration and operation of the simulator device 12 will be described later.

別タスク実行装置14は、別タスク処理の実行等を制御する情報処理装置の一例である。別タスク実行装置14は、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、マイクロコンピュータ、又はこれらの組み合わせであってもよい。別タスク実行装置14の具体的な構成及び作用については、後述する。 The separate task execution device 14 is an example of an information processing device that controls the execution of separate task processes. The separate task execution device 14 may be a PC (Personal Computer), a smartphone, a tablet terminal, a server device, a microcomputer, or a combination of these. The specific configuration and operation of the separate task execution device 14 will be described later.

評価装置16は、後述する運転者の認知機能を評価しこれに応じて車両用ユーザインタフェースを生成するための制御を行う情報処理装置の一例である。評価装置16は、PC(Personal Computer)、スマートフォン、タブレット端末、サーバ装置、マイクロコンピュータ、又はこれらの組み合わせであってもよい。また、本実施形態では、評価装置16は、評価した運転者の認知機能に基いて車両用ユーザインタフェースを生成する生成装置を兼ねている。評価装置16の具体的な構成及び作用については、後述する。 The evaluation device 16 is an example of an information processing device that evaluates the cognitive function of the driver, which will be described later, and controls the generation of a vehicle user interface accordingly. The evaluation device 16 may be a PC (Personal Computer), a smartphone, a tablet terminal, a server device, a microcomputer, or a combination of these. In this embodiment, the evaluation device 16 also serves as a generation device that generates a vehicle user interface based on the evaluated cognitive function of the driver. The specific configuration and operation of the evaluation device 16 will be described later.

(ハードウェア構成-シミュレータ装置)
図2は、シミュレータ装置12のハードウェア構成を示すブロック図である。シミュレータ装置12は、バスBを介して相互に通信可能に接続された、プロセッサ20と、メモリ22と、ストレージ24と、通信I/F26と、入出力I/F28と、表示装置30と、運転操作入力装置32と、を備える。
(Hardware configuration - simulator device)
2 is a block diagram showing a hardware configuration of the simulator device 12. The simulator device 12 includes a processor 20, a memory 22, a storage 24, a communication I/F 26, an input/output I/F 28, a display device 30, and a driving operation input device 32, which are communicatively connected to each other via a bus B.

プロセッサ20は、ストレージ24に記憶された各種プログラムをメモリ22に展開して実行することにより、シミュレータ装置12の各構成を制御し、シミュレータ装置12の機能を実現する。プロセッサ20が実行するプログラムは、OS(Operating System)及び後述する各種プログラムを含むが、これに限られない。プロセッサ20がこれらプログラムを実行することにより、本実施形態に係る情報処理方法の一部が実現される。プロセッサ20は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、又はこれらの組み合わせである。 The processor 20 controls each component of the simulator device 12 and realizes the functions of the simulator device 12 by expanding various programs stored in the storage 24 into the memory 22 and executing them. The programs executed by the processor 20 include, but are not limited to, an OS (Operating System) and various programs described below. The processor 20 executes these programs to realize a part of the information processing method according to this embodiment. The processor 20 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), or a combination of these.

メモリ22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせである。ROMは、例えば、PROM(Programmable ROM)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、又はこれらの組み合わせである。RAMは、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、MRAM(Magnetoresistive RAM)、又はこれらの組み合わせである。 The memory 22 is, for example, a Read Only Memory (ROM), a Random Access Memory (RAM), or a combination of these. The ROM is, for example, a Programmable ROM (PROM), an Erasable Programmable ROM (EPROM), an Electrically Erasable Programmable ROM (EEPROM), or a combination of these. The RAM is, for example, a Dynamic RAM (DRAM), a Static RAM (SRAM), a Magnetoresistive RAM (MRAM), or a combination of these.

ストレージ24は、OS、後述する各種プログラム、及び各種のデータを記憶する。ストレージ24は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SCM(Storage Class Memories)、又はこれらの組み合わせである。 Storage 24 stores the OS, various programs described below, and various data. Storage 24 is, for example, a flash memory, a hard disk drive (HDD), a solid state drive (SSD), a storage class memory (SCM), or a combination of these.

通信I/F26は、シミュレータ装置12を、ネットワークNや配線ケーブル等を介して、別タスク実行装置14及び評価装置16を含む外部装置に接続し、通信を制御するためのインタフェースである。通信I/F26 は、例えば、Bluetooth(登録商標)、Wi-Fi(登録商標)、ZigBee(登録商標)、 Ethernet(登録商標)、又は光通信(例えば、Fibre Channel)に準拠したアダプタであるが、これに限られない。 The communication I/F 26 is an interface for connecting the simulator device 12 to external devices including the separate task execution device 14 and the evaluation device 16 via a network N, a wiring cable, etc., and for controlling communication. The communication I/F 26 is, for example, an adapter compliant with Bluetooth (registered trademark), Wi-Fi (registered trademark), ZigBee (registered trademark), Ethernet (registered trademark), or optical communication (e.g., Fibre Channel), but is not limited to these.

入出力I/F28は、シミュレータ装置12に表示装置30及び運転操作入力装置32を接続するためのインタフェースである。表示装置30は、ディスプレイ、プロジェクタ、又はこれらの組み合わせである。表示装置30は、図1に示されるように、シミュレーションにて運転を行う運転者(不図示)が視認できる位置に配置されている。 The input/output I/F 28 is an interface for connecting the display device 30 and the driving operation input device 32 to the simulator device 12. The display device 30 is a display, a projector, or a combination of these. As shown in FIG. 1, the display device 30 is disposed in a position where it can be seen by a driver (not shown) who drives in the simulation.

運転操作入力装置32は、操作ハンドル36及びフットペダル38を含んで構成されている。運転操作入力装置32は、図示しない座席に着座した運転者が操作可能な位置に配置されている。また、運転操作入力装置32は、変速機、方向指示器、ワイパ及びヘッドライト等を操作する図示しない操作スイッチが設けられている。運転操作入力装置32は、運転者による操作ハンドル36、フットペダル38及び操作スイッチの操作内容を示す操作情報を取得する。 The driving operation input device 32 is configured to include an operating handle 36 and foot pedals 38. The driving operation input device 32 is disposed in a position where it can be operated by a driver seated in a seat (not shown). The driving operation input device 32 is also provided with operation switches (not shown) for operating the transmission, turn signals, wipers, headlights, etc. The driving operation input device 32 acquires operation information indicating the operation of the operating handle 36, foot pedals 38, and operation switches by the driver.

(ハードウェア構成-別タスク実行装置)
図3は、別タスク実行装置14のハードウェア構成を示すブロック図である。別タスク実行装置14は、バスBを介して相互に通信可能に接続された、プロセッサ20と、メモリ22と、ストレージ24と、通信I/F26と、入出力I/F28と、表示装置40と、入力装置42と、を備える。本実施形態では、一例として表示装置40と入力装置42とは、一体的に構成されたタッチパネルディスプレイとされている。表示装置40及び入力装置42は、図1に示されるように、図示しない座席に着座した運転者が運転シミュレーション中に操作できる位置(本実施形態では一例として操作ハンドル36の近傍位置)に配置されている。
(Hardware configuration - separate task execution device)
3 is a block diagram showing a hardware configuration of the separate task execution device 14. The separate task execution device 14 includes a processor 20, a memory 22, a storage 24, a communication I/F 26, an input/output I/F 28, a display device 40, and an input device 42, which are communicatively connected to each other via a bus B. In this embodiment, the display device 40 and the input device 42 are, as an example, an integrally configured touch panel display. As shown in FIG. 1, the display device 40 and the input device 42 are arranged at a position (as an example in this embodiment, a position near the operation handle 36) where a driver seated in a seat not shown in the figure can operate them during a driving simulation.

(ハードウェア構成-評価装置)
図4は、評価装置16のハードウェア構成を示すブロック図である。評価装置16は、バスBを介して相互に通信可能に接続された、プロセッサ20と、メモリ22と、ストレージ24と、通信I/F26と、入出力I/F28と、撮像装置44と、表示装置46と、入力装置48と、を備える。撮像装置44は、図1に示されるように、運転者を撮像するように設けられたカメラであり、運転者の顔に向けられかつ運転者の目線の移動方向や運転者の様子を撮像した動画情報を取得する。なお、撮像装置44は、単体のカメラのみに限らず、複数のカメラで構成されていてもよい。
(Hardware configuration - evaluation device)
4 is a block diagram showing a hardware configuration of the evaluation device 16. The evaluation device 16 includes a processor 20, a memory 22, a storage 24, a communication I/F 26, an input/output I/F 28, an imaging device 44, a display device 46, and an input device 48, which are communicatively connected to each other via a bus B. As shown in FIG. 1, the imaging device 44 is a camera provided to capture an image of the driver, and is directed toward the driver's face to acquire video information capturing the direction of movement of the driver's line of sight and the state of the driver. Note that the imaging device 44 is not limited to a single camera, and may be composed of multiple cameras.

表示装置46と入力装置48とは、本実施形態では一例として、一体的に構成されたタッチパネルディスプレイとされている。表示装置46及び入力装置48は、本認知機能検査を実施する管理者が視認及び操作できる位置に配置されている。 In this embodiment, as an example, the display device 46 and the input device 48 are an integrally configured touch panel display. The display device 46 and the input device 48 are disposed in a position where they can be seen and operated by the administrator who performs the cognitive function test.

(機能構成-シミュレータ装置)
次に、シミュレータ装置12の機能構成について説明する。図5は、シミュレータ装置12の機能構成の一例を示す図である。各種プログラムを実行する際に、シミュレータ装置12は上記のハードウェア資源を用いて、各種の機能を実現する。シミュレータ装置12は、シミュレータ装置12が実現する機能構成として、記憶部50と、処理部52と、通信部54と、を有している。各機能構成は、プロセッサ20がメモリ22又はストレージ24に記憶されたシミュレーションプログラム56及び生成プログラム58を読み出し、実行することで実現される。
(Functional configuration - simulator device)
Next, the functional configuration of the simulator device 12 will be described. Fig. 5 is a diagram showing an example of the functional configuration of the simulator device 12. When executing various programs, the simulator device 12 realizes various functions using the above-mentioned hardware resources. The simulator device 12 has a storage unit 50, a processing unit 52, and a communication unit 54 as functional configurations realized by the simulator device 12. Each functional configuration is realized by the processor 20 reading and executing a simulation program 56 and a generation program 58 stored in the memory 22 or the storage 24.

記憶部50には、シミュレーションプログラム56、生成プログラム58、及びシミュレーションDB60が記憶される。 The memory unit 50 stores a simulation program 56, a generation program 58, and a simulation DB 60.

シミュレーションDB60は、運転シミュレーションの実施に際して必要となる各種データを記憶するためのデータベースである。本実施形態では、静止物体のオブジェクトと、移動物体のオブジェクトとを含み得る。静止物体のオブジェクトは、例えば道路、歩道、建物、ガードレール、信号機、道路標識、及び空等のオブジェクトを含み得る。移動物体のオブジェクトは、例えば人、自動車、自転車、バイク、及び車椅子等のオブジェクトを含み得る。また、運転者が運転している自動車を表すオブジェクトとして、運転者が運転している自動車を車内から見たダッシュボード等の内装部材、ルームミラー、及び左右のサイドミラー等のデータを含んでいる。 The simulation DB 60 is a database for storing various data required for carrying out a driving simulation. In this embodiment, it may include stationary objects and moving object objects. Stationary objects may include, for example, roads, sidewalks, buildings, guardrails, traffic lights, road signs, and the sky. Moving objects may include, for example, people, automobiles, bicycles, motorbikes, and wheelchairs. In addition, it includes data on interior components such as the dashboard as viewed from inside the automobile driven by the driver, the rearview mirror, and the left and right side mirrors as objects representing the automobile driven by the driver.

処理部52は、検査制御情報処理部53と、運転操作情報取得部62と、シミュレータ処理部63と、表示処理部55とを有している。検査制御情報処理部53は、運転者の個人属性(一例として年代や運転経験等)に関する情報を取得し、当該情報を踏まえた上で運転者の認知機能を検査するための運転シミュレーションのシナリオを設定する。このシナリオは、一例として、一般道路シーン、高速道路シーン及び山道道路シーン等の複数のシーンが容易されており、それぞれのシーン特有の事象がシミュレーション上に発生するよう設定されている。 The processing unit 52 has a test control information processing unit 53, a driving operation information acquisition unit 62, a simulator processing unit 63, and a display processing unit 55. The test control information processing unit 53 acquires information on the driver's personal attributes (such as age and driving experience, for example), and sets a driving simulation scenario for testing the driver's cognitive function based on the information. As an example, this scenario is set up to include multiple scenes, such as general road scenes, highway scenes, and mountain road scenes, and is set up so that events specific to each scene occur in the simulation.

運転操作情報取得部62は、運転操作入力装置32を介して入力される運転者の運転操作を取得する。 The driving operation information acquisition unit 62 acquires the driver's driving operations input via the driving operation input device 32.

シミュレータ処理部63は、検査制御情報処理部53にて設定した運転シミュレーションのシナリオ上に運転操作情報取得部62から取得した運転操作を再現するように処理を行う。 The simulator processing unit 63 performs processing to reproduce the driving operations acquired from the driving operation information acquisition unit 62 on the driving simulation scenario set by the test control information processing unit 53.

表示処理部55は、シミュレータ処理部63が処理した情報を基に運転者へ提示するシミュレーション動画を生成し、これを表示装置30にて表示するように処理を行う。 The display processing unit 55 generates a simulation video to be presented to the driver based on the information processed by the simulator processing unit 63, and processes it to display it on the display device 30.

通信部54は、携帯電話通信網、有線LAN(LocalAreaNetwork)、無線LAN及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施形態において通信部54は、ネットワークNや配線ケーブルC等を介して、種々の装置との間で通信を行う。通信部54は、処理部52から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部52へ与える。 The communication unit 54 communicates with various devices via a network N that includes a mobile phone communication network, a wired LAN (Local Area Network), a wireless LAN, the Internet, etc. In this embodiment, the communication unit 54 communicates with various devices via the network N, a wiring cable C, etc. The communication unit 54 transmits data provided by the processing unit 52 to other devices, and provides data received from other devices to the processing unit 52.

(機能構成-別タスク実行装置)
次に、別タスク実行装置14の機能構成について説明する。図6は、別タスク実行装置14の機能構成の一例を示す図である。各種プログラムを実行する際に、別タスク実行装置14は上記のハードウェア資源を用いて、各種の機能を実現する。別タスク実行装置14は、別タスク実行装置14が実現する機能構成として、記憶部64と、処理部66と、通信部68と、を有している。各機能構成は、プロセッサ20がメモリ22又はストレージ24に記憶された計算プログラム70及び生成プログラム58を読み出し、実行することで実現される。
(Functional configuration - Task execution device)
Next, the functional configuration of the other task execution device 14 will be described. Fig. 6 is a diagram showing an example of the functional configuration of the other task execution device 14. When executing various programs, the other task execution device 14 realizes various functions using the above-mentioned hardware resources. The other task execution device 14 has a storage unit 64, a processing unit 66, and a communication unit 68 as the functional configuration realized by the other task execution device 14. Each functional configuration is realized by the processor 20 reading and executing the calculation program 70 and the generation program 58 stored in the memory 22 or the storage 24.

記憶部64には、計算プログラム70、生成プログラム58、及び問題DB72が記憶される。問題DB72は、別タスクとして運転者に処理を実行させるための計算テスト問題、記憶テスト問題及び反応時間テスト問題の少なくとも一方が格納されている。なお、本実施形態では、問題DB72に計算テスト問題、記憶テスト問題及び反応時間テスト問題の少なくとも一方が格納されているが、これに限らず、その他の別タスクが格納されていてもよい。 The storage unit 64 stores a calculation program 70, a generation program 58, and a question DB 72. The question DB 72 stores at least one of calculation test questions, memory test questions, and reaction time test questions for causing the driver to execute processing as a separate task. Note that in this embodiment, at least one of calculation test questions, memory test questions, and reaction time test questions is stored in the question DB 72, but this is not limited to this, and other separate tasks may also be stored.

処理部66は、検査制御情報処理部67と、入力情報取得部74と、別タスク処理部69と、表示処理部71とを有している。検査制御情報処理部67は、運転者の個人属性に関する情報を取得し、当該情報及び別タスクの種類選択操作情報等を踏まえた上で運転者の認知機能を検査するための別タスクとしての出題問題を設定する。 The processing unit 66 has a test control information processing unit 67, an input information acquisition unit 74, a separate task processing unit 69, and a display processing unit 71. The test control information processing unit 67 acquires information related to the personal attributes of the driver, and sets questions to be posed as separate tasks for testing the driver's cognitive functions based on the information and operation information for selecting the type of separate task, etc.

入力情報取得部74は、別タスク処理の実行を行う際の運転者の操作情報を取得する。すなわち、別タスクとして計算テスト問題、記憶テスト問題及び反応時間テスト問題の少なくとも一方が出題されている際に、当該出題への回答(処理結果)を入力する運転者の操作情報を取得する。具体的には、一例として計算テスト問題の場合では暗算による計算式を出題し、その後計算結果の答え候補を提示し、当該答え候補が正解か否かを選択的に入力させる。この入力結果及び出題から入力までの時間(すなわち、運転者の処理時間)の少なくとも一方を入力情報取得部74は操作情報として取得する。 The input information acquisition unit 74 acquires operation information of the driver when executing another task process. That is, when at least one of a calculation test question, a memory test question, and a reaction time test question is presented as a separate task, operation information of the driver who inputs an answer (processing result) to the question is acquired. Specifically, as an example, in the case of a calculation test question, a formula for mental calculation is presented, and then answer candidates of the calculation result are presented, and the driver is prompted to selectively input whether the answer candidate is correct or not. The input information acquisition unit 74 acquires at least one of this input result and the time from the question being presented to the input (i.e., the driver's processing time) as operation information.

別タスク処理部69は、検査制御情報処理部67及び入力情報取得部74からの情報に基き、出題問題を出力する処理を実行する。出題問題に対する回答が入力された際には、新たな出題問題を出力する処理を予め設定された所定の回数だけ実行する。また、別タスク処理部69は、所定の回数だけ出題問題を出力した場合、別タスクとしての出題問題の出力を終了する。 The separate task processing unit 69 executes a process to output a question based on information from the test control information processing unit 67 and the input information acquisition unit 74. When an answer to a question is input, the separate task processing unit 69 executes a process to output a new question a predetermined number of times. When the separate task processing unit 69 has output the question a predetermined number of times, it ends the output of the question as a separate task.

表示処理部71は、別タスク処理部69が処理した情報を基に運転者へ提示する出題問題画面及び処理結果入力画面を生成し、これを表示装置40にて表示するように処理を行う。 The display processing unit 71 generates a question screen and a processing result input screen to be presented to the driver based on the information processed by the separate task processing unit 69, and processes them to be displayed on the display device 40.

通信部68は、携帯電話通信網、有線LAN(LocalAreaNetwork)、無線LAN及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施形態において通信部68は、ネットワークNや配線ケーブルC等を介して、種々の装置との間で通信を行う。通信部68は、処理部66から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部66へ与える。 The communication unit 68 communicates with various devices via a network N that includes a mobile phone communication network, a wired LAN (Local Area Network), a wireless LAN, the Internet, etc. In this embodiment, the communication unit 68 communicates with various devices via the network N, a wiring cable C, etc. The communication unit 68 transmits data provided by the processing unit 66 to other devices, and provides data received from other devices to the processing unit 66.

(機能構成-評価装置)
次に、評価装置16の機能構成について説明する。図7は、評価装置16の機能構成の一例を示す図である。各種プログラムを実行する際に、評価装置16は上記のハードウェア資源を用いて、各種の機能を実現する。評価装置16は、評価装置16が実現する機能構成として、記憶部76と、処理部78と、通信部80と、を有している。各機能構成は、プロセッサ20がメモリ22又はストレージ24に記憶された生成プログラム58を読み出し、実行することで実現される。
(Functional configuration - evaluation device)
Next, the functional configuration of the evaluation device 16 will be described. Fig. 7 is a diagram showing an example of the functional configuration of the evaluation device 16. When executing various programs, the evaluation device 16 realizes various functions using the above-mentioned hardware resources. The evaluation device 16 has a storage unit 76, a processing unit 78, and a communication unit 80 as functional configurations realized by the evaluation device 16. Each functional configuration is realized by the processor 20 reading and executing the generation program 58 stored in the memory 22 or the storage 24.

記憶部76には、生成プログラム58、学習モデル82、ユーザDB84及び結果DB86が記憶される。 The memory unit 76 stores the generation program 58, the learning model 82, the user DB 84, and the result DB 86.

学習モデル82は、後述する運転者情報、運転操作情報及び別タスク操作情報の入力に対して、運転者の認知機能を推定して出力するように予め機械学習された学習済みの学習モデルである。学習モデル82の学習処理及び再学習処理は、例えば、評価装置16により行われるが、これに限られない。学習モデル82の学習処理及び再学習処理は、評価装置16以外の他の装置で行われ、評価装置16に提供されてもよい。学習モデル82は、例えば、DNN(DeepNeuralNetwork)、RNN(RecurrentNeuralNetwork)、CNN(ConvolutionalNeuralNetwork)、LSTM(LongShort-TermMemory)等のニューラルネットワークであるが、これに限られない。学習モデル82は、決定木、SVM(SupportVectorMachine)等の学習モデルであってもよい。また、学習モデル82の学習方法は、例えば、勾配降下法、確率的勾配降下法、又は誤差逆伝播法であるが、これに限られない。 The learning model 82 is a learning model that has been trained in advance by machine learning to estimate and output the driver's cognitive function in response to input of driver information, driving operation information, and other task operation information described below. The learning process and re-learning process of the learning model 82 are performed, for example, by the evaluation device 16, but are not limited to this. The learning process and re-learning process of the learning model 82 may be performed by a device other than the evaluation device 16 and provided to the evaluation device 16. The learning model 82 is, for example, a neural network such as a deep neural network (DNN), a recurrent neural network (RNN), a convolutional neural network (CNN), or a long short-term memory (LSTM), but is not limited to this. The learning model 82 may be a learning model such as a decision tree or a support vector machine (SVM). In addition, the learning method of the learning model 82 is, for example, a gradient descent method, a stochastic gradient descent method, or an error backpropagation method, but is not limited to this.

ユーザDB84は、認知機能検査を受けるユーザ(すなわち、運転者)に関する情報を記憶するためのデータベースである。本実施形態では、ユーザを特定するID情報と、当該ID情報に紐付けられた各種情報が記憶される。当該各種情報には、ユーザの個人属性情報等が含まれる。 User DB84 is a database for storing information about users (i.e., drivers) who undergo cognitive function tests. In this embodiment, ID information that identifies the user and various information linked to the ID information are stored. The various information includes personal attribute information of the user, etc.

結果DB86は、本実施形態に係る情報処理システム10が提供するサービスを利用して認知機能検査を受けたユーザについて、その結果を記憶して蓄積するデータベースである。結果DB86は、例えばユーザの名前又はID情報、ユーザが検査を行った年月日、ユーザの検査結果、当該検査結果に基いて生成した車両用ユーザインタフェースに関する情報、及び、他の参考となる検査の結果等の情報を対応付けて記憶する。 Result DB86 is a database that stores and accumulates the results of users who have taken cognitive function tests using the services provided by the information processing system 10 according to this embodiment. Result DB86 stores, in association with each other, information such as the user's name or ID information, the date the user took the test, the user's test results, information about the vehicle user interface generated based on the test results, and other reference test results.

処理部78は、運転者情報取得部88と、検査制御部90と、運転操作情報取得部92と、別タスク操作情報取得部94と、判定部96と、表示処理部81とを有している。運転者情報取得部88は、運転者の個人属性に関する情報と、運転操作中の運転者の様子を撮影した動画情報とを取得する。動画情報は、具体的に、主に運転者の頭や身体の動きや向き、目線の位置や動きなどを取得するための情報とされている。特に、目線については、車外(シミュレータ画面)か別タスク実行装置14のどちらに注視しているか、といった目線の向く方向が主要な情報とされている。 The processing unit 78 has a driver information acquisition unit 88, an inspection control unit 90, a driving operation information acquisition unit 92, a separate task operation information acquisition unit 94, a judgment unit 96, and a display processing unit 81. The driver information acquisition unit 88 acquires information on the driver's personal attributes and video information capturing the driver's behavior while driving. Specifically, the video information is intended to be information primarily for acquiring the movement and direction of the driver's head and body, the position and movement of the driver's eyes, and the like. In particular, with regard to the line of sight, the main information is the direction of the eyes, i.e., whether the driver is looking outside the vehicle (simulator screen) or at the separate task execution device 14.

検査制御部90は、運転者の認知機能を評価するための検査を制御する。すなわち、検査制御部90は、運転者がシミュレータ装置12により運転操作を行っている際に、運転操作とは異なる別タスク処理を行うことを促すようにシミュレータ装置12と別タスク実行装置14との制御を行う。 The test control unit 90 controls the test for evaluating the cognitive function of the driver. That is, the test control unit 90 controls the simulator device 12 and the separate task execution device 14 so as to prompt the driver to perform a separate task processing different from the driving operation while the driver is performing the driving operation using the simulator device 12.

運転操作情報取得部92は、シミュレーション中にシミュレータ装置12を通して入力される運転操作情報を取得する。 The driving operation information acquisition unit 92 acquires driving operation information input through the simulator device 12 during the simulation.

別タスク操作情報取得部94は、運転者の認知機能を検査するための別タスクとしての出題問題に対する運転者の回答や当該回答を行うための操作情報を、別タスク実行装置14を介して取得する。 The separate task operation information acquisition unit 94 acquires the driver's answers to questions posed as separate tasks for testing the driver's cognitive function and operation information for providing the answers via the separate task execution device 14.

判定部96は、運転者情報取得部88、運転操作情報取得部92及び別タスク操作情報取得部94から取得された各種情報を基に、学習モデル82からの出力を利用して運転者の認知機能を判定する。すなわち、運転操作情報取得部92から取得される運転者の頭や身体の向きが、別タスクの処理時に別タスク実行装置14へ向けた状態が長く続く場合は、認知機能が低いと判定する。また、運転操作情報取得部92から取得される運転者の視線が、別タスクの処理時に別タスク実行装置14へ向けた状態が長く続く場合は、認知機能が低いと判定する。さらに、別タスク操作情報取得部94から取得される別タスクの実行をする際の処理時間が、所定の時間より長い場合は、認知機能が低いと判定する。さらにまた、別タスク操作情報取得部94から取得される別タスクの実行結果が、正確ではないものが所定よりも多い場合は、認知機能が低いと判定する。これらの判定については、いずれか一つの情報を基に認知機能の判定をしてもよいし、複数の情報を組み合わせて認知機能の判定を行ってもよい。判定部96は、判定した認知機能を結果DB86へ格納する。 The determination unit 96 uses the output from the learning model 82 to determine the cognitive function of the driver based on various information acquired from the driver information acquisition unit 88, the driving operation information acquisition unit 92, and the separate task operation information acquisition unit 94. That is, if the direction of the driver's head or body acquired from the driving operation information acquisition unit 92 continues to be directed toward the separate task execution device 14 when processing the separate task, the cognitive function is determined to be low. Also, if the line of sight of the driver acquired from the driving operation information acquisition unit 92 continues to be directed toward the separate task execution device 14 when processing the separate task, the cognitive function is determined to be low. Furthermore, if the processing time when executing the separate task acquired from the separate task operation information acquisition unit 94 is longer than a predetermined time, the cognitive function is determined to be low. Furthermore, if the execution results of the separate task acquired from the separate task operation information acquisition unit 94 are more inaccurate than a predetermined number, the cognitive function is determined to be low. For these determinations, the cognitive function may be determined based on any one piece of information, or multiple pieces of information may be combined to determine the cognitive function. The determination unit 96 stores the determined cognitive function in the result DB 86.

また、判定部96は、運転者の認知機能に基づき、車両用ユーザインタフェースを生成する。すなわち、判定部96は、一例として、運転者の認知機能が平均以上である場合には、予め設定されている車両用ユーザインタフェースを維持する。これに対し、運転者の認知機能が所定の値よりも低い場合には、運転者の認知機能に応じて操作性を向上させた車両用ユーザインタフェースを生成する。一例として、本実施形態では、車両のインパネ中央部に設けられたセンターディスプレイにて表示される車両の各機能の操作のための車両用ユーザインタフェースが、運転者の認知機能に基いて生成される。具体的には、運転者の認知機能が平均以上である場合は、図9(A)に示されるように、外観意匠性も考慮された予め設定されている通常の車両用ユーザインタフェースが維持される。一方、運転者の認知機能が所定の値よりも低い場合には、図9(B)に示されるように、操作部としてのワイパスイッチ97及びワイパ速度スイッチ99がステアリングホイール89から離れた位置に配置されかつ各スイッチのサイズが押しやすいサイズに調整される。これにより、ステアリングホイール89の近傍に各スイッチが配置されないため、ステアリングホイール89の裏側近傍にスイッチがあると思い込んでステアリングホイール89の裏側近傍をのぞき込む動作、すなわち、わき見運転状態を抑制することができる。換言すると、認知機能が比較的低い運転者の場合は、各スイッチの操作時に気を取られてわき見運転状態となる時間が比較的長くなるため、わき見運転状態となる時間が短くなるような操作部の位置、形状及びサイズの少なくとも一方を調整した車両用ユーザインタフェースが生成される。なお、本実施形態では、車両用ユーザインタフェースはワイパ操作画面とされているが、これに限らず、その他車両用の操作画面やカーナビゲーション画面、オーディオ画面等その他の機能を実現するためのユーザインタフェースでもよい。また、操作部は、ワイパスイッチ97及びワイパ速度スイッチ99に限らず、これ以外のものでもよい。さらに、運転者の認知機能が所定の値よりも低い場合には、そもそも操作ができない車両用ユーザインタフェースを生成してもよい。 The determination unit 96 also generates a vehicle user interface based on the driver's cognitive function. That is, as an example, when the driver's cognitive function is above average, the determination unit 96 maintains a preset vehicle user interface. On the other hand, when the driver's cognitive function is lower than a predetermined value, a vehicle user interface with improved operability is generated according to the driver's cognitive function. As an example, in this embodiment, a vehicle user interface for operating each function of the vehicle displayed on a center display provided in the center of the vehicle's instrument panel is generated based on the driver's cognitive function. Specifically, when the driver's cognitive function is above average, a normal vehicle user interface that is preset in consideration of the appearance design is maintained as shown in FIG. 9(A). On the other hand, when the driver's cognitive function is lower than a predetermined value, the wiper switch 97 and the wiper speed switch 99 as the operation unit are disposed at a position away from the steering wheel 89, and the size of each switch is adjusted to a size that is easy to press, as shown in FIG. 9(B). As a result, since the switches are not arranged near the steering wheel 89, the driver can be prevented from thinking that the switches are located near the back side of the steering wheel 89 and looking into the vicinity of the back side of the steering wheel 89, i.e., from looking away while driving. In other words, in the case of a driver with a relatively low cognitive function, the driver is distracted when operating each switch and the time spent in the inattentive driving state is relatively long, so a vehicle user interface is generated in which at least one of the position, shape, and size of the operation unit is adjusted so as to shorten the time spent in the inattentive driving state. In this embodiment, the vehicle user interface is a wiper operation screen, but is not limited to this, and may be a user interface for realizing other functions such as a vehicle operation screen, a car navigation screen, an audio screen, etc. In addition, the operation unit is not limited to the wiper switch 97 and the wiper speed switch 99, and may be something other than these. Furthermore, if the driver's cognitive function is lower than a predetermined value, a vehicle user interface that cannot be operated in the first place may be generated.

さらに、判定部96は、運転者の認知機能のみならず、運転速度、道路周辺状況及び事故数の少なくとも一方も踏まえて車両用ユーザインタフェースを生成してもよい。すなわち、運転者が別タスク実行中にシミュレーション上にて起こした事故数が、所定の閾値を超えた場合は、当該運転者の運転中には操作ができない又は何も表示されない車両用ユーザインタフェースを生成する。また、シミュレーションにて、道路周辺に人がいる状況や交差点を通過など複雑な交通状況時に、運転速度を減速しないなど運転の制御が適切でない傾向がある場合や、別タスクの処理を実行しようとするなど操作タイミングが適切でない傾向がある場合など、安全な運転ではない場合にも、当該運転者の運転中には操作ができない又は何も表示されない車両用ユーザインタフェースを生成する。さらに、シミュレーションにて、複雑な道路状況下で別タスク実行時に視線が所定の時間以上わき見運転状態となる運転者については、当該運転者の運転中には操作ができない又は何も表示されない車両用ユーザインタフェースを生成する。(A)なお、上述した例に限らず、安全運転に懸念があることが推定される運転者や運転状況に応じて、車両用ユーザインタフェースを変更するように生成してもよい。一例として、運転速度が速い場合や交差点などの複雑な道路状況下であることを検知した場合に、当該状況が終わるまでや所定の時間が経過するまで操作ができない又は何も表示されない車両用ユーザインタフェースを生成する。また、一般的に、運転者の認知機能が比較的低い場合には、安全運転のために前車との車間距離がより多く必要となるが、この車間距離と運転者の認知機能とのそれぞれに応じて、操作ができない又は何も表示されない車両用ユーザインタフェースが表示されるように動的に変化する車両用ユーザインタフェースを生成してもよい。さらに、車間距離と運転者の認知機能とに限らず、その他の要因により車両用ユーザインタフェースを動的に変化する車両用ユーザインタフェースを生成してもよい。 Furthermore, the determination unit 96 may generate a vehicle user interface based on at least one of the driving speed, the road surrounding conditions, and the number of accidents, as well as the driver's cognitive function. That is, if the number of accidents caused by the driver in the simulation while performing another task exceeds a predetermined threshold, a vehicle user interface that cannot be operated or does not display anything is generated while the driver is driving. In addition, in the simulation, when there are people around the road or in complex traffic conditions such as passing an intersection, the driving control tends to be inappropriate, such as not slowing down the driving speed, or when the operation timing tends to be inappropriate, such as when trying to perform processing of another task, a vehicle user interface that cannot be operated or does not display anything is generated while the driver is driving, even if the driving is not safe. Furthermore, for a driver whose line of sight is in a distracted driving state for more than a predetermined time when performing another task under complex road conditions in the simulation, a vehicle user interface that cannot be operated or does not display anything is generated while the driver is driving. (A) Note that, not limited to the above example, the vehicle user interface may be generated so as to be changed depending on the driver who is estimated to have concerns about safe driving and the driving conditions. As an example, when a driving speed is high or a complex road condition such as an intersection is detected, a vehicle user interface is generated in which no operation is possible or nothing is displayed until the condition ends or a predetermined time has passed. In addition, when the driver's cognitive function is relatively low, a greater distance from the vehicle in front is generally required for safe driving, and a vehicle user interface may be generated that dynamically changes so that a vehicle user interface in which no operation is possible or nothing is displayed is displayed according to the vehicle distance and the driver's cognitive function. Furthermore, a vehicle user interface may be generated that dynamically changes according to factors other than the vehicle distance and the driver's cognitive function.

表示処理部81は、判定部96が判定した運転者の認知機能の結果及び車両用ユーザインタフェースの少なくとも一方を表示するように処理を行う。なお、表示処理部81は、判定部96にて生成された車両用ユーザインタフェースを、実際の車両へ転送してもよいし、生成された車両用ユーザインタフェースのデータをダウンロード可能にしてもよい。さらには、車両用ユーザインタフェースの研究のために、生成された車両用ユーザインタフェースを表示装置40に表示させてもよい。 The display processing unit 81 performs processing to display at least one of the result of the driver's cognitive function determined by the determination unit 96 and the vehicle user interface. The display processing unit 81 may transfer the vehicle user interface generated by the determination unit 96 to an actual vehicle, or may make the data of the generated vehicle user interface available for download. Furthermore, the generated vehicle user interface may be displayed on the display device 40 for research into vehicle user interfaces.

通信部80は、携帯電話通信網、有線LAN(LocalAreaNetwork)、無線LAN及びインターネット等を含むネットワークNや配線ケーブルC等を介して、種々の装置との間で通信を行う。本実施形態において通信部80は、ネットワークNを介して、種々の装置との間で通信を行う。通信部80は、処理部78から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部78へ与える。 The communication unit 80 communicates with various devices via a network N, which may include a mobile phone communication network, a wired LAN (Local Area Network), a wireless LAN, and the Internet, or via a wiring cable C. In this embodiment, the communication unit 80 communicates with various devices via the network N. The communication unit 80 transmits data provided by the processing unit 78 to other devices, and provides data received from other devices to the processing unit 78.

(フローチャート)
次に、本実施形態にかかる情報処理システム10が実行する処理について説明する。図8は、情報処理システムが実行する処理の一例を示すフローチャートである。プロセッサ20がメモリ18又はストレージ24から本実施形態に係る生成プログラムを読み出し、メモリ18に展開して実行することにより、本実施形態に係る生成プログラムに基づく処理が行われる。
(flowchart)
Next, a process executed by the information processing system 10 according to the present embodiment will be described. Fig. 8 is a flowchart showing an example of a process executed by the information processing system. The processor 20 reads out the generation program according to the present embodiment from the memory 18 or the storage 24, expands it in the memory 18, and executes it, thereby performing a process based on the generation program according to the present embodiment.

プロセッサ20は、運転者の個人属性に関する情報の入力を受け付ける(ステップS100)。その後、プロセッサ20は、運転者の認知機能の検査を実行する操作がなされたか否かを判定する(ステップS102)。検査を実行する操作がなされていない場合(ステップS102:NO)、プロセッサ20は、ステップS102の処理を繰り返す。一方、検査を実行する操作がなされた場合(ステップS102:YES)、プロセッサ20は、運転のシミュレーションを実行する(ステップS104)と共に、シミュレーションにおける運転者のシミュレータ装置12の操作情報の取得を開始する(ステップS106)。また、プロセッサ20は、運転者の撮影を開始する(ステップS108)。 The processor 20 accepts input of information related to the personal attributes of the driver (step S100). The processor 20 then determines whether or not an operation to perform a test of the driver's cognitive function has been performed (step S102). If an operation to perform the test has not been performed (step S102: NO), the processor 20 repeats the process of step S102. On the other hand, if an operation to perform the test has been performed (step S102: YES), the processor 20 performs a driving simulation (step S104) and starts acquiring operation information of the driver's simulator device 12 in the simulation (step S106). The processor 20 also starts photographing the driver (step S108).

プロセッサ20は、別タスクとして別タスク実行装置14に出力される出題問題を回答するように運転者へ要求する(ステップS110)。その後、プロセッサ20は、運転者が出題問題に回答したか否かを判定する(ステップS112)。運転者が出題問題に回答していない場合(ステップS112:NO)、プロセッサ20は、ステップS110へ処理を移行する。一方、運転者が出題問題に回答した場合(ステップS110:YES)、プロセッサ20は、当該出題への回答を入力する運転者の操作情報を取得する(ステップS114)。 The processor 20 requests the driver to answer the question output to the separate task execution device 14 as a separate task (step S110). The processor 20 then determines whether the driver has answered the question (step S112). If the driver has not answered the question (step S112: NO), the processor 20 transitions to step S110. On the other hand, if the driver has answered the question (step S110: YES), the processor 20 acquires the driver's operation information inputting the answer to the question (step S114).

プロセッサ20は、シミュレーション及び別タスクの少なくとも一方の実行が終了したか否かを判定する(ステップS116)。実行が終了していない場合(ステップS116:NO)、プロセッサ20は、ステップS114へ処理を移行する。一方、実行が終了した場合(ステップS116:YES)、プロセッサ20は、運転操作情報や別タスクの操作情報の各種情報を記憶部76に格納する(ステップS118)。 The processor 20 determines whether or not the execution of at least one of the simulation and the other task has ended (step S116). If the execution has not ended (step S116: NO), the processor 20 proceeds to step S114. On the other hand, if the execution has ended (step S116: YES), the processor 20 stores various information such as driving operation information and operation information of the other task in the memory unit 76 (step S118).

プロセッサ20は、運転操作情報や別タスクの操作情報の各種情報を基に、運転者の認知機能を判定する(ステップS120)。その後、プロセッサ20は、判定した認知機能に基き、車両用ユーザインタフェースを生成する(ステップS122)。 The processor 20 determines the driver's cognitive function based on various information such as driving operation information and operation information for other tasks (step S120). The processor 20 then generates a vehicle user interface based on the determined cognitive function (step S122).

プロセッサ20は、認知機能検査又は車両用ユーザインタフェースの生成について終了操作がされたか否かを判定する(ステップS124)。終了操作がされていない場合(ステップS124:NO)、プロセッサ20は、ステップS100へ処理を移行する。一方、終了操作がされた場合(ステップS124:YES)、プロセッサ20は、生成プログラムに基づく処理を終了する。 The processor 20 determines whether or not an end operation has been performed for the cognitive function test or the generation of the vehicle user interface (step S124). If an end operation has not been performed (step S124: NO), the processor 20 proceeds to step S100. On the other hand, if an end operation has been performed (step S124: YES), the processor 20 ends the processing based on the generation program.

(第1実施形態の作用・効果)
次に、本実施形態の作用並びに効果を説明する。
(Actions and Effects of the First Embodiment)
Next, the operation and effects of this embodiment will be described.

本実施形態では、運転者の認知機能を、シミュレーションにて運転操作中に別タスクとして出題される問題に対する回答を行う際の運転者の運転操作、回答の処理及び運転者の状態の少なくとも一方に関する情報を基に評価する。つまり、マルチタスク状態で運転者の認知機能を検査し評価することから、シングルタスクによる認知機能の検査よりも負荷が高くかつ実際の車両の運転状態に近い状態で認知機能の検査を行うことができる。このため、現実的かつ有効性の高い指標として運転者の認知機能を活用することができる。 In this embodiment, the driver's cognitive function is evaluated based on information about at least one of the driver's driving operation, the processing of the answer, and the driver's state when answering questions posed as separate tasks during driving operations in a simulation. In other words, because the driver's cognitive function is tested and evaluated in a multitasking state, it is possible to test the cognitive function under conditions that are more stressful than a single-tasking cognitive function test and that are closer to the actual driving state of a vehicle. Therefore, the driver's cognitive function can be used as a realistic and highly effective indicator.

また、運転車両の認知機能の評価結果に基き、車両用ユーザインタフェースを生成することから、認知機能が高い運転者の場合には外観意匠性も考慮した車両用ユーザインタフェースを適用する一方、認知機能が低い運転者の場合には安全性を考慮したより操作性の高い車両用ユーザインタフェースを適用することができる。つまり、商品性向上と安全性向上とを運転者に応じて両立させることができる。これにより、適切な車両用ユーザインタフェースを生成することができる。 In addition, since a vehicle user interface is generated based on the evaluation results of the cognitive function of the vehicle being driven, a vehicle user interface that also takes into account the appearance design can be applied to drivers with high cognitive function, while a vehicle user interface with higher operability that takes safety into account can be applied to drivers with low cognitive function. In other words, it is possible to achieve both improved marketability and improved safety depending on the driver. This makes it possible to generate an appropriate vehicle user interface.

さらに、情報処理システム10は、運転シミュレーションを実行するシミュレータ装置12をおいて運転情報を取得することから、実際に危険な運転状態になることなく運転情報を取得することができる。これにより、安全な状態で運転者に応じた適切な車両用ユーザインタフェースを生成することができる。 Furthermore, the information processing system 10 acquires driving information using a simulator device 12 that executes a driving simulation, and thus can acquire driving information without actually entering a dangerous driving state. This allows a vehicle user interface to be generated that is appropriate for the driver in a safe state.

さらにまた、情報処理システム10は、運転者情報取得部88にて運転者の状態として少なくとも運転者の頭の向きを含めた姿勢情報を取得する。したがって、認知機能が比較的低い運転者に見られる、別タスクの処理時に別タスク実行装置14へ頭を向けた状態が長く続くいわゆるわき見運転状態を的確に検知することができる。これにより、運転者の検知機能を精度よく判定することができるので、さらに運転者に応じた適切な車両用ユーザインタフェースを生成することができる。 Furthermore, the information processing system 10 acquires posture information including at least the direction of the driver's head as the state of the driver in the driver information acquisition unit 88. Therefore, it is possible to accurately detect the so-called inattentive driving state seen in drivers with relatively low cognitive function, in which the head is turned toward the separate task execution device 14 for a long period of time while processing another task. This makes it possible to accurately determine the driver's detection function, and furthermore to generate a vehicle user interface appropriate for the driver.

また、情報処理システム10は、運転者情報取得部88にて運転者の状態として少なくとも運転者の視線に関する情報である視線情報を取得する。したがって、視線が運転に必要な方向を見ておらず、別タスク実行装置14へ視線を向けた状態が長く続くわき見運転状態を的確に検知することができる。これにより、運転者の検知機能を精度よく判定することができるので、より運転者に応じた適切な車両用ユーザインタフェースを生成することができる。 The information processing system 10 also acquires gaze information, which is information related to the driver's gaze, as the driver's state using the driver information acquisition unit 88. Therefore, it is possible to accurately detect a distracted driving state in which the driver's gaze is not directed in the direction required for driving, but is directed toward the separate task execution device 14 for a long period of time. This allows the driver's detection function to be accurately determined, making it possible to generate a vehicle user interface that is more appropriate for the driver.

さらに、情報処理システム10は、入力情報取得部74にて別タスク処理の実行を行う際の運転者の操作情報として少なくとも別タスクの実行をする際の処理時間に関する情報を取得する。一般的に、処理時間が長ければ運転者の認知機能は比較的低く、処理時間が短ければ運転者の認知機能は比較的高い。したがって、処理時間から運転者の認知機能を評価することができる。これにより、運転者に応じた適切な車両用ユーザインタフェースを生成することができる。 Furthermore, the information processing system 10 acquires information related to at least the processing time when executing another task as the driver's operation information when executing another task processing in the input information acquisition unit 74. In general, if the processing time is long, the driver's cognitive function is relatively low, and if the processing time is short, the driver's cognitive function is relatively high. Therefore, the driver's cognitive function can be evaluated from the processing time. This makes it possible to generate an appropriate vehicle user interface according to the driver.

さらにまた、情報処理システム10は、入力情報取得部74にて別タスク処理の実行を行う際の運転者の操作情報として少なくとも別タスクの実行結果に関する情報を取得する。一般的に、実行結果が正確なものであれば運転者の認知機能は比較的高く、実行結果が正確でないものであれば運転者の認知機能は比較的低い。したがって、実行結果に関する情報から運転者の認知機能を評価することができる。これにより、運転者に応じた適切な車両用ユーザインタフェースを生成することができる。 Furthermore, the information processing system 10 acquires at least information related to the execution result of another task as the driver's operation information when executing another task process in the input information acquisition unit 74. In general, if the execution result is accurate, the driver's cognitive function is relatively high, and if the execution result is inaccurate, the driver's cognitive function is relatively low. Therefore, the driver's cognitive function can be evaluated from the information related to the execution result. This makes it possible to generate an appropriate vehicle user interface according to the driver.

また、情報処理システム10は、運転者の認知機能の評価結果に基づいて車両用ユーザインタフェースにおける操作入力を受け付ける操作部(ワイパスイッチ97及びワイパ速度スイッチ99)の位置、形状及びサイズの少なくとも一方を調整した上で車両用ユーザインタフェースを生成する。したがって、車両用ユーザインタフェースの操作部の操作のしやすさを運転者に応じて変更することができる。つまり、より一層運転者に応じた適切な車両用ユーザインタフェースを生成することができる。 In addition, the information processing system 10 generates a vehicle user interface after adjusting at least one of the position, shape, and size of the operation unit (wiper switch 97 and wiper speed switch 99) that accepts operational input in the vehicle user interface based on the evaluation results of the driver's cognitive function. Therefore, the ease of operation of the operation unit of the vehicle user interface can be changed according to the driver. In other words, a vehicle user interface that is more appropriate for the driver can be generated.

(第2実施形態)
次に、図10~図13を用いて、本発明の第2実施形態に係る情報処理システム100につて説明する。第2実施形態に係る情報処理システム100は、基本的な構成は第1実施形態と同様とされ、車両用ユーザインタフェースを表示する表示装置の筐体情報及び周囲情報も踏まえた上で前記車両用ユーザインタフェースを生成する点に特徴がある。
Second Embodiment
Next, an information processing system 100 according to a second embodiment of the present invention will be described with reference to Figures 10 to 13. The information processing system 100 according to the second embodiment has a basic configuration similar to that of the first embodiment, and is characterized in that the information processing system 100 generates a user interface for a vehicle based on housing information and surrounding information of a display device that displays the user interface for a vehicle.

(システム構成)
すなわち、図10に示されるように、情報処理システム100は、運転者における車両102の運転に必要な認知機能を評価し、当該運転者へ適した車両用ユーザインタフェースを生成するために車両102に搭載されたシステムである。本実施形態に係る情報処理システム100は、図示しないハーネスを介して相互に通信可能に接続された、車両操作装置104と、別タスク実行装置14と、評価装置106と、を備える。
(System configuration)
10, the information processing system 100 is a system mounted on the vehicle 102 to evaluate the cognitive functions of a driver required for driving the vehicle 102 and generate a vehicle user interface suitable for the driver. The information processing system 100 according to this embodiment includes a vehicle operation device 104, a separate task execution device 14, and an evaluation device 106, which are communicatively connected to each other via a harness (not shown).

(ハードウェア構成-車両操作装置)
車両操作装置104は、車両102を操作するための装置であり、具体的にはステアリングホイール108、アクセルペダル110、ブレーキペダル112、シフトレバー114、ウィンカーレバー116、ライトスイッチ(不図示)等が該当する。これらの装置の操作情報は、適宜取得され別タスク実行装置14及び評価装置106に送信可能とされている。
(Hardware configuration - vehicle operation device)
The vehicle operation device 104 is a device for operating the vehicle 102, and specifically corresponds to a steering wheel 108, an accelerator pedal 110, a brake pedal 112, a shift lever 114, a turn signal lever 116, a light switch (not shown), etc. Operation information of these devices can be acquired as appropriate and transmitted to the separate task execution device 14 and the evaluation device 106.

(ハードウェア構成-評価装置)
評価装置106は、バスBを介して相互に通信可能に接続された、プロセッサ20と、メモリ22と、ストレージ24と、通信I/F26と、入出力I/F28と、撮像装置122と、表示装置124と、入力装置126と、を備える。撮像装置122は、運転者を撮像するように設けられた運転者用カメラ128と、車両の走行状態を監視する走行監視カメラ130とを含んで構成されている。運転者用カメラ128は、運転者の顔を中心に運転者の様子を撮像した動画情報を取得する。また、走行監視カメラ130は、車両102の走行の様子を撮像した動画情報を取得する。
(Hardware configuration - evaluation device)
The evaluation device 106 includes a processor 20, a memory 22, a storage 24, a communication I/F 26, an input/output I/F 28, an imaging device 122, a display device 124, and an input device 126, which are communicatively connected to each other via a bus B. The imaging device 122 includes a driver's camera 128 that is provided to capture an image of the driver, and a driving monitoring camera 130 that monitors the driving state of the vehicle. The driver's camera 128 acquires video information that captures the driver's appearance with the driver's face as the center. The driving monitoring camera 130 acquires video information that captures the driving state of the vehicle 102.

表示装置124と入力装置126とは、本実施形態では一例として、一体的に構成されたタッチパネルディスプレイとされている。表示装置124及び入力装置126は、認知機能の検査を実施する運転者が視認及び操作できる位置に配置されている。また、表示装置124は、車両用ユーザインタフェースを表示する装置とされており、表示装置124の筐体に関する情報である筐体情報及び表示装置124の周囲情報が後述する操作部情報132の一部として記憶されている。筐体情報は、具体的には表示装置124を構成する筐体のサイズや車両102内での位置や向きなどの情報が含まれる。また、周囲情報は、具体的には表示装置124の周囲に存在する物体(一例としてステアリングホイール108等)に関する情報などが含まれる。 In this embodiment, the display device 124 and the input device 126 are, as an example, an integrated touch panel display. The display device 124 and the input device 126 are arranged in a position where they can be seen and operated by the driver who is performing the cognitive function test. The display device 124 is a device that displays a vehicle user interface, and housing information, which is information about the housing of the display device 124, and surrounding information of the display device 124 are stored as part of the operation unit information 132 described below. The housing information specifically includes information such as the size of the housing constituting the display device 124 and its position and orientation within the vehicle 102. The surrounding information specifically includes information about objects (such as the steering wheel 108, as an example) present around the display device 124.

(機能構成-評価装置)
次に、評価装置106の機能構成について説明する。図11は、評価装置106の機能構成の一例を示す図である。各種プログラムを実行する際に、評価装置106は上記のハードウェア資源を用いて、各種の機能を実現する。評価装置106は、評価装置106が実現する機能構成として、記憶部134と、処理部136と、通信部80と、を有している。各機能構成は、プロセッサ20がメモリ22又はストレージ24に記憶された生成プログラム58を読み出し、実行することで実現される。
(Functional configuration - evaluation device)
Next, the functional configuration of the evaluation device 106 will be described. Fig. 11 is a diagram showing an example of the functional configuration of the evaluation device 106. When executing various programs, the evaluation device 106 realizes various functions using the above-mentioned hardware resources. The evaluation device 106 has a storage unit 134, a processing unit 136, and a communication unit 80 as functional configurations realized by the evaluation device 106. Each functional configuration is realized by the processor 20 reading and executing the generation program 58 stored in the memory 22 or the storage 24.

記憶部134には、生成プログラム58、学習モデル82、ユーザDB84、結果DB86及び操作部情報132が記憶される。操作部情報132は、車両操作装置104が運転者により操作された操作情報と、表示装置124の筐体情報及び当該筐体の周囲情報とを含んで構成されている。 The memory unit 134 stores the generation program 58, the learning model 82, the user DB 84, the result DB 86, and the operation unit information 132. The operation unit information 132 includes operation information of the vehicle operation device 104 operated by the driver, housing information of the display device 124, and surrounding information of the housing.

処理部136は、運転者情報取得部88と、検査制御部140と、運転操作情報取得部142と、別タスク操作情報取得部94と、判定部144と、表示処理部145とを有している。検査制御部140は、運転者の認知機能を評価するための検査を制御する。すなわち、検査制御部140は、運転者が車両102を車両操作装置104により運転している際に、運転操作とは異なる別タスク処理を行うことを促すように別タスク実行装置14の制御を行う。 The processing unit 136 has a driver information acquisition unit 88, an examination control unit 140, a driving operation information acquisition unit 142, a separate task operation information acquisition unit 94, a judgment unit 144, and a display processing unit 145. The examination control unit 140 controls an examination for evaluating the cognitive function of the driver. That is, when the driver is driving the vehicle 102 using the vehicle operation device 104, the examination control unit 140 controls the separate task execution device 14 to prompt the driver to perform separate task processing that is different from the driving operation.

運転操作情報取得部142は、車両102の運転中に車両操作装置104を通して入力される運転操作情報と、走行監視カメラ130を通して入力される車両102の走行状態の情報を取得する。走行状態の情報は、一例として、車線における車両102の位置や、自転車等軽車両を含めた他車及び歩行者との位置関係等の情報が挙げられる。 The driving operation information acquisition unit 142 acquires driving operation information input through the vehicle operation device 104 while driving the vehicle 102, and information on the driving state of the vehicle 102 input through the driving monitoring camera 130. Examples of information on the driving state include the position of the vehicle 102 in the lane, and information on its positional relationship with other vehicles, including light vehicles such as bicycles, and pedestrians.

判定部144は、運転者情報取得部88、運転操作情報取得部142及び別タスク操作情報取得部94から取得された各種情報を基に、運転者の認知機能を判定する。判定部144は、判定した認知機能を結果DB86へ格納する。 The determination unit 144 determines the driver's cognitive function based on various information acquired from the driver information acquisition unit 88, the driving operation information acquisition unit 142, and the separate task operation information acquisition unit 94. The determination unit 144 stores the determined cognitive function in the result DB 86.

また、判定部144は、運転者の認知機能及び表示装置124の筐体情報に基づき、車両用ユーザインタフェースを生成する。すなわち、判定部144は、一例として、図13(A)に示されるように、運転者の認知機能が平均的である場合には、予め設定されている車両用ユーザインタフェースを維持する。これに対し、運転者の認知機能が所定の値よりも低い場合には、運転者の認知機能に応じて操作性を向上させた車両用ユーザインタフェースを生成する。具体的には、判定部144は、図13(B)に示されるように、表示装置124の筐体情報及び表示装置124の周囲情報から運転者が手を置きやすい位置(以下、単に「手置き位置」と称する。図中P点に相当)を推定する。この手置き位置Pは、周囲情報から表示装置124の周囲にある物体(一例としてステアリングホイール108)と干渉せずかつ運転者の手が置きやすい位置とされている。そして、判定部144は、手置き位置P及び手置き位置Pから表示装置124の筐体外縁部に沿って操作部としてのワイパスイッチ97及びワイパ速度スイッチ99の位置を配置した車両用ユーザインタフェースを生成する。 The determination unit 144 also generates a vehicle user interface based on the driver's cognitive function and the housing information of the display device 124. That is, as an example, as shown in FIG. 13(A), when the driver's cognitive function is average, the determination unit 144 maintains a preset vehicle user interface. In contrast, when the driver's cognitive function is lower than a predetermined value, the determination unit 144 generates a vehicle user interface with improved operability according to the driver's cognitive function. Specifically, as shown in FIG. 13(B), the determination unit 144 estimates a position where the driver can easily place his/her hands (hereinafter, simply referred to as a "hand placement position"; corresponding to point P in the figure) from the housing information of the display device 124 and the surrounding information of the display device 124. This hand placement position P is determined from the surrounding information to be a position where the driver can easily place his/her hands without interfering with objects (for example, the steering wheel 108) around the display device 124. The determination unit 144 then generates a vehicle user interface that positions the wiper switch 97 and the wiper speed switch 99 as operation units along the hand placement position P and the outer edge of the housing of the display device 124 from the hand placement position P.

表示処理部145は、判定部144が生成した車両用ユーザインタフェースを表示装置124に表示するように処理を行う。 The display processing unit 145 performs processing to display the vehicle user interface generated by the determination unit 144 on the display device 124.

(フローチャート)
次に、本実施形態にかかる情報処理システム100が実行する処理について説明する。図12は、情報処理システム100が実行する処理の一例を示すフローチャートである。プロセッサ20がメモリ18又はストレージ24から本実施形態に係る生成プログラムを読み出し、メモリ18に展開して実行することにより、本実施形態に係る生成プログラムに基づく処理が行われる。なお、第1実施形態と同一の処理については、同一符号を付してその説明を省略する。
(flowchart)
Next, a process executed by the information processing system 100 according to the present embodiment will be described. Fig. 12 is a flowchart showing an example of a process executed by the information processing system 100. The processor 20 reads out the generation program according to the present embodiment from the memory 18 or the storage 24, expands it in the memory 18, and executes it, thereby performing a process based on the generation program according to the present embodiment. Note that the same processes as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted.

プロセッサ20は、ステップS100の処理後、運転者の認知機能の検査を実行する判定走行を実施する操作がなされたか否かを判定する(ステップS200)。判定走行を実施する操作がなされていない場合(ステップS200:NO)、プロセッサ20は、ステップS200の処理を繰り返す。一方、判定走行を実施する操作がなされた場合(ステップS200:YES)、プロセッサ20は、判定走行時の各種情報を取得するようステップS106へ処理を移行する。 After processing step S100, the processor 20 determines whether or not an operation has been performed to perform a judgment run to test the driver's cognitive function (step S200). If an operation to perform a judgment run has not been performed (step S200: NO), the processor 20 repeats the processing of step S200. On the other hand, if an operation to perform a judgment run has been performed (step S200: YES), the processor 20 transitions to the processing of step S106 to acquire various information during the judgment run.

プロセッサ20は、ステップS114の処理後、判定走行及び別タスクの少なくとも一方の実行が終了したか否かを判定する(ステップS202)。実行が終了していない場合(ステップS202:NO)、プロセッサ20は、ステップS114へ処理を移行する。一方、実行が終了した場合(ステップS202:YES)、プロセッサ20は、運転操作情報や別タスクの操作情報の各種情報を記憶部76に格納する(ステップS118)。 After processing step S114, the processor 20 determines whether or not the execution of at least one of the judgment driving and the other task has ended (step S202). If the execution has not ended (step S202: NO), the processor 20 proceeds to step S114. On the other hand, if the execution has ended (step S202: YES), the processor 20 stores various information such as the driving operation information and the operation information of the other task in the memory unit 76 (step S118).

(第2実施形態の作用・効果)
次に、第2実施形態の作用並びに効果を説明する。
(Actions and Effects of the Second Embodiment)
Next, the operation and effects of the second embodiment will be described.

上記構成によっても車両用ユーザインタフェースを表示する表示装置の筐体情報及び周囲情報も踏まえた上で前記車両用ユーザインタフェースを生成する点以外は第1実施形態の情報処理システム10と同様に構成されているので、第1実施形態と同様の効果が得られる。また、情報処理システム100は、車両用ユーザインタフェースを表示する表示装置124の筐体情報及び表示装置124の周囲情報を取得すると共に、筐体情報及び周囲情報も踏まえた上で車両用ユーザインタフェースを生成する。したがって、運転者が手を置きやすい手置き位置Pや、表示装置124の筐体外縁部に手を置いた状態で操作部146を操作できるよう車両用ユーザインタフェースを生成することができる。これにより、運転者は表示装置124を注視することなく手探りで手置き位置Pや筐体外縁部に手を置いた上で、手置き位置Pや筐体外縁部を基準として操作部146の位置を把握し操作ができる。このため、一般的に表示装置124を注視しがちになる認知機能が低下した運転者に対して、表示装置124を注視することなくワイパスイッチ97及びワイパ速度スイッチ99などを操作できる車両用ユーザインタフェースを提供することができる。 The above configuration is similar to the information processing system 10 of the first embodiment, except that the vehicle user interface is generated based on the housing information and surrounding information of the display device that displays the vehicle user interface, and therefore the same effects as the first embodiment can be obtained. In addition, the information processing system 100 acquires housing information of the display device 124 that displays the vehicle user interface and surrounding information of the display device 124, and generates the vehicle user interface based on the housing information and surrounding information. Therefore, the vehicle user interface can be generated so that the driver can operate the operation unit 146 with his/her hands placed at the hand placement position P where the driver can easily place his/her hands or on the outer edge of the housing of the display device 124. As a result, the driver can grasp the position of the operation unit 146 based on the hand placement position P or the outer edge of the housing by feeling around without staring at the display device 124, and then operate it. Therefore, for a driver with reduced cognitive function who generally tends to stare at the display device 124, a vehicle user interface can be provided that allows the driver to operate the wiper switch 97, the wiper speed switch 99, and the like without staring at the display device 124.

また、表示装置124の筐体情報及び周囲情報も踏まえた上で前記車両用ユーザインタフェースを生成することから、評価装置124の車室内における相対的な位置を考慮した車両用ユーザインタフェースを生成できる。つまり、運転者から表示装置124の見え方を考慮した適切な車両用ユーザインタフェースを生成できることから、より一層適切な車両用ユーザインタフェースを提供することができる。 In addition, since the vehicle user interface is generated based on the housing information and surrounding information of the display device 124, it is possible to generate a vehicle user interface that takes into account the relative position of the evaluation device 124 within the vehicle cabin. In other words, since it is possible to generate an appropriate vehicle user interface that takes into account how the display device 124 appears to the driver, it is possible to provide an even more appropriate vehicle user interface.

なお、上述した第1,第2実施形態では、運転者の認知機能の評価結果に基づいて車両用ユーザインタフェースにおける操作入力を受け付ける操作部(ワイパスイッチ97及びワイパ速度スイッチ99)の位置、形状及びサイズの少なくとも一方を調整した上で車両用ユーザインタフェースを生成したが、これに限らず、車両用ユーザインタフェースにおける情報を表示する部分等の操作部以外についてもその位置、形状及びサイズの少なくとも一方を調整した上で車両用ユーザインタフェースを生成してもよい。 In the first and second embodiments described above, the vehicle user interface is generated after adjusting at least one of the position, shape, and size of the operation unit (wiper switch 97 and wiper speed switch 99) that accepts operation input in the vehicle user interface based on the evaluation results of the driver's cognitive function. However, this is not limited to this, and the vehicle user interface may also be generated after adjusting at least one of the position, shape, and size of parts other than the operation unit, such as parts that display information in the vehicle user interface.

また、車両用ユーザインタフェースは、液晶ディスプレイなどに表示されるユーザインタフェースとされているが、これに限らず、物理スイッチを含めて構成されるユーザインタフェースを認知機能の判定結果に基いて生成する構成としてもよい。 In addition, the vehicle user interface is a user interface displayed on a liquid crystal display or the like, but is not limited to this. It may also be a user interface including physical switches that is generated based on the results of the cognitive function assessment.

<付記>
本実施形態は、以下の開示を含む。
<Additional Notes>
The present embodiment includes the following disclosure.

(付記1)
情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、
運転者の運転操作に関する情報を取得する運転情報取得ステップと、
前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、
前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、
前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、
前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、
を含む情報処理方法。
(Appendix 1)
A method for generating a user interface for a vehicle executed by an information processing device, comprising:
A driving information acquisition step of acquiring information regarding a driver's driving operation;
A separate task request step of requesting the driver to execute a predetermined process different from the driving operation during the driving operation of the driver;
a driver state information acquisition step of acquiring information regarding at least one of the driving operation of the driver, the predetermined process, and a state of the driver while the driver is performing the predetermined process;
an evaluation step of evaluating a cognitive function of the driver based on the information acquired in the driver state information acquisition step;
a generating step of generating a user interface for a vehicle based on an evaluation result of the cognitive function of the driver determined in the evaluating step;
An information processing method comprising:

(付記2)
前記運転情報取得ステップは、前記運転者が視聴すると共に前記運転者の運転操作に基づいて状況が変化する運転動画を表示する運転シミュレーションにおいて情報を取得する、
付記1に記載の情報処理方法。
(Appendix 2)
The driving information acquisition step acquires information in a driving simulation that displays a driving video that is viewed by the driver and in which a situation changes based on a driving operation of the driver.
2. The information processing method according to claim 1.

(付記3)
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記運転者の状態として少なくとも前記運転者の頭の向きを含めた姿勢情報を取得する、
付記1に記載の情報処理方法。
(Appendix 3)
The information processing device acquires, in the driver state information acquisition step, posture information including at least a direction of the head of the driver as the state of the driver.
2. The information processing method according to claim 1.

(付記4)
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記運転者の状態として少なくとも前記運転者の視線に関する情報である視線情報を取得する、
付記1に記載の情報処理方法。
(Appendix 4)
The information processing device acquires, in the driver state information acquisition step, gaze information that is information regarding at least the driver's gaze as the state of the driver.
2. The information processing method according to claim 1.

(付記5)
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記所定の処理に関する情報として少なくとも前記所定の処理を実行する際の処理時間に関する情報を取得する、
付記1に記載の情報処理方法。
(Appendix 5)
The information processing device acquires, in the driver state information acquisition step, information regarding at least a processing time required for executing the predetermined processing as the information regarding the predetermined processing.
2. The information processing method according to claim 1.

(付記6)
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記所定の処理に関する情報として少なくとも前記所定の処理の実行結果に関する情報を取得する、
付記1に記載の情報処理方法。
(Appendix 6)
In the driver state information acquisition step, the information processing device acquires at least information regarding a result of execution of the predetermined processing as the information regarding the predetermined processing.
2. The information processing method according to claim 1.

(付記7)
前記情報処理装置は、前記生成ステップにおいて、前記評価結果に基づいて前記車両用ユーザインタフェースにおける操作入力を受け付ける操作部の位置、形状及びサイズの少なくとも一方を調整した上で前記車両用ユーザインタフェースを生成する、
付記1に記載の情報処理方法。
(Appendix 7)
and generating the vehicle user interface by adjusting at least one of a position, a shape, and a size of an operation unit that accepts an operation input in the vehicle user interface based on the evaluation result.
2. The information processing method according to claim 1.

(付記8)
前記情報処理装置は、前記車両用ユーザインタフェースを表示する装置筐体に関する情報である筐体情報及び当該筐体の周囲情報を取得すると共に、前記生成ステップにおいて、前記筐体情報及び前記周囲情報も踏まえた上で前記車両用ユーザインタフェースを生成する、
付記1に記載の情報処理方法。
(Appendix 8)
the information processing device acquires case information, which is information related to a device case that displays the vehicular user interface, and surrounding information of the case, and in the generating step, generates the vehicular user interface based on the case information and the surrounding information.
2. The information processing method according to claim 1.

(付記9)
前記情報処理装置は、前記車両用ユーザインタフェースを表示する装置筐体に関する情報である筐体情報及び当該筐体の周囲情報を取得すると共に、前記生成ステップにおいて、前記筐体情報及び前記周囲情報も踏まえた上で前記車両用ユーザインタフェースを生成する、
付記1に記載の情報処理方法。
(Appendix 9)
the information processing device acquires case information, which is information related to a device case that displays the vehicular user interface, and surrounding information of the case, and in the generating step, generates the vehicular user interface based on the case information and the surrounding information.
2. The information processing method according to claim 1.

(付記10)
車両運転のための運転操作情報を取得する運転情報取得装置と、
車両運転を実行する運転者に対して車両運転以外の所定の処理の実行の要求、実行の受け付け、実行結果の取得を行う別タスク実行装置と、
前記運転者に関する情報、前記運転情報取得装置による前記運転操作情報及び前記別タスク実行装置より取得される前記所定の処理に関する情報の少なくとも一方から前記運転者の認知機能を評価する評価装置と、
を備え、
運転者の運転操作に関する情報を取得する運転情報取得ステップと、
前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、
前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、
前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、
前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、
を実行する情報処理システム。
(Appendix 10)
A driving information acquisition device for acquiring driving operation information for driving a vehicle;
a separate task execution device that requests a driver who is driving a vehicle to execute a predetermined process other than driving a vehicle, accepts the execution, and acquires the execution result;
an evaluation device for evaluating a cognitive function of the driver based on at least one of information about the driver, the driving operation information obtained by the driving information acquisition device, and information about the predetermined processing obtained by the separate task execution device;
Equipped with
A driving information acquisition step of acquiring information regarding a driver's driving operation;
A separate task request step of requesting the driver to execute a predetermined process different from the driving operation during the driving operation of the driver;
a driver state information acquisition step of acquiring information regarding at least one of the driving operation of the driver, the predetermined process, and a state of the driver while the driver is performing the predetermined process;
an evaluation step of evaluating a cognitive function of the driver based on the information acquired in the driver state information acquisition step;
a generating step of generating a user interface for a vehicle based on an evaluation result of the cognitive function of the driver determined in the evaluating step;
An information processing system that executes the above.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。また、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the claims, not by the meaning described above, and is intended to include all modifications within the scope of the claims. Furthermore, the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in different embodiments are also included in the technical scope of the present invention.

10 情報処理システム
12 運転情報取得装置
14 別タスク実行装置
16 評価装置(生成装置)
97 ワイパスイッチ(操作部)
99 ワイパ速度スイッチ(操作部)
100 情報処理システム
106 評価装置(生成装置)
10 Information processing system 12 Driving information acquisition device 14 Other task execution device 16 Evaluation device (generation device)
97 Wiper switch (operation part)
99 Wiper speed switch (operation part)
100 Information processing system 106 Evaluation device (generation device)

一実施形態に係る情報処理方法によれば、情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、運転者の運転操作に関する情報を取得する運転情報取得ステップと、前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、前記運転者が前記所定の処理を実行中に、前記運転者の運転操作に関する情報と、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、を含む。 According to an information processing method of one embodiment, a method for generating a user interface for a vehicle is executed by an information processing device, the method for generating a user interface for a vehicle being executed by an information processing device includes a driving information acquisition step of acquiring information regarding a driver's driving operation, a separate task request step of requesting the driver to execute a specified process different from the driving operation while the driver is performing the driving operation, a driver state information acquisition step of acquiring information regarding the driver's driving operation and information regarding at least one of the execution of the specified process and the driver's state while the driver is performing the specified process, an evaluation step of evaluating the cognitive function of the driver based on the information acquired in the driver state information acquisition step, and a generation step of generating a user interface for a vehicle based on the evaluation result of the driver's cognitive function determined by the evaluation step.

一実施形態に係るプログラムによれば、情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、運転者の運転操作に関する情報を取得する運転情報取得ステップと、前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、前記運転者が前記所定の処理を実行中に、前記運転者の運転操作に関する情報と、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、をコンピュータに実行させる。 According to a program of one embodiment, a method for generating a user interface for a vehicle is executed by an information processing device, and the method causes a computer to execute the following steps: a driving information acquisition step for acquiring information regarding a driver's driving operation; a separate task request step for requesting the driver to perform a specified process other than the driving operation while the driver is performing the driving operation; a driver state information acquisition step for acquiring information regarding the driver's driving operation and information regarding at least one of the execution of the specified process and the driver's state while the driver is performing the specified process; an evaluation step for evaluating the cognitive function of the driver based on the information acquired in the driver state information acquisition step; and a generation step for generating a user interface for a vehicle based on the evaluation result of the driver's cognitive function determined by the evaluation step.

一実施形態に係る情報処理システムによれば、車両の運転のための運転操作情報を取得する運転情報取得装置と、運転を実行する運転者に対して車両運転以外の所定の処理の実行の要求、実行の受け付け、実行結果の取得を行う別タスク実行装置と、前記運転者に関する情報、前記運転情報取得装置による前記運転操作情報及び前記別タスク実行装置より取得される前記所定の処理の実行に関する情報の少なくとも一方から前記運転者の認知機能を評価する評価装置と、評価された前記認知機能に基いて車両用ユーザインタフェースを生成する生成装置と、を備え、前記運転者の運転操作に関する情報を取得する運転情報取得ステップと、前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、前記運転者が前記所定の処理を実行中に、前記運転者の運転操作に関する情報と、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、前記評価ステップにより判定された前記認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、を実行する。 According to one embodiment of the information processing system, the information processing system includes a driving information acquisition device that acquires driving operation information for driving a vehicle; a separate task execution device that requests a driver who is driving to execute a predetermined process other than vehicle driving, accepts the execution, and acquires the execution result; an evaluation device that evaluates the cognitive function of the driver from at least one of information about the driver, the driving operation information by the driving information acquisition device, and information about the execution of the predetermined process acquired by the separate task execution device; and a generation device that generates a user interface for a vehicle based on the evaluated cognitive function. The information processing system executes the following steps: a driving information acquisition step that acquires information about the driving operation of the driver; a separate task request step that requests the driver to execute a predetermined process different from the driving operation while the driver is performing the predetermined process; a driver state information acquisition step that acquires information about the driver's driving operation and information about at least one of the execution of the predetermined process and the driver's state while the driver is performing the predetermined process; an evaluation step that evaluates the cognitive function of the driver based on the information acquired in the driver state information acquisition step; and a generation step that generates a user interface for a vehicle based on the evaluation result of the cognitive function determined in the evaluation step.

Claims (10)

情報処理装置が実行する車両用ユーザインタフェースの生成方法であって、
運転者の運転操作に関する情報を取得する運転情報取得ステップと、
前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、
前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、
前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、
前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、
を含む情報処理方法。
A method for generating a user interface for a vehicle executed by an information processing device, comprising:
A driving information acquisition step of acquiring information regarding a driver's driving operation;
A separate task request step of requesting the driver to execute a predetermined process different from the driving operation during the driving operation of the driver;
a driver state information acquisition step of acquiring information regarding at least one of a driving operation of the driver, the execution of the predetermined process, and a state of the driver while the driver is executing the predetermined process;
an evaluation step of evaluating a cognitive function of the driver based on the information acquired in the driver state information acquisition step;
a generating step of generating a user interface for a vehicle based on an evaluation result of the cognitive function of the driver determined in the evaluating step;
An information processing method comprising:
前記運転情報取得ステップは、前記運転者が視聴すると共に前記運転者の運転操作に基づいて状況が変化する運転動画を表示する運転シミュレーションにおいて情報を取得する、
請求項1に記載の情報処理方法。
The driving information acquisition step acquires information in a driving simulation that displays a driving video that is viewed by the driver and in which a situation changes based on a driving operation of the driver.
The information processing method according to claim 1 .
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記運転者の状態として少なくとも前記運転者の頭の向きを含めた姿勢情報を取得する、
請求項1に記載の情報処理方法。
The information processing device acquires, in the driver state information acquisition step, posture information including at least a direction of the head of the driver as the state of the driver.
The information processing method according to claim 1 .
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記運転者の状態として少なくとも前記運転者の視線に関する情報である視線情報を取得する、
請求項1に記載の情報処理方法。
The information processing device acquires, in the driver state information acquisition step, gaze information that is information regarding at least the driver's gaze as the state of the driver.
The information processing method according to claim 1 .
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記所定の処理に関する情報として少なくとも前記所定の処理を実行する際の処理時間に関する情報を取得する、
請求項1に記載の情報処理方法。
The information processing device acquires, in the driver state information acquisition step, information regarding at least a processing time required for executing the predetermined processing as the information regarding the predetermined processing.
The information processing method according to claim 1 .
前記情報処理装置は、前記運転者状態情報取得ステップにおいて、前記所定の処理に関する情報として少なくとも前記所定の処理の実行結果に関する情報を取得する、
請求項1に記載の情報処理方法。
In the driver state information acquisition step, the information processing device acquires at least information regarding a result of execution of the predetermined processing as the information regarding the predetermined processing.
The information processing method according to claim 1 .
前記情報処理装置は、前記生成ステップにおいて、前記評価結果に基づいて前記車両用ユーザインタフェースにおける操作入力を受け付ける操作部の位置、形状及びサイズの少なくとも一方を調整した上で前記車両用ユーザインタフェースを生成する、
請求項1に記載の情報処理方法。
and generating the vehicle user interface by adjusting at least one of a position, a shape, and a size of an operation unit that accepts an operation input in the vehicle user interface based on the evaluation result.
The information processing method according to claim 1 .
前記情報処理装置は、前記車両用ユーザインタフェースを表示する装置筐体に関する情報である筐体情報及び当該筐体の周囲情報を取得すると共に、前記生成ステップにおいて、前記筐体情報及び前記周囲情報も踏まえた上で前記車両用ユーザインタフェースを生成する、
請求項1に記載の情報処理方法。
the information processing device acquires case information, which is information related to a device case that displays the vehicular user interface, and surrounding information of the case, and in the generating step, generates the vehicular user interface based on the case information and the surrounding information.
The information processing method according to claim 1 .
運転者の運転操作に関する情報を取得する運転情報取得ステップと、
前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、
前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、
前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、
前記評価ステップにより判定された前記運転者の認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、
をコンピュータに実行させるプログラム。
A driving information acquisition step of acquiring information regarding a driver's driving operation;
A separate task request step of requesting the driver to execute a predetermined process different from the driving operation during the driving operation of the driver;
a driver state information acquisition step of acquiring information regarding at least one of a driving operation of the driver, the execution of the predetermined process, and a state of the driver while the driver is executing the predetermined process;
an evaluation step of evaluating a cognitive function of the driver based on the information acquired in the driver state information acquisition step;
a generating step of generating a user interface for a vehicle based on an evaluation result of the cognitive function of the driver determined in the evaluating step;
A program that causes a computer to execute the following.
車両の運転のための運転操作情報を取得する運転情報取得装置と、
運転を実行する運転者に対して車両運転以外の所定の処理の実行の要求、実行の受け付け、実行結果の取得を行う別タスク実行装置と、
前記運転者に関する情報、前記運転情報取得装置による前記運転操作情報及び前記別タスク実行装置より取得される前記所定の処理の実行に関する情報の少なくとも一方から前記運転者の認知機能を評価する評価装置と、
評価された前記認知機能に基いて車両用ユーザインタフェースを生成する生成装置と、
を備え、
前記運転者の運転操作に関する情報を取得する運転情報取得ステップと、
前記運転者の運転操作中に、前記運転者へ運転操作とは異なる所定の処理を実行するように要求する別タスク要求ステップと、
前記運転者が前記所定の処理を実行中に、前記運転者の運転操作、前記所定の処理の実行及び前記運転者の状態の少なくとも一方に関する情報を取得する運転者状態情報取得ステップと、
前記運転者状態情報取得ステップにて取得した情報を基に、前記運転者の認知機能を評価する評価ステップと、
前記評価ステップにより判定された前記認知機能の評価結果に基づき、車両用ユーザインタフェースを生成する生成ステップと、
を実行する情報処理システム。

A driving information acquisition device that acquires driving operation information for driving a vehicle;
a separate task execution device that requests a driver who is driving to execute a predetermined process other than vehicle driving, accepts the execution, and acquires the execution result;
an evaluation device for evaluating a cognitive function of the driver based on at least one of information about the driver, the driving operation information obtained by the driving information acquisition device, and information about the execution of the predetermined process obtained by the separate task execution device;
a generating device for generating a user interface for a vehicle based on the evaluated cognitive functions;
Equipped with
A driving information acquisition step of acquiring information regarding the driving operation of the driver;
A separate task request step of requesting the driver to execute a predetermined process different from the driving operation during the driving operation of the driver;
a driver state information acquisition step of acquiring information regarding at least one of a driving operation of the driver, the execution of the predetermined process, and a state of the driver while the driver is executing the predetermined process;
an evaluation step of evaluating a cognitive function of the driver based on the information acquired in the driver state information acquisition step;
a generating step of generating a user interface for a vehicle based on the evaluation result of the cognitive function determined in the evaluating step;
An information processing system that executes the above.

JP2022178482A 2022-11-07 2022-11-07 Information processing method, program and information processing system Active JP7220862B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022178482A JP7220862B1 (en) 2022-11-07 2022-11-07 Information processing method, program and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022178482A JP7220862B1 (en) 2022-11-07 2022-11-07 Information processing method, program and information processing system

Publications (2)

Publication Number Publication Date
JP7220862B1 JP7220862B1 (en) 2023-02-13
JP2024068004A true JP2024068004A (en) 2024-05-17

Family

ID=85198002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022178482A Active JP7220862B1 (en) 2022-11-07 2022-11-07 Information processing method, program and information processing system

Country Status (1)

Country Link
JP (1) JP7220862B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10297318A (en) * 1997-05-01 1998-11-10 Furukawa Electric Co Ltd:The Instrument panel image selection device and method thereof
JPH1165418A (en) * 1997-08-26 1999-03-05 Tasuku Net Kk Driving simulator and driving simulation method
JP2007292908A (en) * 2006-04-24 2007-11-08 Nagoya Electric Works Co Ltd Driving ability determination apparatus, driving ability determination method and driving ability determination program
JP6755556B2 (en) * 2017-10-04 2020-09-16 株式会社Research Mind Information processing equipment, information processing methods and information processing programs
JP2021072064A (en) * 2019-11-01 2021-05-06 トヨタ自動車株式会社 Cognitive function diagnostic system

Also Published As

Publication number Publication date
JP7220862B1 (en) 2023-02-13

Similar Documents

Publication Publication Date Title
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
Kashevnik et al. Driver distraction detection methods: A literature review and framework
US9959780B2 (en) Real-time driver observation and progress monitoring
US10636301B2 (en) Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles
US20040252027A1 (en) Method and apparatus for classifying vehicle operator activity state
KR20150085009A (en) Intra-vehicular mobile device management
CN111762184B (en) Vehicle control system and vehicle
JP2018049601A (en) Vehicle provided with driver seat and at least one passenger seat, and method of providing information about driving state being currently experienced by alternate driver and/or at least one passenger
Li et al. Effects of perception of head-up display on the driving safety of experienced and inexperienced drivers
Wang et al. Effect of mapping characteristic on audiovisual warning: Evidence from a simulated driving study
JP7058800B2 (en) Display control device, display control method, and display control program
JP7220862B1 (en) Information processing method, program and information processing system
WO2020202379A1 (en) Display control device, display control method, and program
Spießl Assessment and support of error recognition in automated driving
JP2022074635A (en) Driving evaluation device, driving evaluation method, driving evaluation program, and recording medium
Torkkola et al. Detecting driver inattention in the absence of driver monitoring sensors
CN111568447A (en) Information processing apparatus, information processing method, and computer program
CN110998688A (en) Information control device
WO2024047850A1 (en) Vehicle
US20230419751A1 (en) Vehicle display device, vehicle display system, and vehicle display method
JP2024026499A (en) Information providing device, control method, and program
JP2023180909A (en) Information processing device, information processing method, and information processing program
JP2007323009A (en) Driving aptitude inspection system and driving aptitude inspection implementation apparatus for vehicle
Marberger et al. User centred HMI development in the AWAKE-project
Kivett Clarity of view: An Analytic Hierarchy Process (AHP)-based multi-factor evaluation framework for driver awareness systems in heavy vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7220862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150