JP6418342B1 - Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program - Google Patents

Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program Download PDF

Info

Publication number
JP6418342B1
JP6418342B1 JP2018019761A JP2018019761A JP6418342B1 JP 6418342 B1 JP6418342 B1 JP 6418342B1 JP 2018019761 A JP2018019761 A JP 2018019761A JP 2018019761 A JP2018019761 A JP 2018019761A JP 6418342 B1 JP6418342 B1 JP 6418342B1
Authority
JP
Japan
Prior art keywords
data
movement
unit
data processing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018019761A
Other languages
Japanese (ja)
Other versions
JP2019136166A (en
Inventor
成典 長江
成典 長江
航一 木下
航一 木下
あゆみ 竹本
あゆみ 竹本
向井 仁志
仁志 向井
倭 竹内
倭 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018019761A priority Critical patent/JP6418342B1/en
Application granted granted Critical
Publication of JP6418342B1 publication Critical patent/JP6418342B1/en
Priority to PCT/JP2019/002466 priority patent/WO2019155914A1/en
Publication of JP2019136166A publication Critical patent/JP2019136166A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Educational Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Traffic Control Systems (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】前庭動眼反射運動を取得するのに適したデータを識別可能にして、前庭動眼反射運動のモニタリング精度を高めることができるデータ処理装置を提供すること。【解決手段】人をモニタリングするためのデータ処理を行うデータ処理装置であって、前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定部と、前記人の瞳孔運動及び頭部運動を測定する測定部と、該測定部により測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定部による判定結果を示す識別情報を付与する付与部とを装備する。【選択図】図2To provide a data processing apparatus capable of identifying data suitable for acquiring a vestibular movement reflex movement and improving the monitoring accuracy of the vestibular movement reflex movement. A data processing apparatus for performing data processing for monitoring a person, wherein the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person. A state determination unit that determines whether or not there is a measurement unit that measures the pupil movement and head movement of the person, and data relating to the head movement and pupil movement of the person measured by the measurement unit, And an adding unit that provides identification information indicating a determination result by the state determination unit. [Selection] Figure 2

Description

本発明はデータ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラムに関する。   The present invention relates to a data processing device, a monitoring system, an awakening system, a data processing method, and a data processing program.

特許文献1には、頭部運動により誘発される前庭動眼反射を利用して、車両の運転者などが眠気を自覚する前の予兆を検出することを目的とする眠気予兆検出装置について開示されている。   Patent Document 1 discloses a drowsiness sign detection device that uses a vestibulo-oculomotor reflex induced by head movement to detect a sign before a vehicle driver or the like is aware of drowsiness. Yes.

特許文献1記載の眠気予兆検出装置は、頭部運動を検出する頭部運動検出手段と、眼球運動を検出する眼球運動検出手段と、前記頭部運動検出手段により検出された頭部運動データに基づいて理想眼球運動角速度を算出する理想眼球運動角速度算出手段と、前記眼球運動検出手段により検出された眼球運動データに基づいて眼球回転角速度を算出する眼球回転角速度算出手段と、理想眼球運動角速度と眼球回転角速度とから前庭動眼反射(Vestibulo−Ocular Reflex:VOR)を検出し、この前庭動眼反射に基づいて眠気の予兆を判定する眠気予兆判定手段と、を備えている。   The drowsiness sign detection device described in Patent Literature 1 includes a head movement detection unit that detects head movement, an eye movement detection unit that detects eye movement, and head movement data detected by the head movement detection unit. An ideal eye movement angular velocity calculating means for calculating an ideal eye movement angular speed based on the eye movement angular velocity calculating means for calculating an eye rotation angular speed based on the eye movement data detected by the eye movement detecting means, an ideal eye movement angular speed, Vestibulo-ocular reflex (VOR) is detected from the eyeball rotation angular velocity, and drowsiness sign determination means for determining a sign of drowsiness based on the vestibular movement reflex is provided.

[発明が解決しようとする課題]
特許文献1には、自動車運転時を模擬した実験システム、すなわちドライビングシミュレータシステムを用い、スクリーンに投影される前方車両のナンバープレート上部を注視点として固視させるなどの実験タスクを被験者に課した状態で試験を行った結果が開示されている。
[Problems to be solved by the invention]
In Patent Document 1, an experimental system that simulates driving of a vehicle, that is, a driving simulator system is used, and a test task is imposed on the subject such as fixing the upper part of the number plate of the forward vehicle projected on the screen as a point of gaze. The result of the test conducted in is disclosed.

しかしながら、前記ドライビングシミュレータシステムを用いた疑似的な実験環境は、実際の車両の走行環境とは大きく異なっている。本発明者は、実際の車両の走行環境(実車環境)で検証を行った結果、実車環境では、前庭動眼反射運動を精度良く取得することが極めて難しいことを見出した。   However, the pseudo experimental environment using the driving simulator system is greatly different from the actual driving environment of the vehicle. As a result of the verification in the actual vehicle environment (actual vehicle environment), the present inventor has found that it is extremely difficult to accurately acquire the vestibular eye movement in the actual vehicle environment.

例えば、眼球運動の中には、前庭動眼反射運動の他に、サッカード運動(衝動性眼球運動ともいう)、及び輻輳性運動などがある。実験環境では、予め定められた前記注視点を固視させるようにすればよいが、実車環境では、路面状況、車両の挙動、及び運転者の頭部や眼などの動きは一定ではなく、前庭動眼反射運動以外の眼球運動も多く発生している。   For example, eye movement includes saccade movement (also referred to as impulsive eye movement) and vergence movement in addition to vestibulo-oculomotor reflex movement. In the experimental environment, the predetermined gaze point may be fixed. However, in the actual vehicle environment, the road surface condition, the behavior of the vehicle, and the movement of the driver's head and eyes are not constant. Many eye movements other than oculomotor reflex movements occur.

また、前庭動眼反射運動は頭部運動により誘発される。前記実験環境では、ドライバーシートを振動させて、頭部運動を誘発させているが、実車環境では、必ずしも都合よく、頭部が振動する状態が発生するとは限らない。そのため、眼球運動が前庭動眼反射運動であるのかを精度良く判定することが難しいという課題があった。また、実車環境に限らず、設備等の操作環境や作業環境などの様々な現実環境においても、眼球運動が前庭動眼反射運動であるのかを精度よく判定することが難しいという課題があった。   Vestibulo-oculomotor reflex movement is induced by head movement. In the experimental environment, the driver seat is vibrated to induce head movement. However, in an actual vehicle environment, the state where the head vibrates does not always occur conveniently. Therefore, there has been a problem that it is difficult to accurately determine whether the eye movement is the vestibular movement reflex movement. In addition to the actual vehicle environment, there is a problem that it is difficult to accurately determine whether the eye movement is the vestibular movement or eye reflex movement in various real environments such as an operation environment such as equipment and a work environment.

特許第5255063号公報Japanese Patent No. 5255063

課題を解決するための手段及びその効果Means for solving the problems and their effects

本発明は上記課題に鑑みなされたものであって、現実環境下における前庭動眼反射運動のモニタリング精度を高めることができるデータ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラムを提供することを目的としている。   The present invention has been made in view of the above problems, and provides a data processing device, a monitoring system, a wakefulness system, a data processing method, and a data processing program that can improve the monitoring accuracy of the vestibulo-oculomotor reflex movement in a real environment. The purpose is to do.

上記目的を達成するために本開示に係るデータ処理装置(1)は、人をモニタリングするためのデータ処理を行うデータ処理装置であって、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定部と、
前記人の瞳孔運動及び頭部運動を測定する測定部と、
該測定部により測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定部による判定結果を示す識別情報を付与する付与部とを備えていることを特徴としている。
In order to achieve the above object, a data processing device (1) according to the present disclosure is a data processing device that performs data processing for monitoring a person,
A state determination unit that determines whether the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person;
A measurement unit for measuring pupil movement and head movement of the person;
The data processing apparatus includes an adding unit that adds identification information indicating a determination result by the state determination unit to data related to the human head movement and pupil movement measured by the measurement unit.

上記データ処理装置(1)によれば、前記付与部により付与される前記識別情報によって、前記測定部で測定された前記データが、前記前庭動眼反射運動の算出に適した前記所定の状態にあるときに測定されたデータであるかどうかを適切に識別することができる。したがって、前記識別情報に基づいて、前記所定の状態にあるときに測定された前記データを用いることで、現実環境における前庭動眼反射運動のモニタリング精度を高めることが可能となる。なお、前記データは、前記人の頭部運動及び瞳孔運動のデータでもよいし、前記人の頭部運動及び瞳孔運動のデータから算出された値(算出値)などでもよい。   According to the data processing device (1), the data measured by the measurement unit is in the predetermined state suitable for the calculation of the vestibulo-oculomotor reflex movement by the identification information given by the grant unit. Sometimes it can be properly identified whether the data is measured. Therefore, by using the data measured in the predetermined state based on the identification information, it becomes possible to improve the monitoring accuracy of the vestibulo-ocular reflex movement in the real environment. The data may be data on the person's head movement and pupil movement, or may be values (calculated values) calculated from the data on the person's head movement and pupil movement.

また本開示に係るデータ処理装置(2)は、上記データ処理装置(1)において、前記状態判定部により、前記人又は前記物の状態が前記所定の状態にはないと判定された場合に、前記人又は前記物の状態が前記所定の状態になるように介入制御を行う介入制御部を備えていることを特徴としている。   In the data processing device (2) according to the present disclosure, in the data processing device (1), when the state determination unit determines that the state of the person or the object is not in the predetermined state, An intervention control unit that performs intervention control so that the state of the person or the object becomes the predetermined state is provided.

上記データ処理装置(2)によれば、前記介入制御によって、前記人又は前記物を、前記人の前庭動眼反射運動の算出に適した状態、換言すれば、前記前庭動眼反射運動を算出するために用いる前記データのシグナルノイズ(SN)比が高くなる状態に促すことができる。したがって、現実環境下において、前記所定の状態にはないと判定された場合であっても前記前庭動眼反射運動のモニタリング精度を高めることが可能になる。また不要な前記介入制御を行う必要がなくなるので、省電力化を実現することができる。なお、前記シグナルノイズのシグナルは、前記前庭動眼反射運動による眼球運動を示し、ノイズは、前記前庭動眼反射運動以外の眼球運動(例えば、サッカード運動、輻輳性運動など)を示す。   According to the data processing device (2), by the intervention control, the person or the object is in a state suitable for the calculation of the person's vestibular movement reflex movement, in other words, the vestibule movement reflex movement is calculated. It is possible to prompt a state where the signal noise (SN) ratio of the data used in the above is increased. Therefore, even if it is determined that the predetermined state is not satisfied in the actual environment, it is possible to improve the monitoring accuracy of the vestibulo-oculomotor reflex movement. Further, since unnecessary intervention control is not required, power saving can be realized. Note that the signal noise signal indicates eye movement due to the vestibulo-ocular reflex movement, and noise indicates eye movement other than the vestibulo-ocular reflex movement (for example, saccade movement, vergence movement, etc.).

また本開示に係るデータ処理装置(3)は、上記データ処理装置(1)又は(2)において、前記データと前記識別情報とを用いて、前記前庭動眼反射運動を算出する算出部を備えていることを特徴としている。   In addition, the data processing device (3) according to the present disclosure includes a calculation unit that calculates the vestibulo-ocular reflex movement using the data and the identification information in the data processing device (1) or (2). It is characterized by being.

上記データ処理装置(3)によれば、前記算出部が、前記データと前記識別情報とを用いて、前記前庭動眼反射運動を算出するので、前記識別情報を用いて前記所定の状態のときに測定された前記データを識別し、該データを用いることにより、現実環境においても前記前庭動眼反射運動を精度良くモニタリングすることができる。   According to the data processing device (3), since the calculation unit calculates the vestibulo-ocular reflex movement using the data and the identification information, when the predetermined state is established using the identification information By identifying the measured data and using the data, the vestibulo-oculomotor reflex movement can be accurately monitored even in a real environment.

また本開示に係るデータ処理装置(4)は、上記データ処理装置(3)において、前記付与部が、前記所定の状態にある場合に測定された前記データに第1の識別情報を付与し、前記所定の状態にない場合に測定された前記データに第2の識別情報を付与するものであり、
前記算出部が、前記データのうち、前記第1の識別情報が付与された前記データを用いて、前記前庭動眼反射運動を算出するものであることを特徴としている。
Moreover, the data processing device (4) according to the present disclosure provides the first identification information to the data measured when the adding unit is in the predetermined state in the data processing device (3), Giving the second identification information to the data measured when not in the predetermined state,
The calculation unit is configured to calculate the vestibulo-ocular reflex movement using the data to which the first identification information is given among the data.

上記データ処理装置(4)によれば、前記所定の状態にある場合に測定された前記データに前記第1の識別情報が付与され、前記所定の状態でない場合に測定された前記データに前記第2の識別情報が付与される。そして、前記第1の識別情報が付与された前記データを用いて前記前庭動眼反射運動が算出されるので、前記状態判定部での判定後における前記前庭動眼反射運動のモニタリング精度を確実に高めることができる。   According to the data processing device (4), the first identification information is given to the data measured when the data is in the predetermined state, and the data measured when the data is not in the predetermined state 2 identification information is given. And since the vestibulo-ocular reflex movement is calculated using the data to which the first identification information is given, it is possible to reliably improve the monitoring accuracy of the vestibulo-ocular reflex movement after the determination by the state determination unit Can do.

また本開示に係るデータ処理装置(5)は、上記データ処理装置(2)において、前記データと前記識別情報とを用いて、前記前庭動眼反射運動を算出する算出部と、
前記介入制御部により前記介入制御が行われた後、前記測定部により測定された前記データが、前記前庭動眼反射運動の算出に適したデータであるか否かを判定するデータ判定部とを備え、
前記付与部が、前記測定部により測定された前記データのうち、前記データ判定部により前記適したデータと判定された前記データに第1の識別情報を付し、前記適したデータではないと判定された前記データに第2の識別情報を付すものであり、
前記算出部が、前記データのうち、前記第1の識別情報が付与された前記データを用いて、前記前庭動眼反射運動を算出するものであることを特徴としている。
In addition, the data processing device (5) according to the present disclosure includes a calculation unit that calculates the vestibulo-oculomotor reflex movement using the data and the identification information in the data processing device (2),
A data determination unit for determining whether the data measured by the measurement unit after the intervention control by the intervention control unit is data suitable for calculation of the vestibulo-ocular reflex movement; ,
The adding unit attaches first identification information to the data determined by the data determination unit as the suitable data among the data measured by the measurement unit, and determines that the data is not suitable data Second identification information is attached to the data that has been
The calculation unit is configured to calculate the vestibulo-ocular reflex movement using the data to which the first identification information is given among the data.

上記データ処理装置(5)によれば、前記介入制御が行われた後に測定された前記データのうち、前記適したデータであると判定された前記データに前記第1の識別情報が付与され、前記適したデータではないと判定された前記データに前記第2の識別情報が付与される。そして、前記第1の識別情報が付与された前記データを用いて前記前庭動眼反射運動が算出されるので、前記介入制御後における前記前庭動眼反射運動のモニタリング精度を確実に高めることができる。   According to the data processing device (5), the first identification information is given to the data determined to be the suitable data among the data measured after the intervention control is performed, The second identification information is given to the data determined not to be suitable data. And since the said vestibular movement reflex movement is calculated using the said data to which the said 1st identification information was provided, the monitoring precision of the said vestibular movement reflex movement after the said intervention control can be improved reliably.

また本開示に係るデータ処理装置(6)は、上記データ処理装置(3)〜(5)のいずれかにおいて、前記算出部により算出された前記前庭動眼反射運動を用いて、前記人の眠気度を判定する眠気判定部を備えていることを特徴としている。   In addition, the data processing device (6) according to the present disclosure uses any one of the data processing devices (3) to (5), and uses the vestibulo-oculomotor reflex motion calculated by the calculation unit to measure the sleepiness level of the person. It is characterized by having a drowsiness judging unit for judging

上記データ処理装置(6)によれば、前記眠気判定部により、現実環境下における前記眠気度も精度良く判定することができる。   According to the data processing device (6), the sleepiness level in the real environment can be accurately determined by the sleepiness determination unit.

また本開示に係るデータ処理装置(7)は、上記データ処理装置(6)において、前記眠気判定部により判定された前記眠気度に基づいて、前記人を覚醒させるための制御を行う覚醒制御部を備えていることを特徴としている。   In addition, the data processing device (7) according to the present disclosure includes a wake control unit that performs control for making the person wake up based on the sleepiness level determined by the sleepiness determination unit in the data processing device (6). It is characterized by having.

上記データ処理装置(7)によれば、前記覚醒制御部により、前記眠気度に応じて前記人を適切に覚醒させる制御を行うことができる。   According to the data processing device (7), the awakening control unit can perform control to appropriately awaken the person according to the sleepiness level.

また本開示に係るデータ処理装置(8)は、上記データ処理装置(1)〜(7)のいずれかにおいて、前記物が車両であり、前記人が前記車両を運転する運転者であることを特徴としている。   In the data processing device (8) according to the present disclosure, in any one of the data processing devices (1) to (7), the object is a vehicle, and the person is a driver who drives the vehicle. It is a feature.

上記データ処理装置(8)によれば、前記物が車両であり、前記人が前記車両を運転する運転者であるので、実車環境において前記運転者の前庭動眼反射運動を精度良く算出することができる。   According to the data processing device (8), since the object is a vehicle and the person is a driver who drives the vehicle, the driver's vestibulo-ocular reflex motion can be accurately calculated in an actual vehicle environment. it can.

また本開示に係るデータ処理装置(9)は、上記データ処理装置(8)において、前記状態判定部が、前記データに含まれるノイズ、前記運転者の視線方向、前記車両の走行状態、及び前記車両の進行方向に存在する物体の検出状態のうちの少なくともいずれかに基づいて、前記所定の状態にあるか否かを判定するものであることを特徴としている。   Further, in the data processing device (9) according to the present disclosure, in the data processing device (8), the state determination unit includes noise included in the data, the driver's line-of-sight direction, the driving state of the vehicle, and the It is characterized in that it is determined whether or not the vehicle is in the predetermined state based on at least one of detection states of an object existing in the traveling direction of the vehicle.

上記データ処理装置(9)によれば、前記所定の状態にあるか否かを、前記車両又は前記運転者の様々な状態に基づいて判定することができるので、実車環境における前庭動眼反射運動のモニタリング精度を高めることが可能となる。なお、前記データに含まれるノイズには、前記前庭動眼反射運動の算出を妨げる眼球や頭部の運動成分が含まれ、例えば、前記前庭動眼反射運動以外の眼球運動の成分が含まれる。   According to the data processing device (9), whether or not the vehicle is in the predetermined state can be determined based on various states of the vehicle or the driver. Monitoring accuracy can be improved. Note that the noise included in the data includes eyeball and head movement components that hinder the calculation of the vestibular eye movement, for example, eye movement components other than the vestibular movement movement.

また本開示に係るデータ処理装置(10)は、上記データ処理装置(8)において、
前記車両の加速度を取得する取得部を備え、
前記状態判定部が
前記取得部で取得された前記車両の加速度と、前記測定部により測定された前記運転者の頭部運動又は瞳孔運動とが所定の関係にある場合に、前記所定の状態にあると判定するものであることを特徴としている。
A data processing device (10) according to the present disclosure includes the data processing device (8),
An acquisition unit for acquiring the acceleration of the vehicle;
When the state determination unit has a predetermined relationship between the vehicle acceleration acquired by the acquisition unit and the driver's head movement or pupil movement measured by the measurement unit, the predetermined state is established. It is characterized by being judged to be present.

上記データ処理装置(10)によれば、前記車両の加速度の変化、換言すれば、前記車両に生じる振動に追従して、前記運転者の頭部運動又は瞳孔運動が測定された場合、前記所定の状態にあると判定することができる。実車環境において前記前庭動眼反射運動が発生しやすい状況で、前庭動眼反射運動を精度良く算出することができる。   According to the data processing device (10), when the driver's head movement or pupil movement is measured following a change in acceleration of the vehicle, in other words, vibration generated in the vehicle, the predetermined It can be determined that it is in the state. In a situation where the vestibular eye movement is likely to occur in an actual vehicle environment, the vestibular eye movement can be calculated with high accuracy.

また本開示に係るモニタリングシステム(1)は、上記データ処理装置(1)〜(10)のいずれかと、前記人を含む画像を撮像するカメラとを含み、
前記データ処理装置の前記測定部が、前記カメラから取得した前記画像を用いて、前記人の瞳孔運動及び頭部運動を測定するものであることを特徴としている。
A monitoring system (1) according to the present disclosure includes any one of the data processing devices (1) to (10) and a camera that captures an image including the person,
The measurement unit of the data processing device measures the pupil movement and head movement of the person using the image acquired from the camera.

上記モニタリングシステム(1)によれば、上記データ処理装置(1)〜(10)のいずれかと、前記カメラとを含んで構成されているので、上記データ処理装置(1)〜(10)のいずれかの効果が得られる、様々な現実環境下において導入しやすいシステムを提供することができる。   According to the monitoring system (1), since any one of the data processing devices (1) to (10) and the camera are configured, any of the data processing devices (1) to (10) is provided. Thus, it is possible to provide a system that can be easily introduced in various real environments.

また本開示に係る覚醒システムは、上記データ処理装置(7)と、該データ処理装置(7)の前記覚醒制御部により制御される覚醒装置とを含んで構成されていることを特徴としている。
上記覚醒システムによれば、前記覚醒制御部により前記覚醒装置が制御されるので、該覚醒装置により前記人を覚醒させることができる。
Moreover, the wakefulness system which concerns on this indication is comprised including the said data processing device (7) and the wakefulness device controlled by the said wakefulness control part of this data processing device (7).
According to the awakening system, since the awakening device is controlled by the awakening control unit, the person can be awakened by the awakening device.

また本開示に係るデータ処理方法は、人をモニタリングするためのデータ処理方法であって、前記人の瞳孔運動及び頭部運動を測定する測定ステップと、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定ステップと、
前記測定ステップにより測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定ステップにより判定された結果を示す識別情報を付与する付与ステップとを含むステップを実行させることを特徴としている。
Further, the data processing method according to the present disclosure is a data processing method for monitoring a person, the measuring step of measuring the pupil movement and head movement of the person,
A state determination step of determining whether or not the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person;
A step including an adding step of adding identification information indicating a result determined by the state determination step to data related to the head movement and pupil movement of the person measured by the measurement step. Yes.

上記データ処理方法によれば、前記付与ステップにより付与される前記識別情報によって、前記測定ステップで測定された前記データが、前記前庭動眼反射運動の算出に適した前記所定の状態にあるときに測定されたデータであるかどうかを適切に識別することができる。したがって、前記識別情報に基づいて、前記所定の状態にあるときに測定された前記データを用いることで、現実環境における前庭動眼反射運動のモニタリング精度を高めることが可能となる。   According to the data processing method, measurement is performed when the data measured in the measurement step is in the predetermined state suitable for the calculation of the vestibulo-ocular reflex movement by the identification information given in the grant step. It is possible to appropriately identify whether the data is processed. Therefore, by using the data measured in the predetermined state based on the identification information, it becomes possible to improve the monitoring accuracy of the vestibulo-ocular reflex movement in the real environment.

また本開示に係るデータ処理プログラムは、人をモニタリングするためのデータ処理を少なくとも1つのコンピュータに実行させるためのデータ処理プログラムであって、
前記少なくとも1つのコンピュータに、
人の瞳孔運動及び頭部運動を測定する測定ステップと、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定ステップと、
前記測定ステップにより測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定ステップにより判定された結果を示す識別情報を付与する付与ステップとを実行させることを特徴としている。
A data processing program according to the present disclosure is a data processing program for causing at least one computer to execute data processing for monitoring a person,
Said at least one computer,
A measuring step for measuring human pupil movement and head movement;
A state determination step of determining whether or not the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person;
An adding step of giving identification information indicating a result determined by the state determining step to data related to the head movement and pupil movement of the person measured by the measuring step is performed.

上記データ処理プログラムによれば、前記付与ステップにより付与される前記識別情報によって、前記測定ステップで測定された前記データが、前記前庭動眼反射運動の算出に適した前記所定の状態にあるときに測定されたデータであるかどうかを適切に識別することができる。したがって、前記識別情報に基づいて、前記所定の状態にあるときに測定された前記データを用いることで、現実環境における前庭動眼反射運動のモニタリング精度を高めることが可能なデータ処理を実現することができる。   According to the data processing program, measurement is performed when the data measured in the measurement step is in the predetermined state suitable for the calculation of the vestibulo-ocular reflex movement by the identification information given in the grant step. It is possible to appropriately identify whether the data is processed. Therefore, by using the data measured when in the predetermined state based on the identification information, it is possible to realize data processing capable of improving the monitoring accuracy of the vestibulo-ocular reflex movement in the real environment. it can.

実施の形態に係るデータ処理装置をモニタリングシステムへ適用させた例を示す概略図である。It is the schematic which shows the example which applied the data processor which concerns on embodiment to the monitoring system. 実施の形態に係るモニタリングシステムのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the monitoring system which concerns on embodiment. 実施の形態に係るデータ処理装置が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation which the data processor which concerns on embodiment performs.

以下、本発明に係るデータ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラムの実施の形態を図面に基づいて説明する。   Embodiments of a data processing device, a monitoring system, an awakening system, a data processing method, and a data processing program according to the present invention will be described below with reference to the drawings.

[適用例]
図1は、実施の形態に係るデータ処理装置をモニタリングシステムへ適用させた例を示す概略図である。
モニタリングシステム1は、車両2に搭載され、車両2の運転者3をモニタリングするためのデータ処理を行うデータ処理装置10と、運転者3の顔を含む画像を撮像するカメラ20とを含んで構成されている。
[Application example]
FIG. 1 is a schematic diagram illustrating an example in which a data processing apparatus according to an embodiment is applied to a monitoring system.
The monitoring system 1 includes a data processing device 10 that is mounted on a vehicle 2 and performs data processing for monitoring the driver 3 of the vehicle 2 and a camera 20 that captures an image including the face of the driver 3. Has been.

車両2は、自動車であるが、二輪車等の車両であってもよく、車両2の種類は特に限定されない。また、車両2は、自動運転車両であってもよい。自動運転車両は、米国自動車技術会(SAE)が提示している自動運転レベルにおけるレベル1(ドライバ支援)、レベル2(部分的自動運転)、レベル3(条件付自動運転)、レベル4(高度自動運転)、及びレベル5(完全自動運転)のうちのいずれのレベルの車両であってもよい。   The vehicle 2 is an automobile, but may be a vehicle such as a motorcycle, and the type of the vehicle 2 is not particularly limited. Further, the vehicle 2 may be an autonomous driving vehicle. Self-driving vehicles are level 1 (driver assistance), level 2 (partial automatic driving), level 3 (conditional automatic driving), level 4 (altitude) in the automatic driving levels presented by the American Automobile Engineering Association (SAE). The vehicle may be any level of (automatic driving) and level 5 (fully automatic driving).

データ処理装置10は、少なくとも1つの制御ユニット、及び記憶ユニットを含んで構成されている。前記制御ユニットは、Central Processing Unit(CPU)、Graphics processing unit(GPU)などの1つ以上のハードウェアプロセッサを含んで構成されている。前記記憶ユニットは、Random Access Memory(RAM)、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、その他の不揮発性メモリや揮発性メモリなど、半導体素子などによってデータを記憶可能な1つ以上の記憶装置で構成されている。   The data processing apparatus 10 includes at least one control unit and a storage unit. The control unit includes one or more hardware processors such as a central processing unit (CPU) and a graphics processing unit (GPU). The storage unit may be a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a semiconductor device such as a nonvolatile memory or a volatile memory. It is composed of one or more storage devices capable of storing data.

また、データ処理装置10は、車両2に搭載されている各種機器、例えば、車載センサ30、始動スイッチ40、ナビゲーション装置50、電子制御ユニット(ECU:Electronic Control Unit)60又は振動装置70などに接続可能に構成されている。データ処理装置10は、車載センサ30で検出された各種の検出データ、始動スイッチ40のオン、オフ信号などを取得でき、また、ナビゲーション装置50、電子制御ユニット60又は振動装置70などに対して、所定の制御信号などを出力できるようになっている。
また、ナビゲーション装置50、電子制御ユニット60又は振動装置70では、データ処理装置10から取得した所定の制御信号に基づいて、所定の制御動作が実行されるようになっている。
Further, the data processing device 10 is connected to various devices mounted on the vehicle 2, such as an in-vehicle sensor 30, a start switch 40, a navigation device 50, an electronic control unit (ECU) 60, or a vibration device 70. It is configured to be possible. The data processing device 10 can acquire various detection data detected by the in-vehicle sensor 30, an ON / OFF signal of the start switch 40, and the navigation device 50, the electronic control unit 60, the vibration device 70, etc. A predetermined control signal or the like can be output.
In the navigation device 50, the electronic control unit 60, or the vibration device 70, a predetermined control operation is executed based on a predetermined control signal acquired from the data processing device 10.

電子制御ユニット60には、車両2の駆動部、制動部、操舵部、又はサスペンション部などの各部を制御する1つ以上の電子制御ユニットが含まれている。データ処理装置10は、ナビゲーション装置50、電子制御ユニット60又は振動装置70と、例えば、CAN(Controller Area Network)などの車載ネットワークで相互に通信可能な構成としてもよい。   The electronic control unit 60 includes one or more electronic control units that control each part of the vehicle 2 such as a driving unit, a braking unit, a steering unit, or a suspension unit. The data processing device 10 may be configured to be able to communicate with the navigation device 50, the electronic control unit 60, or the vibration device 70 via an in-vehicle network such as a CAN (Controller Area Network).

振動装置70は、例えば、運転者3の座席シートの下部、背部、又はヘッドレストなどに1つ以上配設され、運転者3の上体又は頭部を上下、前後、又は左右の方向、或いはヨー又はピッチ方向などに所定の周期で連続的又は断続的に振動させることが可能な装置である。   One or more vibration devices 70 are disposed, for example, on the lower portion, back portion, or headrest of the driver's 3 seat, and the upper body or head of the driver 3 is moved up and down, front and rear, left and right, or yaw. Or it is an apparatus which can be vibrated continuously or intermittently with a predetermined period in the pitch direction or the like.

背景技術の欄に記載したように、実車環境では、路面状況、車両の挙動、及び運転者の頭部や眼の動きなどは一定ではない。そのため、運転者の瞳孔運動及び頭部運動を示すデータに、前庭動眼反射運動とは異なる運動成分、例えば、サッカード運動や輻輳性運動などの成分(ノイズ成分)が多く含まれる。その結果、前庭動眼反射運動を検出するためのデータのシグナルノイズ(SN)比が悪くなりやすく、運転者の前庭動眼反射運動を精度良く検出することが難しかった。なお、前庭動眼反射運動とは、人の頭部運動により誘発される眼球運動であり、頭部の動きの反対方向へ眼球を動かすことで、網膜像のブレを抑制する不随意的眼球運動である。   As described in the Background Art section, in an actual vehicle environment, the road surface condition, the behavior of the vehicle, and the movement of the driver's head and eyes are not constant. Therefore, data indicating the driver's pupil movement and head movement includes many movement components different from the vestibulo-ocular reflex movement, for example, components (noise components) such as saccade movement and convergence movement. As a result, the signal noise (SN) ratio of the data for detecting the vestibulo-ocular reflex movement is likely to deteriorate, and it is difficult to accurately detect the driver's vestibulo-ocular reflex movement. The vestibular eye movement is an involuntary eye movement that suppresses blurring of the retinal image by moving the eyeball in the opposite direction of the head movement. is there.

係る課題を解決すべく、本実施の形態に係るデータ処理装置10は、前記SN比が良い状態のデータを識別できるように、運転者3又は車両2の状態が、運転者3の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定し、カメラ20で撮像された画像を解析して、運転者3の瞳孔運動及び頭部運動を測定し、該測定された運転者3の瞳孔運動及び頭部運動に係るデータに、前記判定の結果を示す識別情報を付与する処理を行う。   In order to solve the problem, the data processing apparatus 10 according to the present embodiment is configured so that the driver 3 or the vehicle 2 is in the vestibular eye movement reflection of the driver 3 so that the data with the good SN ratio can be identified. It is determined whether or not the vehicle is in a predetermined state suitable for calculation of motion, the image captured by the camera 20 is analyzed, the pupil motion and head motion of the driver 3 are measured, and the measured driver The process which provides the identification information which shows the result of the said determination to the data concerning 3 pupil movements and head movements is performed.

前記識別情報が付与される運転者3の瞳孔運動及び頭部運動に係るデータは、運転者3の頭部運動及び瞳孔運動のデータでもよいし、運転者3の頭部運動及び瞳孔運動のデータから算出された値(算出値)などでもよい。例えば、頭部運動及び瞳孔運動の相関関係を示す係数などの算出値に前記識別情報を付与する構成としてもよい。   The data related to the pupil movement and the head movement of the driver 3 to which the identification information is given may be the data of the head movement and the pupil movement of the driver 3, or the data of the head movement and the pupil movement of the driver 3. The value calculated from (a calculated value) may be used. For example, the identification information may be added to a calculated value such as a coefficient indicating the correlation between head movement and pupil movement.

また、前記所定の状態には、運転者3の頭部が振動しやすい状態、換言すれば、前庭動眼反射運動のシグナル成分、特に変位量が大きくなる状態が含まれる。より具体的には、運転者3の頭部が上下、左右又は前後方向、或いはヨー又はピッチ方向に、変位又は振動しやすい状態などが含まれる。   The predetermined state includes a state in which the head of the driver 3 is likely to vibrate, in other words, a state in which the signal component of the vestibulo-oculomotor reflex movement, in particular, the amount of displacement increases. More specifically, a state in which the head of the driver 3 is likely to be displaced or vibrated in the up and down, left and right, front and rear directions, or the yaw or pitch direction is included.

さらに、前記所定の状態には、前庭動眼反射運動以外の眼球運動、例えば、サッカード運動や輻輳性運動などが生じにくい状態、換言すれば、前庭動眼反射運動のノイズ成分が小さくなる状態が含まれてもよい。より具体的には、車両2が直線道路を走行している状態、又は運転者3が特定の箇所を注視している状態などが含まれてもよい。   Furthermore, the predetermined state includes a state in which eye movements other than the vestibular oculomotor reflex movement, for example, a saccade movement or a vergence movement are less likely to occur, in other words, a state in which the noise component of the vestibular oculomotor reflex movement is reduced May be. More specifically, a state where the vehicle 2 is traveling on a straight road or a state where the driver 3 is gazing at a specific location may be included.

そして、データ処理装置10は、前記識別情報を用いて、前記所定の状態にあるときに測定された前記データと、前記所定の状態でないときに測定された前記データとを識別して、前庭動眼反射運動を算出する。これら処理により、実車環境における前庭動眼反射運動のモニタリング精度が高められるようになっている。   Then, the data processing device 10 uses the identification information to identify the data measured when in the predetermined state and the data measured when not in the predetermined state, Calculate reflex motion. Through these processes, the monitoring accuracy of the vestibulo-oculomotor reflex movement in an actual vehicle environment is improved.

[構成例]
図2は、実施の形態に係るモニタリングシステム1のハードウェア構成の一例を示すブロック図である。
データ処理装置10は、データ取得部11、及び制御ユニット12、記憶ユニット13を含んで構成されている。
[Configuration example]
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the monitoring system 1 according to the embodiment.
The data processing apparatus 10 includes a data acquisition unit 11, a control unit 12, and a storage unit 13.

データ取得部11は、カメラ20の他、車載センサ30、始動スイッチ40、ナビゲーション装置50、電子制御ユニット60、及び振動装置70などに接続され、これら装置との間で各種の信号やデータなどの授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。   The data acquisition unit 11 is connected to the in-vehicle sensor 30, the start switch 40, the navigation device 50, the electronic control unit 60, the vibration device 70, and the like in addition to the camera 20, and various signals and data are exchanged with these devices. It is configured to include an interface circuit, a connection connector, etc. for performing exchanges.

制御ユニット12は、状態判定部12a、測定部12b、付与部12c、介入制御部12d、データ判定部12e、算出部12f、眠気判定部12g、及び覚醒制御部12hを含んで構成されている。記憶ユニット13は、画像記憶部13a、取得データ記憶部13b、測定データ記憶部13c、及びプログラム記憶部13dを含んで構成されている。   The control unit 12 includes a state determination unit 12a, a measurement unit 12b, a grant unit 12c, an intervention control unit 12d, a data determination unit 12e, a calculation unit 12f, a drowsiness determination unit 12g, and a wakefulness control unit 12h. The storage unit 13 includes an image storage unit 13a, an acquisition data storage unit 13b, a measurement data storage unit 13c, and a program storage unit 13d.

画像記憶部13aには、カメラ20から取得した運転者の画像データが記憶される。取得データ記憶部13bには、車載センサ30、ナビゲーション装置50、又は電子制御ユニット60などから取得したデータが記憶される。測定データ記憶部13cには、測定部12bで測定された、運転者の瞳孔運動及び頭部運動を示すデータが、画像記憶部13aに記憶される各画像と紐付けて記憶される。プログラム記憶部13dには、制御ユニット12の各部で実行されるデータ処理のプログラム、及び該プログラムの実行や判定処理に必要なデータなどが記憶されている。   The image storage unit 13 a stores driver image data acquired from the camera 20. Data acquired from the in-vehicle sensor 30, the navigation device 50, the electronic control unit 60, or the like is stored in the acquired data storage unit 13b. In the measurement data storage unit 13c, data indicating the driver's pupil movement and head movement measured by the measurement unit 12b is stored in association with each image stored in the image storage unit 13a. The program storage unit 13d stores a data processing program executed by each unit of the control unit 12, data necessary for execution and determination processing of the program, and the like.

制御ユニット12は、記憶ユニット13に画像データ、測定データなどを記憶する処理を行い、また、記憶ユニット13に記憶されたプログラムやデータなどを読み出し、これらプログラムを実行する。制御ユニット12が、記憶ユニット13と協働して、これらプログラムを実行することにより、状態判定部12a、測定部12b、付与部12c、介入制御部12d、算出部12f、データ判定部12e、眠気判定部12g、及び覚醒制御部12hの各部の動作が実現される。   The control unit 12 performs processing for storing image data, measurement data, and the like in the storage unit 13, reads programs and data stored in the storage unit 13, and executes these programs. When the control unit 12 executes these programs in cooperation with the storage unit 13, the state determination unit 12a, the measurement unit 12b, the provision unit 12c, the intervention control unit 12d, the calculation unit 12f, the data determination unit 12e, the sleepiness Operation | movement of each part of the determination part 12g and the arousal control part 12h is implement | achieved.

カメラ20は、運転者3の顔を含む画像を撮像する装置であり、例えば、図示しないレンズ部、撮像素子部、光照射部、これら各部を制御する制御部などを含んで構成されている。前記撮像素子部は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成されている。   The camera 20 is a device that captures an image including the face of the driver 3 and includes, for example, a lens unit, an image sensor unit, a light irradiation unit, and a control unit that controls these units (not shown). The image sensor section includes, for example, an image sensor such as a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS), a filter, a microlens, and the like.

前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、紫外線又は赤外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んで構成されてもよい。   The image pickup element section includes an infrared sensor such as a CCD, a CMOS, or a photodiode that can form a picked-up image by receiving ultraviolet or infrared light, in addition to those that can form a picked-up image by receiving light in the visible region. May be.

前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。前記制御部は、例えば、CPU、メモリ、画像処理回路などを含んで構成されている。   The light irradiation unit includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED or the like may be used so that the state of the driver can be imaged regardless of day or night. The control unit includes, for example, a CPU, a memory, an image processing circuit, and the like.

前記制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。カメラ20は所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、カメラ20で撮像された画像データがデータ処理装置10に出力される。   The control unit controls the imaging element unit and the light irradiation unit, emits light (for example, near infrared rays) from the light irradiation unit, and controls the imaging element unit to capture the reflected light. Do. The camera 20 captures an image at a predetermined frame rate (for example, 30 to 60 frames per second), and the image data captured by the camera 20 is output to the data processing device 10.

カメラ20は、1台で構成されているが、2台以上で構成してもよい。また、カメラ20は、データ処理装置10と別体(別筐体)で構成してもよいし、データ処理装置10と一体(同一筐体)で構成してもよい。また、カメラ20は、単眼カメラでもよいし、ステレオカメラであってもよい。   Although the camera 20 is composed of one unit, it may be composed of two or more units. The camera 20 may be configured separately from the data processing device 10 (separate housing), or may be configured integrally with the data processing device 10 (same housing). The camera 20 may be a monocular camera or a stereo camera.

カメラ20の車室内での設置位置は、少なくとも運転者3の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ステアリング部分、ステアリングコラム部分、メーターパネル部分、ルームミラー近傍位置、Aピラー部分、又はナビゲーション装置50などに設置してもよい。また、カメラ20の仕様(画角や画素数(縦×横)など)及び位置姿勢(取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がカメラ20又はデータ処理装置10に記憶されてもよい。   The installation position of the camera 20 in the vehicle interior is not particularly limited as long as it can capture at least the field of view including the face of the driver 3. For example, in addition to the vicinity of the center of the dashboard of the vehicle 2, it may be installed in a steering part, a steering column part, a meter panel part, a position in the vicinity of a rearview mirror, an A pillar part, or a navigation device 50. Information including the specifications of the camera 20 (view angle, number of pixels (vertical x horizontal), etc.) and position and orientation (mounting angle, distance from a predetermined origin (center position of handle, etc.), etc.) 10 may be stored.

車載センサ30には、車外センサ31、加速度センサ32、ジャイロセンサ33、及び操舵センサ34などが含まれているが、これら以外のセンサを含んでもよい。   The in-vehicle sensor 30 includes an out-of-vehicle sensor 31, an acceleration sensor 32, a gyro sensor 33, a steering sensor 34, and the like, but may include other sensors.

車外センサ31は、車両2の周辺に存在する対象物を検出するセンサである。前記対象物には、他車両、自転車、人などの移動物体の他、白線など路面標示、ガードレール、中央分離帯、その他、車両2の走行に影響を与える構造物などが含まれてもよい。車外センサ31は、前方監視カメラ、後方監視カメラ、レーダ(Radar)、ライダー、即ちLight Detection and Ranging、又は、Laser Imaging Detection and Ranging(LIDAR)、及び超音波センサのうち少なくとも1つを含んで構成されている。車外センサ31で検出された対象物の検出データがデータ処理装置10に出力される他、電子制御ユニット60に出力されてもよい。
前記前方監視カメラや後方監視カメラには、ステレオカメラや単眼カメラなどが採用され得る。前記レーダは、ミリ波等の電波を車両周囲に送信し、車両周囲に存在する対象物で反射された電波を受信することで対象物の位置、方向、距離などを検出する。前記ライダーは、レーザー光を車両周囲に送信し、車両周囲に存在する対象物で反射された光を受信することで対象物の位置、方向、距離などを検出する。
The vehicle exterior sensor 31 is a sensor that detects an object existing around the vehicle 2. In addition to moving objects such as other vehicles, bicycles, and people, the object may include road markings such as white lines, guardrails, median strips, and other structures that affect the traveling of the vehicle 2. The vehicle exterior sensor 31 includes at least one of a front monitoring camera, a rear monitoring camera, a radar (Radar), a rider, that is, Light Detection and Ranging, Laser Imaging Detection and Ranging (LIDAR), and an ultrasonic sensor. Has been. The detection data of the object detected by the outside sensor 31 may be output to the electronic control unit 60 in addition to being output to the data processing device 10.
As the front monitoring camera and the rear monitoring camera, a stereo camera, a monocular camera, or the like can be adopted. The radar detects a position, a direction, a distance, and the like of an object by transmitting radio waves such as millimeter waves around the vehicle and receiving radio waves reflected by the object existing around the vehicle. The rider detects the position, direction, distance, and the like of the object by transmitting laser light around the vehicle and receiving light reflected by the object present around the vehicle.

加速度センサ32は、車両2の加速度を検出するセンサであり、XYZ軸の3方向の加速度を検出する3軸加速度センサを用いてもよいし、2軸、1軸の加速度センサを用いてもよい。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いてもよい。加速度センサ32で検出された加速度データが、データ処理装置10に出力される他、ナビゲーション装置50又は電子制御ユニット60に出力されてもよい。   The acceleration sensor 32 is a sensor that detects the acceleration of the vehicle 2, and a triaxial acceleration sensor that detects acceleration in three directions of the XYZ axes may be used, or a biaxial, uniaxial acceleration sensor may be used. . As the triaxial acceleration sensor, a semiconductor type acceleration sensor such as a piezoresistive type in addition to the capacitance type may be used. The acceleration data detected by the acceleration sensor 32 may be output to the navigation device 50 or the electronic control unit 60 in addition to being output to the data processing device 10.

ジャイロセンサ33は、車両2の回転角速度(例えば、ヨーレート)を検出する角速度センサである。ジャイロセンサ33で検出された回転角速度の信号がデータ処理装置10に出力される他、ナビゲーション装置50又は電子制御ユニット60に出力されてもよい。   The gyro sensor 33 is an angular velocity sensor that detects a rotational angular velocity (for example, a yaw rate) of the vehicle 2. The rotational angular velocity signal detected by the gyro sensor 33 may be output to the data processing device 10 or may be output to the navigation device 50 or the electronic control unit 60.

操舵センサ34は、車両2のステアリングに対する操舵量を検出するセンサであり、例えば、車両2のステアリングシャフトに設けられ、運転者3によりステアリングに与えられる操舵トルク又はステアリングの操舵角を検出する。操舵センサ43で検出された、運転者3のステアリング操作に応じた信号が、データ処理装置10に出力される他、電子制御ユニット60に出力されてもよい。   The steering sensor 34 is a sensor that detects a steering amount with respect to the steering of the vehicle 2. For example, the steering sensor 34 is provided on a steering shaft of the vehicle 2 and detects a steering torque or steering angle given to the steering by the driver 3. A signal detected by the steering sensor 43 according to the steering operation of the driver 3 may be output to the electronic control unit 60 in addition to being output to the data processing device 10.

ナビゲーション装置50は、図示しない制御部、表示部、音声出力部、操作部、地図データ記憶部、GPS受信部などを含んで構成されている。ナビゲーション装置50は、GPS受信部などで計測された車両2の位置情報と地図データ記憶部の地図情報とに基づいて、車両2が走行する道路や車線を割り出し、車両2の現在位置から目的地までの経路などを演算し、該経路を表示部(図示せず)へ表示し、音声出力部(図示せず)から経路案内などの音声出力を行う。ナビゲーション装置50で求められた、車両2の位置情報、走行道路の情報、又は走行予定経路の情報などがデータ処理装置10へ出力される構成としてもよい。   The navigation device 50 includes a control unit, a display unit, a voice output unit, an operation unit, a map data storage unit, a GPS reception unit, and the like (not shown). The navigation device 50 determines the road or lane on which the vehicle 2 travels based on the position information of the vehicle 2 measured by the GPS receiver and the map information in the map data storage unit, and determines the destination from the current position of the vehicle 2. The route is calculated on the display unit (not shown), and voice output such as route guidance is output from the voice output unit (not shown). The configuration may be such that the position information of the vehicle 2, the information on the traveling road, the information on the planned traveling route, and the like obtained by the navigation device 50 are output to the data processing device 10.

覚醒装置80は、データ処理装置10の覚醒制御部12hにより制御される装置であり、覚醒制御部12hからの制御信号に基づいて、運転者3を覚醒させるための動作を実行する。覚醒装置80は、例えば、音又は光などで運転者3に警告を発する警報装置、冷風、温風、又は香気成分や臭気成分を含む気体などを運転者3に吹き付ける空調装置、ステアリングやシートベルトなどを振動させる振動装置などで構成することができる。   The awakening device 80 is a device controlled by the awakening control unit 12h of the data processing device 10, and executes an operation for waking up the driver 3 based on a control signal from the awakening control unit 12h. The awakening device 80 is, for example, an alarm device that issues a warning to the driver 3 by sound or light, an air conditioner that blows cold air, hot air, or gas containing an odor component or odor component, etc. to the driver 3, a steering, or a seat belt. It can be configured with a vibration device or the like that vibrates.

次にデータ処理装置10の各部の構成について説明する。
データ取得部11で取得したカメラ20の画像データが、画像記憶部13aに記憶される。また、データ取得部11で取得した車載センサ30、ナビゲーション装置50、又は電子制御ユニット60のデータが、取得データ記憶部13bに記憶される。
状態判定部12aは、画像記憶部13a又は取得データ記憶部13bから状態判定に用いるデータを読み出し、読み出したデータを用いて、運転者3又は車両2の状態が、前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する処理を行う。
前記所定の状態には、運転者3の頭部が振動しやすい状態、換言すれば、前庭動眼反射運動のシグナル成分、特に変位量が大きくなる状態が含まれる。より具体的には、運転者3の頭部が上下、左右又は前後方向、或いはヨー又はピッチ方向に、変位又は振動しやすい状態などが含まれる。
Next, the configuration of each unit of the data processing apparatus 10 will be described.
The image data of the camera 20 acquired by the data acquisition unit 11 is stored in the image storage unit 13a. Moreover, the data of the vehicle-mounted sensor 30, the navigation device 50, or the electronic control unit 60 acquired by the data acquisition unit 11 is stored in the acquisition data storage unit 13b.
The state determination unit 12a reads data used for state determination from the image storage unit 13a or the acquired data storage unit 13b, and using the read data, the state of the driver 3 or the vehicle 2 is suitable for calculating the vestibulo-oculomotor reflex movement. A process for determining whether or not the predetermined state is present is performed.
The predetermined state includes a state in which the head of the driver 3 is likely to vibrate, in other words, a state in which the signal component of the vestibulo-ocular reflex movement, in particular, the amount of displacement increases. More specifically, a state in which the head of the driver 3 is likely to be displaced or vibrated in the up and down, left and right, front and rear directions, or the yaw or pitch direction is included.

また、前記所定の状態には、前庭動眼反射運動以外の眼球運動(例えば、サッカード運動や輻輳性運動など)が生じにくい状態、換言すれば、前庭動眼反射運動のノイズ成分が小さくなる状態が含まれる。より具体的には、車両2が直線道路を走行している状態、又は運転者3が特定の箇所を注視している状態などが含まれる。   In addition, the predetermined state includes a state in which eye movements other than the vestibulo-ocular reflex movement (for example, saccade movement, vergence movement) are unlikely to occur, in other words, a state in which the noise component of the vestibulo-ocular reflex movement is reduced. included. More specifically, a state where the vehicle 2 is traveling on a straight road or a state where the driver 3 is gazing at a specific location is included.

状態判定部12aで、前記所定の状態にあると判定された場合、前記所定の状態にあることを示す第1の判定信号が測定部12bに出力される。一方、状態判定部12aで、前記所定の状態にないと判定された場合、前記所定の状態にないことを示す第2の判定信号が介入制御部12dに出力される。   When the state determination unit 12a determines that the state is the predetermined state, a first determination signal indicating that the state is the predetermined state is output to the measurement unit 12b. On the other hand, when the state determination unit 12a determines that the predetermined state is not reached, a second determination signal indicating that the state is not in the predetermined state is output to the intervention control unit 12d.

測定部12bは、状態判定部12aから前記第1の判定信号を取得した場合に、カメラ20で撮像された画像から運転者3の瞳孔運動及び頭部運動を測定する処理を行う。当該測定処理は、例えば、画像のフレーム毎に実行されるが、所定のフレーム間隔毎に実行されるようにしてもよい。その後、測定部12bは、付与部12cに、識別情報の付与を指示する信号(付与指示信号)を出力する。   When the measurement unit 12b acquires the first determination signal from the state determination unit 12a, the measurement unit 12b performs a process of measuring the pupil movement and head movement of the driver 3 from the image captured by the camera 20. For example, the measurement process is performed for each frame of the image, but may be performed at predetermined frame intervals. Thereafter, the measuring unit 12b outputs a signal (giving instruction signal) instructing to give identification information to the giving unit 12c.

また、測定部12bは、介入制御部12dから介入実行信号を取得した場合においても運転者3の瞳孔運動及び頭部運動を測定する処理を行う。この場合、測定部12bは、データ判定部12eに対し、測定データが、前庭動眼反射運動の算出に適したデータであるか否かの判定を指示する信号(判定指示信号)を出力する。   Moreover, the measurement part 12b performs the process which measures the driver | operator's 3 pupil movement and head movement, even when the intervention execution signal is acquired from the intervention control part 12d. In this case, the measurement unit 12b outputs a signal (determination instruction signal) that instructs the data determination unit 12e to determine whether the measurement data is data suitable for calculating the vestibulo-oculomotor movement.

測定部12bが行う瞳孔運動の測定処理の一例を説明する。
測定部12bは、まず、テンプレートマッチングによりカメラ20で撮像された画像から運転者3の顔(顔領域)を検出する。顔領域の検出は、予め用意された顔のテンプレート画像を用いてよい。次に、測定部12bは、前記画像から検出された運転者3の顔領域に対して、テンプレートマッチングにより前記顔領域から瞳孔の位置を検出する。前記瞳孔の位置の検出は、予め用意された瞳孔のテンプレート画像を用いてよい。そして、測定部12bは、前記画像のフレーム毎に瞳孔の位置を検出し、これらフレーム毎の瞳孔の位置変化(移動量)から瞳孔運動を測定する。
An example of pupil movement measurement processing performed by the measurement unit 12b will be described.
First, the measurement unit 12b detects the face (face area) of the driver 3 from an image captured by the camera 20 by template matching. The face area may be detected using a face template image prepared in advance. Next, the measurement unit 12b detects the position of the pupil from the face region by template matching for the face region of the driver 3 detected from the image. The pupil position may be detected using a pupil template image prepared in advance. Then, the measuring unit 12b detects the position of the pupil for each frame of the image, and measures the pupil movement from the position change (movement amount) of the pupil for each frame.

次に測定部12bが行う頭部運動の測定処理の一例を説明する。
測定部12bは、まず、テンプレートマッチングによりカメラ20で撮像された画像から運転者3の顔(顔領域)を抽出する。前記顔領域の検出は、予め用意された顔のテンプレート画像を用いてよい。また、前記瞳孔運動を測定する処理で検出された運転者3の顔領域のデータを用いてもよい。
Next, an example of the head movement measurement process performed by the measurement unit 12b will be described.
First, the measurement unit 12b extracts the face (face area) of the driver 3 from an image captured by the camera 20 by template matching. The face area may be detected using a face template image prepared in advance. Moreover, you may use the data of the driver | operator's 3 face area detected by the process which measures the said pupil movement.

次に、測定部12bは、前記画像から検出された運転者3の顔領域に対して、テンプレートマッチングにより前記顔領域から眼の位置を検出する。前記眼の位置の検出は、予め用意された眼のテンプレート画像を用いてよい。眼のテンプレート画像には、目尻と目頭の位置を示す座標が予め紐付けられている。前記目尻と目頭の座標から画像中における運転者3の目尻と目頭の位置を検出することが可能となっている。目尻と目頭の位置は、瞬きなどの眼の開閉動作によっては移動しないため、目尻と目頭の位置変化は頭部運動により動いたものと推定できる。
そして、測定部12bは、前記画像のフレーム毎に運転者3の目尻と目頭の位置を検出し、これらフレーム毎の目尻と目頭の位置変化(移動量)から頭部運動を測定する。
Next, the measurement unit 12b detects the position of the eye from the face region by template matching for the face region of the driver 3 detected from the image. The eye position may be detected by using an eye template image prepared in advance. Coordinates indicating the positions of the corners of the eyes and the eyes are linked in advance to the eye template image. From the coordinates of the corners of the eyes and the eyes, the positions of the eyes and the eyes of the driver 3 in the image can be detected. Since the positions of the corners of the eyes and the eyes do not move depending on the opening / closing operation of the eyes such as blinking, it can be estimated that the position changes of the corners of the eyes and the eyes are moved by the head movement.
Then, the measurement unit 12b detects the positions of the corners of the eyes and the eyes of the driver 3 for each frame of the image, and measures the head movement from the positional changes (movement amounts) of the corners of the eyes and the eyes for each frame.

なお、画像から運転者3の目尻と目頭の位置を検出する場合に、二次元の画像データを用いる他、三次元の位置情報を含む距離画像データと組み合わせて検出してもよい。
前記距離画像データを取得するために、例えば、モニタリングシステム1に三次元画像計測部を装備してもよい。該三次元画像計測部は、撮像された画像の各画素に対象物までの距離の値(奥行きに関する情報)を持たせた三次元画像(距離画像)を取得するものである。前記三次元画像計測部は、例えば、ステレオ法などの受動型計測部であってもよいし、光レーダやパターン光などの光を投影する方式の能動型計測部であってもよい。
In addition, when detecting the position of the driver | operator's 3 eye | corner and eye corner from an image, you may detect in combination with the distance image data containing three-dimensional position information other than using two-dimensional image data.
In order to acquire the distance image data, for example, the monitoring system 1 may be equipped with a three-dimensional image measurement unit. The three-dimensional image measurement unit acquires a three-dimensional image (distance image) in which each pixel of a captured image has a value of distance to the target (information on depth). The three-dimensional image measurement unit may be a passive measurement unit such as a stereo method, or may be an active measurement unit that projects light such as an optical radar or pattern light.

二次元画像と距離画像とを組み合わせることによって、運転者3の目尻と目頭の位置の変化が、頭部の平行運動(上下、又は左右方向の運動)によるものであるのか、又は回転運動(ヨー又はピッチ方向の運動)によるものであるのかを精度よく検出することが可能になる。この構成により、瞳孔運動及び頭部運動をより正確に測定することが可能となり、前庭動眼反射運動のモニタリング精度をより高めることができる。   By combining the two-dimensional image and the distance image, the change in the position of the driver's eye corner and the eye is due to the parallel movement of the head (movement in the vertical or horizontal direction), or rotational movement (yaw) Or movement in the pitch direction) can be accurately detected. With this configuration, it becomes possible to measure the pupil movement and the head movement more accurately, and the monitoring accuracy of the vestibulo-ocular reflex movement can be further increased.

また、運転者3の瞳孔運動及び頭部運動の測定処理は、上記した方法に限定されるものではなく、公知の各種手法を採用することもできる。例えば、国際公開第2006/051607号パンフレット、特開2007−249280号公報に開示されているように、画像のフレーム毎に顔の各器官の特徴点を検出し、顔の各器官の特徴点の位置から顔の向きを求め、これらフレーム毎の顔の向きの変化(移動量)から頭部運動を測定するようにしてもよい。   Moreover, the measurement process of the pupil movement and the head movement of the driver 3 is not limited to the above-described method, and various known methods can be employed. For example, as disclosed in International Publication No. 2006/051607 pamphlet and Japanese Patent Application Laid-Open No. 2007-249280, feature points of facial organs are detected for each frame of an image, and feature points of facial organs are detected. The face orientation may be obtained from the position, and the head movement may be measured from the change (movement amount) of the face orientation for each frame.

付与部12cは、測定部12bから前記付与指示信号を取得した場合、測定部12bで測定された運転者3の頭部運動及び瞳孔運動に係るデータに、状態判定部12aによる判定結果を示す識別情報を付与する処理を行う。この場合、前記所定の状態にある(算出適)という判定結果を識別するためのラベル(第1のラベル)が付与される。その後、付与部12cは、運転者3の頭部運動及び瞳孔運動に係るデータと識別情報(第1のラベル)とを紐付けた状態で測定データ記憶部13cに記憶する処理を行うとともに、算出部12fに前庭動眼反射運動の算出を指示する信号(算出指示信号)を出力する。   When the provision unit 12c acquires the provision instruction signal from the measurement unit 12b, the identification unit 12c identifies the result of determination by the state determination unit 12a in the data related to the head movement and pupil movement of the driver 3 measured by the measurement unit 12b. A process of giving information is performed. In this case, a label (first label) for identifying the determination result that is in the predetermined state (appropriate for calculation) is given. Thereafter, the assigning unit 12c performs a process of storing the measurement data storage unit 13c in a state in which the data related to the head movement and pupil movement of the driver 3 and the identification information (first label) are associated with each other. A signal (calculation instruction signal) for instructing the calculation of the vestibulo-ocular reflex movement is output to the unit 12f.

この場合の前記識別情報は、状態判定部12aによる判定結果、例えば、前庭動眼反射運動の算出に適した所定の状態にある場合と、該所定の状態にない場合とをコンピュータ上で識別するために付与される情報であれば、その形態は特に限定されない。   The identification information in this case is for identifying on the computer the determination result by the state determination unit 12a, for example, a case where the state is in a predetermined state suitable for the calculation of the vestibulo-oculomotor reflex movement and a case where the state is not in the predetermined state. The form is not particularly limited as long as it is the information given to.

また、前記識別情報は、前記所定の状態に応じて重み付けされた重み係数などの情報であってもよい。係る構成によれば、前記所定の状態を前記重み付けによって細かく識別することが可能となる。そして、前記重み付けを加味して前庭動眼反射運動を算出することにより、測定部12bで測定されたデータの一部だけ(前記所定の状態にある場合のデータだけ)ではなく全てのデータを用いて、実車環境に対応した前庭動眼反射運動をモニタリングすることが可能となる。   The identification information may be information such as a weighting coefficient weighted according to the predetermined state. According to such a configuration, the predetermined state can be finely identified by the weighting. Then, by calculating the vestibulo-ocular reflex movement in consideration of the weighting, not only a part of the data measured by the measuring unit 12b (only the data in the predetermined state) but all the data is used. It becomes possible to monitor the vestibulo-oculomotor reflex movement corresponding to the actual vehicle environment.

また、付与部12cは、介入制御部12dにより所定の介入制御が行われた後、測定部12bで測定された運転者3の頭部運動及び瞳孔運動のデータに、データ判定部12eによる判定結果を示す識別情報、例えば判定結果を識別するためのラベルを付与する処理を行う。   Further, after the predetermined intervention control is performed by the intervention control unit 12d, the provision unit 12c adds the determination result by the data determination unit 12e to the data of the head movement and the pupil movement of the driver 3 measured by the measurement unit 12b. For example, a process of assigning a label for identifying the determination result.

より具体的に説明すると、付与部12cは、データ判定部12eから第1の付与指示信号を取得した場合、データ判定部12eで判定した頭部運動及び瞳孔運動のデータに、前庭動眼反射運動の算出に適していることを示す第1のラベルを付与する処理を行う。その後、付与部12cは、運転者3の頭部運動及び瞳孔運動に係るデータと第1のラベルとを紐付けた状態で測定データ記憶部13cに記憶する処理を行うとともに、算出部12fに前庭動眼反射運動の算出を指示する信号(算出指示信号)を出力する。   More specifically, when the first assigning instruction signal is acquired from the data determining unit 12e, the applying unit 12c adds the head movement and pupil movement data determined by the data determining unit 12e to the vestibulo-oculomotor reflex movement. A process of assigning a first label indicating that it is suitable for calculation is performed. Thereafter, the assigning unit 12c performs a process of storing the data related to the head movement and pupil movement of the driver 3 and the first label in a state of being associated with each other in the measurement data storage unit 13c. A signal (calculation instruction signal) instructing calculation of the oculomotor reflex movement is output.

また、付与部12cは、データ判定部12eから第2の付与指示信号を取得した場合、データ判定部12eで判定した頭部運動及び瞳孔運動のデータに、前庭動眼反射運動の算出に不適であることを示す第2のラベルを付与する処理を行う。その後、付与部12cは、運転者3の頭部運動及び瞳孔運動に係るデータと第2のラベルとを紐付けた状態で測定データ記憶部13cに記憶する処理を行う。   In addition, when the giving unit 12c acquires the second giving instruction signal from the data determining unit 12e, the adding unit 12c is unsuitable for calculating the vestibulo-ocular reflex movement based on the head movement and pupil movement data determined by the data determining unit 12e. The process which provides the 2nd label which shows this is performed. Thereafter, the assigning unit 12c performs a process of storing the data relating to the head movement and pupil movement of the driver 3 in the measurement data storage unit 13c in a state where the data is associated with the second label.

この場合の前記識別情報は、データ判定部12eによる判定結果、例えば、前庭動眼反射運動の算出に適したデータである場合と、適したデータではない場合とをコンピュータ上で識別するために付与される情報であれば、その形態は特に限定されない。   The identification information in this case is given to identify on the computer the determination result by the data determination unit 12e, for example, the case where the data is suitable for the calculation of the vestibulo-oculomotor reflex movement and the case where the data is not suitable. As long as it is information, the form is not particularly limited.

また、前記識別情報は、前庭動眼反射運動の算出に適したデータであるか否かを重み付けする情報であってもよい。係る構成によれば、前記適したデータであるか否かを前記重み付けによって細かく識別することが可能となる。そして、前記重み付けを加味して前庭動眼反射運動を算出することにより、測定部12bで測定されたデータの一部だけ(前記適したデータであると判定されたデータだけ)ではなく全てのデータを用いて、実車環境に対応した前庭動眼反射運動をモニタリングすることが可能となる。   In addition, the identification information may be information that weights whether or not the data is suitable for calculating the vestibular eye movement. According to such a configuration, whether or not the data is suitable can be finely identified by the weighting. Then, by calculating the vestibular ocular reflex movement in consideration of the weighting, not only a part of the data measured by the measurement unit 12b (only the data determined to be suitable data) but all the data By using it, it becomes possible to monitor the vestibulo-ocular reflex movement corresponding to the actual vehicle environment.

介入制御部12dは、状態判定部12aから前記第2の判定信号を取得した場合、運転者3又は車両2の状態が、運転者3の前庭動眼反射運動の算出に適した前記所定の状態になるように介入制御を行うとともに、該介入制御を実行したことを示す介入実行信号を測定部12bに出力する。   When the intervention control unit 12d acquires the second determination signal from the state determination unit 12a, the state of the driver 3 or the vehicle 2 is set to the predetermined state suitable for calculation of the vestibulooculomotor reflex movement of the driver 3. The intervention control is performed so that an intervention execution signal indicating that the intervention control has been executed is output to the measurement unit 12b.

介入制御部12dが行う介入制御の一例を説明する。
(1)介入制御部12dが、ナビゲーション装置50に対し、直線道路を走行するようにルート変更を指示するルート変更信号を出力する介入制御を行う。直線道路を走行している時は、通常、運転者3は前を向いているので、視線が一方向に定まりやすい状態にある。したがって、データ処理装置10では、前記介入制御により前庭動眼反射運動以外の眼球運動が生じにくい状態で、頭部運動及び瞳孔運動を測定することが可能となる。
An example of intervention control performed by the intervention control unit 12d will be described.
(1) The intervention control unit 12d performs intervention control to output a route change signal that instructs the navigation device 50 to change the route so as to travel on a straight road. When traveling on a straight road, the driver 3 is usually facing forward, so that the line of sight is easily determined in one direction. Therefore, in the data processing apparatus 10, it is possible to measure head movement and pupil movement in a state in which eye movement other than the vestibulo-oculomotor reflex movement hardly occurs by the intervention control.

前記ルート変更信号は、例えば、車両2の現在地点と該現在地点から所定距離(例えば、500m)先の走行予定地点とが直線道路上にあるルートに変更させる制御信号でもよい。また、前記ルート変更信号は、例えば、車両2の現在地点から所定距離(例えば、500m)先の第1の走行予定地点までの直線の延長線と、前記第1の走行予定地点から所定距離(例えば、500m)先の第2の走行予定地点までの直線とのなす角度が所定の角度より小さくなる道路にルート変更させる制御信号でもよい。   The route change signal may be, for example, a control signal for changing the current location of the vehicle 2 and a planned travel location ahead of a predetermined distance (for example, 500 m) from the current location to a route on a straight road. Further, the route change signal is, for example, a straight extension line from the current location of the vehicle 2 to a first scheduled travel location ahead of a predetermined distance (for example, 500 m) and a predetermined distance from the first planned travel location ( For example, it may be a control signal for changing the route to a road where the angle formed with the straight line to the second planned traveling point ahead of 500 m) is smaller than a predetermined angle.

また、ナビゲーション装置50は、データ処理装置10から上記ルート変更信号を取得した場合、車両2の走行道路がルート変更信号で指示された条件を満たす直線道路であるか否かを判断する。   Further, when the navigation device 50 acquires the route change signal from the data processing device 10, the navigation device 50 determines whether or not the traveling road of the vehicle 2 is a straight road that satisfies the condition specified by the route change signal.

ナビゲーション装置50の設定ルートが前記ルート変更信号で指示された条件を満たしていない場合、ナビゲーション装置50は、例えば、交差点ごとにルート探索を実行し、前記ルート変更信号で指示された条件に合致するルートに変更する処理を繰り返す。前記介入制御により、車両2の状態を前庭動眼反射運動の算出に適した状態にすることが可能となる。   When the set route of the navigation device 50 does not satisfy the condition specified by the route change signal, the navigation device 50 performs a route search for each intersection, for example, and matches the condition specified by the route change signal. Repeat the process of changing to root. By the intervention control, the state of the vehicle 2 can be brought into a state suitable for the calculation of the vestibular eye movement.

(2)車外センサ31により周囲の安全が確認された場合、介入制御部12dが、ナビゲーション装置50に対し、運転者3に所定の箇所を集中して見るように促す報知信号を出力する制御を行ってもよい。
ナビゲーション装置50は、データ処理装置10から上記報知信号を受信した場合、例えば、「前方を注視してください。」といった音声を出力したり、画面に表示したりする制御を実行する。前記介入制御により、運転者3の眼を前庭動眼反射運動の算出に適した状態、すなわち、前方を注視させる状態に誘導することが可能となる。周囲の安全の確認とは、例えば車両2の前方及び後方100mに先行車または後続車が検出されず、車両の周囲5m以内にその他の障害物が検出されないことを指す。ただし周囲の安全の確認方法はこれに限定されない。
(2) When the surrounding safety is confirmed by the vehicle outside sensor 31, the intervention control unit 12d performs a control to output a notification signal that urges the navigation device 50 to focus the driver 3 on a predetermined location. You may go.
When the navigation device 50 receives the notification signal from the data processing device 10, for example, the navigation device 50 outputs a sound such as “please look closely at the front” or displays the information on the screen. The intervention control makes it possible to guide the eye of the driver 3 to a state suitable for calculating the vestibulo-oculomotor reflex movement, that is, a state in which the front is watched. The confirmation of the surrounding safety indicates that, for example, a preceding vehicle or a succeeding vehicle is not detected 100 m forward and rearward of the vehicle 2 and no other obstacle is detected within 5 m around the vehicle. However, the method of confirming the surrounding safety is not limited to this.

(3)介入制御部12dが、ナビゲーション装置50に対し、運転者3に頭部を動かすように促す報知信号を出力する制御を行ってもよい。
ナビゲーション装置50は、データ処理装置10から上記報知信号を受信した場合、例えば、「前方を見たまま頭部を上下又は左右に動かしてください。」といった音声を出力したり、画面に表示したりする制御を実行する。前記介入制御により、運転者3の頭部を前庭動眼反射運動の算出に適した状態、すなわち頭部を振動させる状態に誘導することが可能となる。
(3) The intervention control unit 12d may control the navigation device 50 to output a notification signal that prompts the driver 3 to move the head.
When the navigation device 50 receives the notification signal from the data processing device 10, for example, it outputs a sound such as “Please move your head up and down or left and right while looking forward” or display it on the screen. Execute control to With the intervention control, the head of the driver 3 can be guided to a state suitable for calculating the vestibulo-oculomotor reflex movement, that is, a state in which the head is vibrated.

(4)介入制御部12dが、振動装置70に対し、運転者3の座席を上下、左右、前後又はピッチ方向などに所定の周期で振動させるための制御信号を出力する制御を行ってもよい。
振動装置70は、データ処理装置10から上記制御信号を受信した場合、例えば、所定期間、運転者3の座席を上下、左右、前後又はピッチ方向に所定の振動周期で振動させる制御を実行する。前記介入制御により、運転者3の頭部を前庭動眼反射運動の算出に適した状態、すなわち、頭部を振動させる状態にすることが可能となる。
(4) The intervention control unit 12d may control the vibration device 70 to output a control signal for vibrating the seat of the driver 3 in a predetermined cycle in the vertical, left and right, front and rear, or pitch directions. .
When the control device receives the control signal from the data processing device 10, the vibration device 70 executes, for example, control for vibrating the driver's 3 seat up and down, left and right, front and rear, or in the pitch direction at a predetermined vibration cycle. By the intervention control, the head of the driver 3 can be brought into a state suitable for the calculation of the vestibulo-oculomotor reflex movement, that is, the head is vibrated.

(5)介入制御部12dが、サスペンション制御ユニット61に対し、車両2を振動させやすい状態に制御するための制御信号を出力する制御を行ってもよい。
サスペンション制御ユニット61は、データ処理装置10から上記制御信号を受信した場合、例えば、一定期間、アクティブサスペンション機構の減衰力を調整して、車体を上下又は左右などに揺動させやすい状態にする制御を実行する。前記介入制御により、運転者3の頭部を前庭動眼反射運動の算出に適した状態、すなわち、頭部を振動させる状態にすることが可能となる。
(5) The intervention control unit 12d may control the suspension control unit 61 to output a control signal for controlling the vehicle 2 so as to easily vibrate.
When the suspension control unit 61 receives the control signal from the data processing device 10, for example, the suspension control unit 61 adjusts the damping force of the active suspension mechanism for a certain period to make the vehicle body easy to swing up and down or to the left and right. Execute. By the intervention control, the head of the driver 3 can be brought into a state suitable for the calculation of the vestibulo-oculomotor reflex movement, that is, the head is vibrated.

なお、介入制御部12dでは、上記(1)〜(5)のいずれかの介入制御を行うように構成してもよいし、車両2又は運転者3の状態に応じて、上記(1)〜(5)のうちの2以上の介入制御を適宜組み合わせて実行するように構成してもよい。   In addition, in intervention control part 12d, you may comprise so that the intervention control in any one of said (1)-(5) may be performed, and said (1)-said according to the state of the vehicle 2 or the driver | operator 3. You may comprise so that two or more intervention control of (5) may be performed combining suitably.

データ判定部12eは、測定部12bから前記判定指示信号を取得した場合、介入制御部12dにより前記介入制御が行われた後に測定部12bで測定されたデータが、前庭動眼反射運動の算出に適したデータであるか否かを判定する。
データ判定部12eが前庭動眼反射運動の算出に適したデータであると判定した場合、データ判定部12eは、付与部12cに第1のラベルの付与を指示する信号(第1の付与指示信号)を出力する。
一方、データ判定部12eが前庭動眼反射運動の算出に適したデータではないと判定した場合、データ判定部12eは、介入制御部12dに前記介入制御を指示する信号(介入指示信号)を出力するとともに、付与部12cに第2のラベルの付与を指示する信号(第2の付与指示信号)を出力する。
When the data determination unit 12e acquires the determination instruction signal from the measurement unit 12b, the data measured by the measurement unit 12b after the intervention control by the intervention control unit 12d is suitable for calculating the vestibulo-oculomotor reflex movement. It is determined whether or not the data is the same.
When the data determination unit 12e determines that the data is suitable for the calculation of the vestibulo-oculomotor reflex movement, the data determination unit 12e instructs the applying unit 12c to apply the first label (first applying instruction signal). Is output.
On the other hand, when the data determination unit 12e determines that the data is not suitable for calculating the vestibular eye movement, the data determination unit 12e outputs a signal (intervention instruction signal) instructing the intervention control unit 12d to perform the intervention control. At the same time, a signal for instructing the application of the second label (second application instruction signal) is output to the application unit 12c.

データ判定部12eが行う判定処理の一例を説明する。
(1)データ判定部12eは、瞳孔運動及び頭部運動のデータが測定部12bで取得できたか否かを判定する。そもそも、瞳孔運動及び頭部運動のデータが取得できていなければ、前庭動眼反射運動の算出を行うことができない。
An example of the determination process performed by the data determination unit 12e will be described.
(1) The data determination unit 12e determines whether or not pupil movement and head movement data can be acquired by the measurement unit 12b. In the first place, if the pupil movement and head movement data cannot be acquired, the vestibulo-oculomotor reflex movement cannot be calculated.

そこで、測定部12bでテンプレートマッチングにより瞳孔運動及び頭部運動を測定した場合において、画像から抽出された顔領域と顔のテンプレート画像との類似度、又は画像から抽出された眼領域と眼のテンプレート画像との類似度を判定する。それぞれの類似度が所定の閾値より低い場合は、画像から頭部(眼、すなわち目尻と目頭)の位置、又は瞳孔の位置を適切に取得できていない、すなわち、前庭動眼反射運動の算出に適したデータを取得できていないと判定してもよい。   Therefore, when the pupil movement and the head movement are measured by template matching in the measurement unit 12b, the similarity between the face area extracted from the image and the face template image, or the eye area and the eye template extracted from the image The similarity with the image is determined. If each similarity is lower than a predetermined threshold, the position of the head (eye, ie, the corner of the eye and the eye) or the position of the pupil has not been properly acquired from the image, that is, suitable for calculating the vestibulo-oculomotor reflex movement. It may be determined that the acquired data has not been acquired.

(2)データ判定部12eは、瞳孔運動のデータが、前庭動眼反射運動以外の眼球運動、すなわちサッカード運動などのノイズ成分を多く含むデータであるか否かを判定してもよい。
例えば、瞳孔の運動量が頭部の運動量よりも大きい場合、又は頭部の移動又は回転方向に追従して瞳孔が移動又は回転している場合など、眼球の回転速度や回転角などの眼球運動が所定の閾値より大きい場合、瞳孔運動のデータには、サッカード運動などのノイズ成分が多く含まれ、前庭動眼反射運動の算出に適した瞳孔運動データではないと判定してもよい。
(2) The data determination unit 12e may determine whether the pupil movement data is data including a lot of noise components such as eye movements other than the vestibulo-oculomotor reflex movement, that is, saccade movement.
For example, when the pupil's momentum is greater than the head's momentum, or when the pupil moves or rotates following the movement or rotation direction of the head, eye movement such as the rotation speed or rotation angle of the eyeball When it is larger than the predetermined threshold value, it may be determined that the pupil movement data includes a lot of noise components such as saccade movement and is not suitable for the calculation of the vestibular eye movement.

また、顔の向きが大きく動いたときは、運転者3が一定の方向を集中して見ようとしている状態にはないため、顔の回転速度や回転角などの頭部の運動が所定の閾値より大きい場合、頭部運動のデータにはノイズ成分が多く含まれ、前庭動眼反射運動の算出に適した頭部運動データではないと判定してもよい。   In addition, when the face moves greatly, the driver 3 is not in a state of concentrating on looking at a certain direction, so the head movement such as the face rotation speed and the rotation angle is less than a predetermined threshold. When the head movement data is large, it may be determined that the head movement data contains a lot of noise components and is not head movement data suitable for calculating the vestibulo-ocular reflex movement.

(3)データ判定部12eは、測定部12bで瞳孔運動及び頭部運動を測定しているときの車速データを取得し、該車速データが所定の速度より小さいか否か、又は前記車速データが所定の速度より大きいか否かを判定することにより、測定部12bで測定されたデータが前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。   (3) The data determination unit 12e acquires vehicle speed data when the measurement unit 12b measures pupil movement and head movement, and whether or not the vehicle speed data is smaller than a predetermined speed, or the vehicle speed data is It may be determined whether or not the data measured by the measurement unit 12b is data suitable for calculation of the vestibulo-ocular reflex movement by determining whether or not the speed is higher than a predetermined speed.

一般的に車速が大きい場合、運転者3は前方の狭い範囲を集中して見ている傾向がある。一方で車速が小さい場合、運転者3は周辺の安全を確保するため、広い範囲を随意的に見渡す傾向にある。前庭動眼反射運動を算出する場合、運転者3が狭い範囲を集中して見ている状態での眼球運動及び頭部運動のデータを使用することが好ましい。
そこで、データ判定部12eは、車速データが所定の速度(例えば、徐行速度)より小さい場合、前庭動眼反射運動の算出に適したデータではないと判定する。又は前記車速データが所定の速度より大きい場合、前庭動眼反射運動の算出に適したデータであると判定してもよい。
In general, when the vehicle speed is high, the driver 3 tends to concentrate on a narrow range in front. On the other hand, when the vehicle speed is low, the driver 3 tends to voluntarily overlook a wide range in order to ensure the surrounding safety. When calculating the vestibular eye movement, it is preferable to use data on eye movements and head movements when the driver 3 is concentrating on a narrow range.
Therefore, when the vehicle speed data is smaller than a predetermined speed (for example, slow speed), the data determination unit 12e determines that the data is not suitable for calculating the vestibular eye movement. Alternatively, when the vehicle speed data is larger than a predetermined speed, it may be determined that the data is suitable for calculating the vestibulo-ocular reflex movement.

さらに、データ判定部12eは、所定の速度を閾値にして2値判断するのではなく、眼球運動及び頭部運動のデータに対して車速に応じた重み付けを行ってもよい。例えば、車速が時速0〜20kmであれば重み係数0.2、時速20〜40kmであれば重み係数0.5、時速40〜60kmであれば重み係数0.8、時速60km以上であれば重み係数1.0を、眼球運動及び頭部運動のデータに対応付けて記憶し、前記重み係数を加味して前庭動眼反射運動を算出するようにしてもよい。   Furthermore, the data determination unit 12e may weight the data of eye movement and head movement according to the vehicle speed, instead of performing binary determination using a predetermined speed as a threshold value. For example, if the vehicle speed is 0 to 20 km / h, the weighting factor is 0.2; if the speed is 20 to 40 km / h, the weighting factor is 0.5; if the speed is 40 to 60 km / h, the weighting factor is 0.8; The coefficient 1.0 may be stored in association with the eye movement and head movement data, and the vestibular eye movement may be calculated in consideration of the weight coefficient.

(4)データ判定部12eは、測定部12bで瞳孔運動及び頭部運動を測定しているときの操舵データを取得し、該操舵データが所定の操舵角より大きいか否かを判定することにより、測定部12bで測定されたデータが前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。   (4) The data determination unit 12e acquires steering data when the measurement unit 12b is measuring pupil movement and head movement, and determines whether the steering data is larger than a predetermined steering angle. Alternatively, it may be determined whether the data measured by the measurement unit 12b is data suitable for calculation of the vestibulo-ocular reflex movement.

前庭動眼反射運動を算出する場合、運転者3が前方の狭い範囲を集中して見ている状態での眼球運動及び頭部運動のデータを使用することが好ましい。運転者3が前方の狭い範囲を集中して見ている傾向が高いのは、カーブが連続する道路を走行している場合よりも直線道路を走行している場合である。そこで、データ判定部12eは、操舵データが所定の操舵角より大きい場合、前庭動眼反射運動の算出に適したデータではないと判定してもよい。   When calculating the vestibular eye movement, it is preferable to use data on eye movements and head movements in a state where the driver 3 is concentrating on a narrow area ahead. The driver 3 is more likely to concentrate on a narrow area ahead when traveling on a straight road than when traveling on a curved road. Therefore, the data determination unit 12e may determine that the data is not suitable for calculating the vestibular eye movement when the steering data is larger than a predetermined steering angle.

(5)データ判定部12eは、測定部12bで瞳孔運動及び頭部運動を測定しているときの車両2の位置データ又は走行道路データなどを取得し、車両2が直線道路を走行中であるか否かを判定することにより、測定部12bで測定されたデータが前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。   (5) The data determination unit 12e acquires the position data or traveling road data of the vehicle 2 when the measurement unit 12b measures the pupil movement and the head movement, and the vehicle 2 is traveling on the straight road. It may be determined whether or not the data measured by the measurement unit 12b is data suitable for calculating the vestibulo-oculomotor reflex movement.

運転者3が前方の狭い範囲を集中して見ている傾向が高いのは、カーブが連続する道路を走行している場合よりも直線道路を走行している場合である。そこで、データ判定部12eは、車両2が直線道路を走行していない場合、前庭動眼反射運動の算出に適したデータではないと判定してもよい。   The driver 3 is more likely to concentrate on a narrow area ahead when traveling on a straight road than when traveling on a curved road. Therefore, when the vehicle 2 is not traveling on a straight road, the data determination unit 12e may determine that the data is not suitable for calculating the vestibular eye movement.

(6)データ判定部12eは、測定部12bで瞳孔運動及び頭部運動を測定しているときに、車外センサ31で取得された周辺監視データを取得し、車両2の周辺に障害物や先行車両などが存在するか否かを判定することにより、測定部12bで測定されたデータが前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。   (6) The data determination unit 12e acquires the peripheral monitoring data acquired by the vehicle outside sensor 31 when the measurement unit 12b measures the pupil movement and the head movement, and the obstacle around the vehicle 2 By determining whether or not a vehicle or the like exists, it may be determined whether or not the data measured by the measurement unit 12b is data suitable for calculation of the vestibular eye movement.

車両2に対して相対的に移動している先行車両や障害物などが存在する場合、運転者3は、相対移動している先行車両や障害物を目で追跡する傾向があり、運転者3の眼が能動的に動いている状態にある。眼を能動的に動かしている状態は、前庭動眼反射運動の算出に適した状態にはない。そこで、データ判定部12eは、車両2に対して相対移動している先行車両や障害物などが検出されている場合、前庭動眼反射運動の算出に適したデータではないと判定してもよい。   When there is a preceding vehicle or an obstacle moving relatively with respect to the vehicle 2, the driver 3 tends to track the preceding vehicle or obstacle moving relatively. The eyes are actively moving. The state in which the eye is actively moved is not in a state suitable for calculating the vestibulo-ocular reflex movement. Therefore, the data determination unit 12e may determine that the data is not suitable for the calculation of the vestibular movement and eye reflex movement when a preceding vehicle or an obstacle moving relative to the vehicle 2 is detected.

(7)データ判定部12eは、測定部12bで瞳孔運動及び頭部運動を測定しているときの運転者3の視線の向きを取得し、運転者3の視線の向きに基づいて、測定部12bで測定されたデータが前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。運転者3の顔が撮像された画像から運転者3の視線の向きを検出する方法には、公知の視線検出方法が採用される。   (7) The data determination unit 12e acquires the direction of the line of sight of the driver 3 when the measurement unit 12b measures the pupil movement and the head movement, and based on the direction of the line of sight of the driver 3, the measurement unit You may determine whether the data measured by 12b are data suitable for calculation of a vestibular movement reflex movement. As a method for detecting the direction of the line of sight of the driver 3 from the image obtained by capturing the face of the driver 3, a known line of sight detection method is employed.

例えば、運転者3が、地平線の方向などの前方の遠い場所を見ている場合、前方を集中して見ている可能性が高いので、例えば、視線の向きが、車両の前方(基準方向)に対して所定角度(例えば、上下±5度、又は左右±5度)以内である場合、前方を集中して見ていると判定してもよい。   For example, when the driver 3 is looking at a distant place in the front such as the direction of the horizon, there is a high possibility that the driver 3 is looking at the front in a concentrated manner. For example, the direction of the line of sight is the front of the vehicle (reference direction). If the angle is within a predetermined angle (for example, ± 5 degrees in the vertical direction or ± 5 degrees in the horizontal direction), it may be determined that the front is concentrated.

また、運転者3が、ナビゲーション装置50などの車内の操作部や表示部を見ている場合も、狭い範囲を注視している可能性が高い。したがって、例えば、運転者3の視線の向きが、ナビゲーション装置50などの設置方向である場合、前庭動眼反射運動の算出に適したデータであると判定してもよい。ただし、車内の装備を注視しているときの測定データから前庭動眼反射運動を算出する場合は、安全性の観点から、自動運転レベルが前記SAEのレベル3以上の自動運転車両などにおいて適用することが好ましい。   In addition, when the driver 3 is looking at an operation unit or a display unit in the vehicle such as the navigation device 50, there is a high possibility that the driver 3 is gazing at a narrow range. Therefore, for example, when the direction of the line of sight of the driver 3 is the installation direction of the navigation device 50 or the like, it may be determined that the data is suitable for calculating the vestibular eye movement. However, when calculating the vestibulo-oculomotor reflex movement from the measurement data while gazing at the equipment in the vehicle, it should be applied to an autonomous driving vehicle having an autonomous driving level of SAE level 3 or higher from the viewpoint of safety. Is preferred.

(8)データ判定部12eは、測定部12bで測定した頭部運動の運動量(平行移動又は回転移動)に基づいて、前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。
前庭動眼反射運動は、運転者3の頭部が運動しなければ発生しない眼球運動である。したがって、データ判定部12eは、測定部12bで測定した頭部運動の運動量(平行移動又は回転移動)が、所定の運動量より小さい場合、前庭動眼反射運動の算出に適したデータではないと判定してもよい。
(8) The data determination unit 12e determines whether the data is suitable for the calculation of the vestibulo-ocular reflex movement based on the amount of head movement (translation or rotation) measured by the measurement unit 12b. Also good.
The vestibulo-ocular reflex movement is an eye movement that does not occur unless the head of the driver 3 moves. Therefore, the data determination unit 12e determines that the data of the head movement measured by the measurement unit 12b (parallel movement or rotation movement) is not suitable for the calculation of the vestibulo-oculomotor reflex movement when the movement amount (parallel movement or rotation movement) is smaller than the predetermined movement amount. May be.

(9)データ判定部12eは、測定部12bで瞳孔運動及び頭部運動を測定しているときの車両の加速度データを取得し、車両2の加速度データに基づいて、測定部12bで測定されたデータが前庭動眼反射運動の算出に適したデータであるか否かを判定してもよい。
車両2の上下、左右又は前後方向に所定の加速度が発生している場合、運転者3の頭部が上下、左右又はピッチ方向に運動しやすい状態になる。
(9) The data determination unit 12e acquires the acceleration data of the vehicle when the pupil movement and the head movement are measured by the measurement unit 12b, and is measured by the measurement unit 12b based on the acceleration data of the vehicle 2 It may be determined whether or not the data is data suitable for calculating the vestibulo-ocular reflex movement.
When a predetermined acceleration is generated in the up / down, left / right or front / rear direction of the vehicle 2, the head of the driver 3 is easily moved in the up / down, left / right or pitch direction.

したがって、データ判定部12eは、車両2の加速度データが、運転者3の頭部運動が発生しやすい閾値より大きい場合、前庭動眼反射運動の算出に適したデータであると判定してもよい。
また、データ判定部12eは、車両2の加速度データから得られた車両2の振動と頭部運動とが、同じ方向に同等の周波数で振動しているなどの一定の関係にある場合、前庭動眼反射運動の算出に適したデータであると判定する。
車両2の加速度データは、車両2に装備した加速度センサ32からのデータを用いることができる他、車外センサ31で認識された物体との距離の時系列変化から車両2の速度を求め、該速度から求めた加速度データを用いてもよい。
Therefore, the data determination unit 12e may determine that the acceleration data of the vehicle 2 is data suitable for the calculation of the vestibulo-ocular reflex movement when the acceleration data of the vehicle 2 is larger than the threshold value at which the driver's 3 head movement is likely to occur.
In addition, the data determination unit 12e determines that the vestibule moving eye is in a case where the vibration of the vehicle 2 obtained from the acceleration data of the vehicle 2 and the head movement are in a certain relationship such as vibrating at the same frequency in the same direction. It is determined that the data is suitable for calculating the reflex motion.
As the acceleration data of the vehicle 2, data from the acceleration sensor 32 equipped on the vehicle 2 can be used, and the speed of the vehicle 2 is obtained from the time series change of the distance to the object recognized by the outside sensor 31, and the speed Acceleration data obtained from the above may be used.

なお、データ判定部12eでは、上記(1)〜(9)のいずれかの判定を行うように構成してもよいし、車両2又は運転者3の状態に応じて、上記(1)〜(9)のうちの2以上の判定を適宜組み合わせて実行するように構成してもよい。   In addition, in the data determination part 12e, you may comprise so that determination in any one of said (1)-(9) may be performed, and said (1)-() according to the state of the vehicle 2 or the driver | operator 3. You may comprise so that 2 or more determinations of 9) may be performed combining suitably.

算出部12fは、付与部12cから前記算出指示信号を取得した場合、測定データ記憶部13cから、第1のラベルが付与された運転者3の瞳孔運動及び頭部運動のデータを読み出し、これらデータを用いて、前庭動眼反射運動を算出する処理を行う。算出部12fは、算出処理を行った後、前庭動眼反射運動に関する算出データ(パラメータ)を眠気判定部12gに出力する。   When the calculation unit 12f acquires the calculation instruction signal from the assigning unit 12c, the calculation unit 12f reads out the pupil movement and head movement data of the driver 3 to which the first label is attached from the measurement data storage unit 13c, and the data Is used to calculate the vestibulo-oculomotor reflex movement. After performing the calculation process, the calculation unit 12f outputs calculation data (parameters) related to the vestibulo-ocular reflex movement to the drowsiness determination unit 12g.

算出部12fで算出される前庭動眼反射運動に関するパラメータには、例えば、VORゲイン、残差標準偏差、位相差の少なくともいずれかのデータが含まれている。
VORゲインは、原理的には頭部の運動(回転角速度)に対する瞳孔の運動(回転角速度)の応答度合を意味し、瞳孔の運動(回転角速度)/頭部の運動(回転角速度)で表すことができる。
The parameter relating to the vestibulo-ocular reflex movement calculated by the calculation unit 12f includes, for example, data of at least one of VOR gain, residual standard deviation, and phase difference.
VOR gain, in principle, means the degree of response of pupil movement (rotational angular velocity) to head movement (rotational angular velocity), expressed as pupil movement (rotational angular velocity) / head movement (rotational angular velocity). Can do.

例えば、VORゲインは、目的変数を眼球回転角速度e(t)、説明変数を理想眼球角速度h(t)と定数項dcとする式[数1]の回帰モデルの係数Gとして式[数2]により最小二乗推定して求めることができる。ここで、ε(t)は回帰モデルの残差である。また、τは理想眼球運動に対する眼球運動の遅れ時間である。
眼球回転角速度e(t)は、測定部12bで測定された瞳孔運動データに基づいて眼球運動角を求め、該眼球運動角を微分処理して求めることができる。理想眼球角速度h(t)は、測定部12bで測定された頭部運動データに基づいて頭部運動角を求め、該頭部運動角を微分処理して求めることができる。なお、VORゲインは、運転者3の前後、上下、左右、ヨー、及びピッチ方向の少なくとも1つの方向について算出すればよい。
For example, the VOR gain is expressed by the equation [Equation 2] as the coefficient G of the regression model of the equation [Equation 1] where the objective variable is the eyeball rotation angular velocity e (t) and the explanatory variable is the ideal eyeball angular velocity h (t) and the constant term dc. Can be obtained by least square estimation. Here, ε (t) is the residual of the regression model. Further, τ is a delay time of the eye movement with respect to the ideal eye movement.
The eyeball rotation angular velocity e (t) can be obtained by obtaining an eyeball movement angle based on the pupil movement data measured by the measurement unit 12b and differentiating the eyeball movement angle. The ideal eyeball angular velocity h (t) can be obtained by obtaining a head movement angle based on the head movement data measured by the measurement unit 12b and differentiating the head movement angle. The VOR gain may be calculated in at least one direction of the driver 3 in the front-rear direction, the upper-lower direction, the left-right direction, the yaw direction, and the pitch direction.

Figure 0006418342
Figure 0006418342

Figure 0006418342
Figure 0006418342

また、残差標準偏差(SDres)は、式[数3]により算出することができる。

Figure 0006418342
Further, the residual standard deviation (SDres) can be calculated by the equation [Equation 3].
Figure 0006418342

なお、VORゲインと残差標準偏差は、充分な推定精度が得られるように第1の時間(例えば、数十秒)のデータを1セグメントとし、第1の時間より短い第2の時間のオーバーラップを持たせながら、第2の時間より短い第3の時間毎に各セグメントにおける値を算出してもよい。また、一般的に運転者3が眠気を催すと、VORゲインが減少するとともに、残差標準偏差が増加する傾向が見られる。したがって、眠気の予兆を精度よく判定するため、VORゲインの減少率などの変化率、又は残差標準偏差の増加率などの変化率を求めてもよい。   The VOR gain and the residual standard deviation are over the second time shorter than the first time, with the data of the first time (for example, several tens of seconds) as one segment so that sufficient estimation accuracy can be obtained. You may calculate the value in each segment for every 3rd time shorter than 2nd time, giving a lap. In general, when the driver 3 is drowsy, the VOR gain decreases and the residual standard deviation tends to increase. Therefore, in order to accurately determine a sign of sleepiness, a change rate such as a decrease rate of the VOR gain or a change rate such as an increase rate of the residual standard deviation may be obtained.

眠気判定部12gは、算出部12fから前庭動眼反射運動に関する算出データを取得した場合、取得した前庭動眼反射運動に関する算出データを用いて、運転者3の眠気を判定する。例えば、VORゲイン、残差標準偏差、位相差の少なくともいずれかのパラメータを用いて、所定の閾値との比較等を行い、運転者3の眠気度を判定してもよいし、前庭動眼反射運動以外のパラメータも加味して判定してもよい。眠気判定部12gは、運転者3の眠気を判定した後、運転者3の眠気の判定結果(例えば、眠気度)を覚醒制御部12hに出力する。   When the drowsiness determination unit 12g acquires the calculation data related to the vestibular movement reflex movement from the calculation unit 12f, the drowsiness determination unit 12g determines the drowsiness of the driver 3 using the acquired calculation data related to the vestibular movement reflex movement. For example, the drowsiness level of the driver 3 may be determined by comparing with a predetermined threshold value using at least one of the parameters of VOR gain, residual standard deviation, and phase difference. The determination may be made in consideration of other parameters. After determining the drowsiness of the driver 3, the drowsiness determination unit 12g outputs the determination result (for example, sleepiness level) of the driver 3 to the awakening control unit 12h.

覚醒制御部12hは、眠気判定部12gから取得した眠気度に基づいて、覚醒装置80に対し、運転者3を覚醒させるための制御信号を出力する処理を行う。
覚醒装置80が、例えば、音又は光などで運転者3に警告を発する警報装置で構成されている場合、覚醒制御部12hは、前記警報装置を所定期間作動させる制御信号を前記警報装置に出力する。
また、覚醒装置80が、冷風、温風、又は香気成分や臭気成分を含む気体などを運転者3に吹き付ける空調装置で構成されている場合、覚醒制御部12hは、前記空調装置を所定期間作動させる制御信号を前記警報装置に出力する。
また、覚醒装置80が、ステアリングやシートベルトなどを振動させる振動装置で構成されている場合、覚醒制御部12hは、前記振動装置を所定期間作動させる制御信号を前記振動装置に出力する。
The awakening control unit 12h performs a process of outputting a control signal for awakening the driver 3 to the awakening device 80 based on the sleepiness level acquired from the sleepiness determination unit 12g.
When the wake-up device 80 is configured by an alarm device that issues a warning to the driver 3 with sound or light, for example, the wake-up control unit 12h outputs a control signal for operating the alarm device for a predetermined period to the alarm device. To do.
In addition, when the awakening device 80 is configured by an air conditioner that blows cold air, hot air, or a gas containing an aroma component or an odor component to the driver 3, the awakening control unit 12h operates the air conditioner for a predetermined period. A control signal to be output to the alarm device.
When the awakening device 80 is configured by a vibration device that vibrates a steering, a seat belt, or the like, the awakening control unit 12h outputs a control signal for operating the vibration device for a predetermined period to the vibration device.

また、ナビゲーション装置50、又は振動装置70に対し、運転者3を覚醒させるための制御信号を出力する処理を行ってもよい。この場合、前記制御信号には、ナビゲーション装置50に対して、運転者3を覚醒させるための警告音や警告表示を出力させる制御信号、振動装置70により座席を所定期間振動させる制御信号などが含まれる。   Moreover, you may perform the process which outputs the control signal for awakening the driver | operator 3 with respect to the navigation apparatus 50 or the vibration apparatus 70. FIG. In this case, the control signal includes a control signal for outputting a warning sound or a warning display for awakening the driver 3 to the navigation device 50, a control signal for vibrating the seat for a predetermined period by the vibration device 70, and the like. It is.

[動作例]
図3は、実施の形態に係るデータ処理装置10における制御ユニット12が行う処理動作を示したフローチャートである。本処理動作は、例えば、車両2の始動スイッチ40がオンされた後に実行されるようになっている。
[Operation example]
FIG. 3 is a flowchart showing processing operations performed by the control unit 12 in the data processing apparatus 10 according to the embodiment. This processing operation is executed after the start switch 40 of the vehicle 2 is turned on, for example.

ステップS1では、制御ユニット12がカメラ20を起動させる処理を行う。カメラ20では、毎秒所定フレーム数の画像が撮像される。制御ユニット12は、これら撮像された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行する。   In step S1, the control unit 12 performs a process of starting the camera 20. The camera 20 captures a predetermined number of frames per second. The control unit 12 captures these captured images in time series, and executes this process every frame or every frame at a predetermined interval.

ステップS2では、データ取得部11が、カメラ20、車載センサ30、又はナビゲーション装置50からデータを取得する処理を行う。例えば、運転者3を撮像した画像データをカメラ20から取得する他、車載センサ30から周辺監視データなどを取得してもよいし、走行道路の形状(直線、カーブなど)などを含む道路データをナビゲーション装置50から取得してもよい。   In step S <b> 2, the data acquisition unit 11 performs a process of acquiring data from the camera 20, the in-vehicle sensor 30, or the navigation device 50. For example, in addition to acquiring image data of the driver 3 from the camera 20, peripheral monitoring data or the like may be acquired from the in-vehicle sensor 30, or road data including the shape (straight line, curve, etc.) of the traveling road may be acquired. You may acquire from the navigation apparatus 50.

ステップS3では、状態判定部12aが、ステップS2で取得したデータを用いて、運転者3又は車両2の状態が、前庭動眼反射運動(VOR)の算出に適した所定の状態にあるか否かを判定する。前記所定の状態については、上記説明のとおりである。   In step S3, the state determination unit 12a uses the data acquired in step S2 to determine whether the state of the driver 3 or the vehicle 2 is in a predetermined state suitable for calculating the vestibular eye movement (VOR). Determine. The predetermined state is as described above.

ステップS3において、状態判定部12aが、運転者3又は車両2の状態が前記所定の状態にはないと判断すれば、制御ユニット12はステップS4を実行する。
ステップS4では、介入制御部12dが、運転者3又は車両2が前記所定の状態になるように介入制御を行い、次に制御ユニット12はステップS5を実行する。なお、ステップS4では、上記説明した(1)〜(5)のいずれかの介入制御を行うように構成してもよいし、車両2又は運転者3の状態に応じて、上記(1)〜(5)のうちの2以上の介入制御を適宜組み合わせて実行するように構成してもよい。
If the state determination part 12a determines in step S3 that the state of the driver 3 or the vehicle 2 is not in the predetermined state, the control unit 12 executes step S4.
In step S4, the intervention control unit 12d performs intervention control so that the driver 3 or the vehicle 2 is in the predetermined state, and then the control unit 12 executes step S5. In step S4, the intervention control described in any one of (1) to (5) described above may be performed, or the above (1) to (1) may be performed depending on the state of the vehicle 2 or the driver 3. You may comprise so that two or more intervention control of (5) may be performed combining suitably.

ステップS5では、測定部12bが、運転者3の瞳孔運動を測定する処理を行い、次のステップS6では、測定部12bが、運転者3の頭部運動を測定する処理を行い、次に制御ユニット12はステップS7を実行する。なお、ステップS5、S6の順序を入れ替えてもよい。   In step S5, the measurement unit 12b performs a process of measuring the pupil movement of the driver 3, and in the next step S6, the measurement unit 12b performs a process of measuring the head movement of the driver 3 and then performs control. Unit 12 executes step S7. Note that the order of steps S5 and S6 may be changed.

ステップS7では、データ判定部12eが、ステップS5、S6で測定された運転者3の瞳孔運動及び頭部運動のデータが前庭動眼反射運動の算出に適用可能であるか否かを判定する。なお、ステップS7では、上記説明した(1)〜(9)のいずれかの判定を行うように構成してもよいし、車両2又は運転者3の状態に応じて、上記(1)〜(9)のうちの2以上の判定を適宜組み合わせて実行するように構成してもよい。   In step S7, the data determination unit 12e determines whether or not the data of the driver's 3 pupil movement and head movement measured in steps S5 and S6 can be applied to the calculation of the vestibulo-oculomotor reflex movement. In step S7, the above-described determinations (1) to (9) may be performed. Depending on the state of the vehicle 2 or the driver 3, the above (1) to (9) may be used. You may comprise so that 2 or more determinations of 9) may be performed combining suitably.

ステップS7において、データ判定部12eが、前記データが前庭動眼反射運動の算出に適用可能ではないと判断すれば、制御ユニット12はステップS8を実行する。ステップS8では、付与部12cが、上記ステップS5、6で測定された前記データに、前庭動眼反射運動の算出に適していないこと(算出不適)を示す第2のラベルを付与する処理を行い、その後制御ユニット12はステップS4に戻り、処理を繰り返す。   In step S7, if the data determination unit 12e determines that the data is not applicable to the calculation of the vestibular eye movement, the control unit 12 executes step S8. In step S8, the assigning unit 12c performs a process of assigning a second label indicating that the data measured in steps S5 and S6 is not suitable for calculating the vestibulo-oculomotor reflex movement (calculation inappropriate), Thereafter, the control unit 12 returns to step S4 and repeats the process.

一方、ステップS7において、データ判定部12eが、前記データが前庭動眼反射運動の算出に適用可能であると判断すれば、制御ユニット12はステップS11を実行する。
ステップS11では、付与部12cが、上記ステップS5、6で測定された前記データに、前庭動眼反射運動の算出に適していること(算出適)を示す第1のラベルを付与する処理を行い、次に制御ユニット12はステップS12を実行する。
On the other hand, if the data determination unit 12e determines in step S7 that the data can be applied to the calculation of the vestibular eye movement, the control unit 12 executes step S11.
In step S11, the assigning unit 12c performs a process of assigning a first label indicating that the data measured in steps S5 and S6 is suitable for calculating the vestibulo-oculomotor reflex movement (calculation suitability), Next, the control unit 12 executes Step S12.

また、一方ステップS3において、状態判定部12aが、運転者3又は車両2の状態が前記所定の状態にあると判断すれば、制御ユニット12はステップS9を実行する。
ステップS9では、測定部12bが、運転者3の瞳孔運動を測定する処理を行い、次に制御ユニット12はステップS10を実行する。瞳孔運動の測定処理は、ステップS5と同様の測定処理を行うようになっている。
On the other hand, if the state determination unit 12a determines in step S3 that the state of the driver 3 or the vehicle 2 is in the predetermined state, the control unit 12 executes step S9.
In Step S9, measurement part 12b performs processing which measures driver's 3 pupil movement, and then, control unit 12 performs Step S10. The pupil movement measurement process is the same as that in step S5.

ステップS10では、測定部12bが、運転者3の頭部運動を測定する処理を行い、次に制御ユニット12はステップS11を実行する。頭部運動の測定処理は、ステップS6と同様の測定処理を行うようになっている。なお、ステップS9、S10の順序を入れ替えてもよい。   In Step S10, measurement part 12b performs processing which measures driver's 3 head movement, and control unit 12 performs Step S11 next. The head movement measurement process is the same as that in step S6. Note that the order of steps S9 and S10 may be changed.

ステップS11では、付与部12cが、上記ステップS9、S10で測定された前記データに、前庭動眼反射運動の算出に適していること(算出適)を示す第1のラベルを付与する処理を行い、次に制御ユニット12はステップS12を実行する。   In step S11, the assigning unit 12c performs a process of assigning a first label indicating that the data measured in steps S9 and S10 is suitable for calculation of vestibulo-oculomotor reflex motion (calculation suitability), Next, the control unit 12 executes Step S12.

ステップS12では、算出部12fが、第1のラベルが付与された前記データを用いて、前庭動眼反射運動を算出し、次に制御ユニット12はステップS13を実行する。前庭動眼反射運動の算出データには、VORゲイン、残差標準偏差、位相差のうちの少なくともいずれかが含まれる。   In step S12, the calculation unit 12f calculates the vestibulo-ocular reflex movement using the data to which the first label is attached, and then the control unit 12 executes step S13. The calculated data of the vestibulo-ocular reflex movement includes at least one of VOR gain, residual standard deviation, and phase difference.

ステップS13では、眠気判定部12gが運転者3の眠気度を算出し、次のステップS14では、眠気判定部12gが、眠気度が所定の閾値より小さいか否かを判断する。ステップS14において、眠気判定部12gが、眠気度が所定の閾値以上であると判断すれば、制御ユニット12はステップS15を実行する。
ステップS15では、覚醒制御部12hが、ナビゲーション装置50又は振動装置70に、運転者3を覚醒させるための所定の制御信号を出力する処理を行い、次に制御ユニット12はステップS16を実行する。
In step S13, the sleepiness determination unit 12g calculates the sleepiness level of the driver 3, and in the next step S14, the sleepiness determination unit 12g determines whether the sleepiness level is smaller than a predetermined threshold. If the drowsiness determination unit 12g determines in step S14 that the drowsiness level is equal to or greater than a predetermined threshold, the control unit 12 executes step S15.
In step S15, the awakening control unit 12h performs a process of outputting a predetermined control signal for awakening the driver 3 to the navigation device 50 or the vibration device 70, and then the control unit 12 executes step S16.

ステップS16では、始動スイッチ40がオフされたか否かを判断し、始動スイッチ40がオフされていないと判断すれば、制御ユニット12はステップS2の処理に戻る。一方、ステップS16において、始動スイッチ40がオフされたと判断すれば、制御ユニット12はステップS17を実行する。ステップS17では、制御ユニット12がカメラ20の駆動を停止し、処理を終える。   In step S16, it is determined whether or not the start switch 40 is turned off. If it is determined that the start switch 40 is not turned off, the control unit 12 returns to the process of step S2. On the other hand, if it is determined in step S16 that the start switch 40 has been turned off, the control unit 12 executes step S17. In step S17, the control unit 12 stops driving the camera 20 and ends the process.

[作用・効果]
上記実施の形態に係るデータ処理装置10によれば、付与部12cにより付与される識別情報(第1のラベルと第2のラベル)によって、測定部12bで測定された前記データが、前庭動眼反射運動の算出に適した前記所定の状態のときに測定されたデータであるかどうかを適切に識別することができる。
したがって、前記識別情報に基づいて、前記所定の状態のときに測定された前記第1のラベルが付与されたデータを用いることで、実車環境であっても前庭動眼反射運動のモニタリング精度を高めることができる。
[Action / Effect]
According to the data processing device 10 according to the above-described embodiment, the data measured by the measuring unit 12b based on the identification information (first label and second label) given by the giving unit 12c is used for the vestibulo-oculomotor reflection. It is possible to appropriately identify whether or not the data is measured in the predetermined state suitable for calculation of motion.
Therefore, based on the identification information, by using the data with the first label measured in the predetermined state, the monitoring accuracy of the vestibulo-oculomotor reflex movement is improved even in an actual vehicle environment. Can do.

また、データ処理装置10によれば、介入制御部12dによる介入制御によって、運転者3の前庭動眼反射運動の算出に適した状態、換言すれば、運転者3又は車両2を、前庭動眼反射運動の算出のためのシグナルノイズ比を高めることができる状態に促すことができる。   Further, according to the data processing device 10, the intervention control by the intervention control unit 12d allows the driver 3 or the vehicle 2 to move the vestibular movement reflex movement in a state suitable for the calculation of the vestibular movement reflex movement of the driver 3. It is possible to prompt a state where the signal-to-noise ratio for the calculation can be increased.

また、介入制御が行われた後に測定された前記データのうち、データ判定部12eにより前記適したデータと判定された前記データに、付与部12cにより第1のラベルが付与され、前記適したデータではないと判定された前記データに第2のラベルが付与される。そして、付与部12cにより第1のラベルが付与されたデータを用いて前庭動眼反射運動が算出されるので、前記介入制御が行われた後における前庭動眼反射運動のモニタリング精度をより高めることができる。   In addition, among the data measured after intervention control is performed, the data determined by the data determination unit 12e is given the first label by the providing unit 12c, and the suitable data A second label is assigned to the data determined not to be. And since the vestibulooculomotor reflex movement is calculated using the data to which the first label is applied by the applying unit 12c, it is possible to further improve the monitoring accuracy of the vestibulooculomotor reflex movement after the intervention control is performed. .

また、データ処理装置10によれば、前記所定の状態にあると判定された場合、換言すれば、前記SN比が高いと想定される状態では、介入制御部12dによる介入制御を行うことなく、測定部12bで測定された運転者3の瞳孔運動及び頭部運動のデータに、第1のラベルを付与し、前庭動眼反射運動を算出することができ、前記介入制御による運転者3への負担を少なくすることができる。   Further, according to the data processing device 10, when it is determined that the predetermined state is present, in other words, in a state where the S / N ratio is assumed to be high, without performing intervention control by the intervention control unit 12d, The first label is assigned to the pupil movement and head movement data of the driver 3 measured by the measurement unit 12b, and the vestibular movement reflex movement can be calculated. The burden on the driver 3 due to the intervention control. Can be reduced.

また、データ処理装置10によれば、眠気判定部12gを備えているので、実車環境下における運転者3の眠気度を精度良く判定することができ、また、覚醒制御部12hを備えているので、眠気度に応じて運転者3を適切に覚醒させる制御を行うことができる。   Further, according to the data processing device 10, since the drowsiness determination unit 12g is provided, the drowsiness level of the driver 3 in the actual vehicle environment can be accurately determined, and the awakening control unit 12h is provided. Thus, it is possible to perform control to appropriately wake the driver 3 in accordance with the sleepiness level.

また、データ処理装置10とカメラ20とを備えたモニタリングシステム1によれば、実車環境下において導入しやすいモニタリングシステムを提供することができる。
また、データ処理装置10と覚醒装置80とを備えた覚醒システムにより、実車環境下において、運転者3を適切に覚醒させることができるシステムを提供することができる。
Moreover, according to the monitoring system 1 provided with the data processor 10 and the camera 20, it is possible to provide a monitoring system that can be easily introduced in an actual vehicle environment.
Moreover, the system which can awaken the driver | operator 3 appropriately in a real vehicle environment by the awakening system provided with the data processing apparatus 10 and the awakening apparatus 80 can be provided.

[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
[Modification]
As mentioned above, although embodiment of this invention was described in detail, the above description is only the illustration of this invention in all the points. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.

(変形例1)
データ処理装置10の制御ユニット12は、図2に示した各部を全て備えている必要はなく、別の実施の形態では、制御ユニット12が、少なくとも状態判定部12a、測定部12b、付与部12cを備えた第1の構成、該第1の構成に介入制御部12dをさらに備えた第2の構成、前記第2の構成にデータ判定部12eをさらに備えた第3の構成、前記第1〜第3の構成のいずれかに算出部12fをさらに備えた第4の構成、前記第4の構成に眠気判定部12gをさらに備えた第5の構成、又は前記第5の構成に覚醒制御部12hをさらに備えた第6の構成によって構成されてもよい。
(Modification 1)
The control unit 12 of the data processing apparatus 10 does not have to include all the units illustrated in FIG. 2. In another embodiment, the control unit 12 includes at least the state determination unit 12a, the measurement unit 12b, and the provision unit 12c. A first configuration including an intervention control unit 12d in the first configuration, a third configuration further including a data determination unit 12e in the second configuration, A fourth configuration further including a calculation unit 12f in any of the third configurations, a fifth configuration further including a drowsiness determination unit 12g in the fourth configuration, or an awakening control unit 12h in the fifth configuration It may be comprised by the 6th structure further provided.

(変形例2)
図3で説明した制御ユニット12が行う処理動作において、ステップS2とステップS3との間に、ステップS9の瞳孔運動の測定処理と、ステップS10の頭部運動の測定処理とを実行する。そして、頭部運動の測定処理の後、ステップS3の判定処理を行い、ステップS3において、前記所定の状態にあると判断した場合に、ステップS11に進み、算出適の第1のラベルを付し、ステップS12以降の処理を行うようにしてもよい。また、この場合、ステップS3の状態判定処理に代えて、ステップS7のデータ判定処理を実行するようにしてもよい。
(Modification 2)
In the processing operation performed by the control unit 12 described with reference to FIG. 3, the pupil movement measurement process in step S9 and the head movement measurement process in step S10 are executed between step S2 and step S3. Then, after the head movement measurement process, the determination process of step S3 is performed. If it is determined in step S3 that the predetermined state is present, the process proceeds to step S11, and a first label suitable for calculation is attached. The processing after step S12 may be performed. In this case, the data determination process of step S7 may be executed instead of the state determination process of step S3.

(変形例3)
また、ステップS7のデータ判定処理では、運転者3の瞳孔運動及び頭部運動のデータが前庭動眼反射運動の算出に適用可能であるか否かを2値判定で行っているが、別の実施の形態では、2値判定ではなく、適用可能な状態に応じた重み付け判定を行うようにしてもよい。そして、ステップS8において、重み付けに応じたラベルを付与した後、ステップS12に進み、ステップS12では、重み付けラベルが付与された瞳孔運動及び頭部運動のデータを用いて、前庭動眼反射運動を算出するようにしてもよい。
係る構成を採用した場合、測定部12bで測定された前記データが、前庭動眼反射運動の算出に適したデータであるか否かを前記重み付けによって細かく判定することができる。また、前記重み付けを加味して前庭動眼反射運動を算出することにより、前記データの一部だけではなく全てを用いて、実車環境に対応した前庭動眼反射運動をモニタリングすることができる。
(Modification 3)
Further, in the data determination process of step S7, whether or not the data of the pupil movement and head movement of the driver 3 is applicable to the calculation of the vestibular movement reflex movement is determined by binary determination. In this embodiment, instead of binary determination, weighting determination according to an applicable state may be performed. In step S8, a label corresponding to the weight is assigned, and then the process proceeds to step S12. In step S12, vestibular eye movement is calculated using the pupil movement and head movement data to which the weighted label is assigned. You may do it.
When such a configuration is adopted, it is possible to finely determine whether or not the data measured by the measurement unit 12b is data suitable for calculating the vestibulo-oculomotor reflex movement by the weighting. Further, by calculating the vestibular ocular reflex motion in consideration of the weighting, the vestibulo ocular reflex motion corresponding to the actual vehicle environment can be monitored using not only a part of the data but also all.

(変形例4)
また、上記実施の形態では、モニタリングシステム1及びデータ処理装置10が車両2に搭載されている場合について説明したが、モニタリングシステム1及びデータ処理装置10は、車載用に限定されるものではない。
別の実施の形態では、例えば、モニタリングシステム1及びデータ処理装置10を工場内や事務所内に設置して、工場内に装備された設備を操作する人、机で所定の作業を行う人などの眠気をモニタリングするシステムなどにも広く適用することができる。この場合、工場内で人が操作する物には、例えば、生産装置などが挙げられる。また、事務所内で人が操作する物には、例えば、パーソナルコンピュータなどの事務機器などが挙げられる。
(Modification 4)
Moreover, although the said embodiment demonstrated the case where the monitoring system 1 and the data processing apparatus 10 were mounted in the vehicle 2, the monitoring system 1 and the data processing apparatus 10 are not limited to vehicle-mounted use.
In another embodiment, for example, the monitoring system 1 and the data processing device 10 are installed in a factory or an office, and a person who operates equipment installed in the factory, a person who performs a predetermined work on a desk, etc. It can be widely applied to a system for monitoring sleepiness. In this case, a product operated by a person in a factory includes, for example, a production apparatus. In addition, for example, office equipment such as a personal computer can be cited as a thing that a person operates in an office.

[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
人をモニタリングするためのデータ処理を行うデータ処理装置(10)であって、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定部(12a)と、
前記人の瞳孔運動及び頭部運動を測定する測定部(12b)と、
測定部(12b)により測定された前記人の頭部運動及び瞳孔運動のデータに、状態判定部(12a)による判定結果を示す識別情報を付与する付与部(12c)とを備えていることを特徴とするデータ処理装置。
[Appendix]
Embodiments of the present invention can also be described as in the following supplementary notes, but are not limited thereto.
(Appendix 1)
A data processing device (10) for performing data processing for monitoring a person,
A state determination unit (12a) for determining whether the state of the person or an object operated by the person is in a predetermined state suitable for calculation of the vestibulooculomotor reflex movement of the person;
A measurement unit (12b) for measuring the pupil movement and head movement of the person;
A provision unit (12c) for providing identification information indicating a determination result by the state determination unit (12a) to the data of the human head movement and pupil movement measured by the measurement unit (12b); Characteristic data processing device.

(付記2)
データ処理装置(10)と、
人を含む画像を撮像するカメラ(20)とを含み、
データ処理装置(10)の測定部(12b)が、
カメラ(20)から取得した前記画像を用いて、前記人の瞳孔運動及び頭部運動を測定するものであることを特徴とするモニタリングシステム(1)。
(Appendix 2)
A data processing device (10);
A camera (20) for capturing an image including a person,
The measurement unit (12b) of the data processing device (10)
The monitoring system (1), wherein the human eye movement and head movement are measured using the image acquired from the camera (20).

(付記3)
人をモニタリングするためのデータ処理方法であって、
前記人の瞳孔運動及び頭部運動を測定する測定ステップ(ステップS5、S6、またはステップS9、S10)と、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定ステップ(ステップS3、またはステップS7)と、
前記測定ステップにより測定された前記人の頭部運動及び瞳孔運動を示すデータに、前記状態判定ステップにより判定された結果を示す識別情報を付与する付与ステップ(ステップS8、又はステップS9)と、を含むステップを実行させることを特徴とするデータ処理方法。
(Appendix 3)
A data processing method for monitoring a person,
A measuring step (steps S5, S6, or steps S9, S10) for measuring the human pupil movement and head movement;
A state determination step (step S3 or step S7) for determining whether or not the state of the person or an object operated by the person is in a predetermined state suitable for calculation of the vestibulooculomotor reflex movement of the person;
An adding step (step S8 or step S9) for adding identification information indicating a result determined by the state determination step to data indicating the head movement and pupil movement of the person measured by the measurement step; The data processing method characterized by performing the step which contains.

(付記4)
人をモニタリングするためのデータ処理を少なくとも1つのコンピュータに実行させるためのデータ処理プログラムであって、
前記少なくとも1つのコンピュータ(12)に、
人の瞳孔運動及び頭部運動を測定する測定ステップ(ステップS5、S6、またはステップS9、S10)と、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定ステップ(ステップS3、またはステップS7)と、
前記測定ステップにより測定された前記人の頭部運動及び瞳孔運動を示すデータに、前記状態判定ステップにより判定された結果を示す識別情報を付与する付与ステップ(ステップS8、又はステップS9)と、を実行させることを特徴とするデータ処理プログラム。
(Appendix 4)
A data processing program for causing at least one computer to execute data processing for monitoring a person,
Said at least one computer (12),
A measurement step (steps S5, S6, or steps S9, S10) for measuring human pupil movement and head movement;
A state determination step (step S3 or step S7) for determining whether or not the state of the person or an object operated by the person is in a predetermined state suitable for calculation of the vestibulooculomotor reflex movement of the person;
An adding step (step S8 or step S9) for adding identification information indicating a result determined by the state determination step to data indicating the head movement and pupil movement of the person measured by the measurement step; A data processing program that is executed.

1モニタリングシステム
2 車両
3 運転者
10 データ処理装置
11 データ取得部
12 制御ユニット
12a 状態判定部
12b 測定部
12c 付与部
12d 介入制御部
12e データ判定部
12f 算出部
12g 眠気判定部
12h 覚醒制御部
13 記憶ユニット
13a 画像記憶部
13b 取得データ記憶部
13c 測定データ記憶部
13d プログラム記憶部
20 カメラ
30 車載センサ
31 車外センサ
32 加速度センサ
33 ジャイロセンサ
34 操舵センサ
40 始動スイッチ
50 ナビゲーション装置
60 電子制御ユニット(ECU)
61 サスペンション制御ユニット
70 振動装置
80 覚醒装置
1 monitoring system 2 vehicle 3 driver 10 data processor 11 data acquisition unit 12 control unit 12a state determination unit 12b measurement unit 12c application unit 12d intervention control unit 12e data determination unit 12f calculation unit 12g sleepiness determination unit 12h awakening control unit 13 storage Unit 13a Image storage unit 13b Acquired data storage unit 13c Measurement data storage unit 13d Program storage unit 20 Camera 30 In-vehicle sensor 31 Outside sensor 32 Acceleration sensor 33 Gyro sensor 34 Steering sensor 40 Start switch 50 Navigation device 60 Electronic control unit (ECU)
61 Suspension control unit 70 Vibrating device 80 Awakening device

Claims (14)

人をモニタリングするためのデータ処理を行うデータ処理装置であって、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定部と、
前記人の瞳孔運動及び頭部運動を測定する測定部と、
該測定部により測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定部による判定結果を示す識別情報を付与する付与部とを備えていることを特徴とするデータ処理装置。
A data processing device that performs data processing for monitoring a person,
A state determination unit that determines whether the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person;
A measurement unit for measuring pupil movement and head movement of the person;
A data processing apparatus comprising: an adding unit that adds identification information indicating a determination result by the state determination unit to data related to the human head movement and pupil movement measured by the measurement unit .
前記状態判定部により、前記人又は前記物の状態が前記所定の状態にはないと判定された場合に、前記人又は前記物の状態が前記所定の状態になるように介入制御を行う介入制御部を備えていることを特徴とする請求項1記載のデータ処理装置。   Intervention control for performing intervention control so that the state of the person or the object becomes the predetermined state when the state determination unit determines that the state of the person or the object is not in the predetermined state The data processing apparatus according to claim 1, further comprising a unit. 前記データと前記識別情報とを用いて、前記前庭動眼反射運動を算出する算出部を備えていることを特徴とする請求項1又は請求項2記載のデータ処理装置。   The data processing apparatus according to claim 1, further comprising a calculation unit configured to calculate the vestibulo-oculomotor reflex movement using the data and the identification information. 前記付与部が、
前記所定の状態にある場合に測定された前記データに第1の識別情報を付与し、
前記所定の状態にない場合に測定された前記データに第2の識別情報を付与するものであり、
前記算出部が、
前記データのうち、前記第1の識別情報が付与された前記データを用いて、前記前庭動眼反射運動を算出するものであることを特徴とする請求項3記載のデータ処理装置。
The grant unit is
Giving first identification information to the data measured when in the predetermined state;
Giving the second identification information to the data measured when not in the predetermined state,
The calculation unit
The data processing apparatus according to claim 3, wherein the vestibulo-ocular reflex movement is calculated using the data to which the first identification information is assigned among the data.
前記データと前記識別情報とを用いて、前記前庭動眼反射運動を算出する算出部と、
前記介入制御部により前記介入制御が行われた後、前記測定部により測定された前記データが、前記前庭動眼反射運動の算出に適したデータであるか否かを判定するデータ判定部とを備え、
前記付与部が、
前記測定部により測定された前記データのうち、前記データ判定部により前記適したデータと判定された前記データに第1の識別情報を付し、前記適したデータではないと判定された前記データに第2の識別情報を付すものであり、
前記算出部が、
前記データのうち、前記第1の識別情報が付与された前記データを用いて、前記前庭動眼反射運動を算出するものであることを特徴とする請求項2記載のデータ処理装置。
Using the data and the identification information, a calculation unit that calculates the vestibulo-oculomotor reflex movement,
A data determination unit for determining whether the data measured by the measurement unit after the intervention control by the intervention control unit is data suitable for calculation of the vestibulo-ocular reflex movement; ,
The grant unit is
Of the data measured by the measurement unit, first identification information is attached to the data determined to be the appropriate data by the data determination unit, and the data determined not to be the suitable data With second identification information,
The calculation unit
The data processing apparatus according to claim 2, wherein the vestibulo-ocular reflex movement is calculated using the data to which the first identification information is given among the data.
前記算出部により算出された前記前庭動眼反射運動を用いて、前記人の眠気度を判定する眠気判定部を備えていることを特徴とする請求項3〜5のいずれかの項に記載のデータ処理装置。   The data according to any one of claims 3 to 5, further comprising a drowsiness determination unit that determines the sleepiness level of the person using the vestibulo-oculomotor reflex movement calculated by the calculation unit. Processing equipment. 前記眠気判定部により判定された前記眠気度に基づいて、前記人を覚醒させるための制御を行う覚醒制御部を備えていることを特徴とする請求項6記載のデータ処理装置。   The data processing apparatus according to claim 6, further comprising an awakening control unit that performs control for waking up the person based on the sleepiness degree determined by the sleepiness determination unit. 前記物が車両であり、
前記人が前記車両を運転する運転者であることを特徴とする請求項1〜7のいずれかの項に記載のデータ処理装置。
The object is a vehicle;
The data processing apparatus according to claim 1, wherein the person is a driver who drives the vehicle.
前記状態判定部が、
前記データに含まれるノイズ、前記運転者の視線方向、前記車両の走行状態、及び前記車両の進行方向に存在する物体の検出状態のうちの少なくともいずれかに基づいて、前記所定の状態にあるか否かを判定するものであることを特徴とする請求項8記載のデータ処理装置。
The state determination unit is
Whether the vehicle is in the predetermined state based on at least one of noise included in the data, the driver's line-of-sight direction, the traveling state of the vehicle, and the detection state of an object existing in the traveling direction of the vehicle. 9. The data processing apparatus according to claim 8, wherein the data processing apparatus determines whether or not.
前記車両の加速度を取得する取得部を備え、
前記状態判定部が
前記車両から取得した該車両の加速度の変化と、前記測定部により測定された前記運転者の頭部運動又は瞳孔運動とが所定の関係にある場合に、前記所定の状態にあると判定するものであることを特徴とする請求項8記載のデータ処理装置。
An acquisition unit for acquiring the acceleration of the vehicle;
When the state determination unit has a predetermined relationship between a change in acceleration of the vehicle acquired from the vehicle and the head movement or pupil movement of the driver measured by the measurement unit, the predetermined state is established. 9. The data processing apparatus according to claim 8, wherein the data processing apparatus is determined to be present.
請求項1〜10のいずれかの項に記載のデータ処理装置と、
前記人を含む画像を撮像するカメラとを含み、
前記データ処理装置の前記測定部が、
前記カメラから取得した前記画像を用いて、前記人の瞳孔運動及び頭部運動を測定するものであることを特徴とするモニタリングシステム。
A data processing device according to any one of claims 1 to 10,
A camera for capturing an image including the person,
The measurement unit of the data processing device is
A monitoring system for measuring pupil movement and head movement of the person using the image acquired from the camera.
請求項7記載のデータ処理装置と、
該データ処理装置の前記覚醒制御部により制御される覚醒装置とを含んで構成されていることを特徴とする覚醒システム。
A data processing device according to claim 7;
A wake-up system comprising: a wake-up device controlled by the wake-up control unit of the data processing device.
人をモニタリングするためのデータ処理方法であって、
前記人の瞳孔運動及び頭部運動を測定する測定ステップと、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定ステップと、
前記測定ステップにより測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定ステップにより判定された結果を示す識別情報を付与する付与ステップとを含むステップを実行させることを特徴とするデータ処理方法。
A data processing method for monitoring a person,
A measuring step for measuring pupil movement and head movement of the person;
A state determination step of determining whether or not the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person;
A step including an adding step of adding identification information indicating a result determined by the state determining step to data related to the human head movement and pupil movement measured by the measuring step. Data processing method.
人をモニタリングするためのデータ処理を少なくとも1つのコンピュータに実行させるためのデータ処理プログラムであって、
前記少なくとも1つのコンピュータに、
人の瞳孔運動及び頭部運動を測定する測定ステップと、
前記人又は該人が操作する物の状態が、前記人の前庭動眼反射運動の算出に適した所定の状態にあるか否かを判定する状態判定ステップと、
前記測定ステップにより測定された前記人の頭部運動及び瞳孔運動に係るデータに、前記状態判定ステップにより判定された結果を示す識別情報を付与する付与ステップとを実行させることを特徴とするデータ処理プログラム。
A data processing program for causing at least one computer to execute data processing for monitoring a person,
Said at least one computer,
A measuring step for measuring human pupil movement and head movement;
A state determination step of determining whether or not the state of the person or an object operated by the person is in a predetermined state suitable for calculating the vestibulooculomotor reflex movement of the person;
A data processing characterized by causing the data relating to the head movement and pupil movement of the person measured in the measurement step to perform an adding step for giving identification information indicating a result determined in the state determination step program.
JP2018019761A 2018-02-07 2018-02-07 Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program Active JP6418342B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018019761A JP6418342B1 (en) 2018-02-07 2018-02-07 Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
PCT/JP2019/002466 WO2019155914A1 (en) 2018-02-07 2019-01-25 Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018019761A JP6418342B1 (en) 2018-02-07 2018-02-07 Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program

Publications (2)

Publication Number Publication Date
JP6418342B1 true JP6418342B1 (en) 2018-11-07
JP2019136166A JP2019136166A (en) 2019-08-22

Family

ID=64098790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018019761A Active JP6418342B1 (en) 2018-02-07 2018-02-07 Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program

Country Status (2)

Country Link
JP (1) JP6418342B1 (en)
WO (1) WO2019155914A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015496A (en) * 2019-07-12 2021-02-12 株式会社東海理化電機製作所 Determination device and program
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7376996B2 (en) * 2019-03-18 2023-11-09 株式会社Subaru Vehicle dangerous situation determination device, vehicle dangerous situation determination method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008091759A1 (en) * 2007-01-26 2008-07-31 University Of Florida Research Foundation, Inc. Apparatus and methods for assessment of vestibulo-ocular reflexes
WO2010032424A1 (en) * 2008-09-18 2010-03-25 学校法人中部大学 Sleepiness signal detector
JP2015095162A (en) * 2013-11-13 2015-05-18 株式会社デンソー Driver monitoring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008091759A1 (en) * 2007-01-26 2008-07-31 University Of Florida Research Foundation, Inc. Apparatus and methods for assessment of vestibulo-ocular reflexes
WO2010032424A1 (en) * 2008-09-18 2010-03-25 学校法人中部大学 Sleepiness signal detector
JP2015095162A (en) * 2013-11-13 2015-05-18 株式会社デンソー Driver monitoring system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
平田豊: "眼球運動による運動学習神経機構理解,ロボット制御,ドライバ状態検知", 基礎心理学研究, vol. 33, no. 1, JPN6018018266, 2014, pages 81 - 85 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program
JPWO2020152732A1 (en) * 2019-01-21 2021-09-09 三菱電機株式会社 Attention determination device, attention determination system, attention determination method, and program
JP2021015496A (en) * 2019-07-12 2021-02-12 株式会社東海理化電機製作所 Determination device and program

Also Published As

Publication number Publication date
JP2019136166A (en) 2019-08-22
WO2019155914A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
CN107336710B (en) Drive consciousness estimating device
JP6950346B2 (en) Driver status grasping device, driver status grasping system, and driver status grasping method
CN109791739B (en) Carsickness estimation device, carsickness prevention device, and carsickness estimation method
JP6666892B2 (en) Driving support device and driving support method
CN108621923A (en) The control method of the display system of vehicle and the display system of vehicle
JP6693489B2 (en) Information processing device, driver monitoring system, information processing method, and information processing program
KR20200113202A (en) Information processing device, mobile device, and method, and program
JP2018180594A (en) Running support device
JP6683185B2 (en) Information processing device, driver monitoring system, information processing method, and information processing program
JP6418342B1 (en) Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
JP6418341B1 (en) Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
US10684695B2 (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
CN108621940A (en) The control method of the display system of vehicle and the display system of vehicle
JP2008079737A (en) Concentration degree evaluating apparatus and display device for vehicle equipped with the same
WO2019176492A1 (en) Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium
JPH07117593A (en) Alarm device for vehicle
JP7331728B2 (en) Driver state estimation device
JP2018139070A (en) Vehicle display control device
JP7331729B2 (en) Driver state estimation device
US20230227044A1 (en) Apparatus, method, and computer program for monitoring driver
JP7114953B2 (en) In-vehicle device, driving evaluation device, driving evaluation system provided with these, data transmission method, and data transmission program
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
JP7298510B2 (en) state estimator
JP7318560B2 (en) state estimator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180314

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180314

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6418342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150