JP2019146690A - Perceptibility evaluation system - Google Patents

Perceptibility evaluation system Download PDF

Info

Publication number
JP2019146690A
JP2019146690A JP2018032296A JP2018032296A JP2019146690A JP 2019146690 A JP2019146690 A JP 2019146690A JP 2018032296 A JP2018032296 A JP 2018032296A JP 2018032296 A JP2018032296 A JP 2018032296A JP 2019146690 A JP2019146690 A JP 2019146690A
Authority
JP
Japan
Prior art keywords
driver
visual
unit
timing
evaluation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018032296A
Other languages
Japanese (ja)
Inventor
有紀 脇
Yuki Waki
有紀 脇
啓太 芳村
Keita Yoshimura
啓太 芳村
幹生 岩川
Mikio Iwakawa
幹生 岩川
弘子 小岩
Hiroko Koiwa
弘子 小岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018032296A priority Critical patent/JP2019146690A/en
Publication of JP2019146690A publication Critical patent/JP2019146690A/en
Pending legal-status Critical Current

Links

Abstract

To provide a perceptibility evaluation system capable of objectively evaluating perceptibility of a driver of a mobile body.SOLUTION: A timing identification unit 2 estimates a viewing angle and distinguishable limit value of a viewing target using an image acquired from an imaging device 11 for imaging a viewing environment of a driver of a vehicle (mobile body) to identify generation timing of the viewing target. A potential extraction unit 3 determines an addition start point for a plurality of pieces of brain wave data that correspond to respective generation timing of a plurality of viewing targets identified sequentially by the timing identification unit 2 in a one-to-one manner and are acquired from a brain wave measurement unit 12 for measuring the driver's brain wave and performs addition average on the plurality of pieces of brain wave data to extract event-related potential. A perceptibility determination unit 4 determines perceptibility on the basis of the event-related potential's latent time. The timing identification unit 2 extracts a viewing target region corresponding to a viewing target positioned within the image's image region corresponding to the driver's peripheral visual field region to estimate a viewing angle of the viewing target.SELECTED DRAWING: Figure 1

Description

本発明は、一般に視認性評価システムに関し、より詳細には、移動体の運転者の視認性を評価する視認性評価システムに関する。   The present invention generally relates to a visibility evaluation system, and more particularly to a visibility evaluation system that evaluates the visibility of a driver of a moving object.

従来、脳波を用いて運転者の状態を判定し安全運転支援を行う運転注意量判定装置が提案されている(特許文献1)。   Conventionally, a driving attention amount determination device that determines a driver's state using an electroencephalogram and performs safe driving support has been proposed (Patent Document 1).

特許文献1に記載された運転注意量判定装置は、脳波計測部と、撮影部と、周辺刺激検出部と、注意量判定部と、出力部と、を備える。   The driving attention amount determination apparatus described in Patent Literature 1 includes an electroencephalogram measurement unit, an imaging unit, a peripheral stimulus detection unit, an attention amount determination unit, and an output unit.

脳波計測部は、運転者の脳波信号を計測する。撮影部は、運転者が運転する車両の前方の映像を撮影する。周辺刺激検出部は、撮影部により撮影された映像から、運転者の周辺視野領域内で発生した視覚刺激の発生時点を検出する。注意量判定部は、運転者の周辺視野領域で発生した視覚刺激の発生時点を起点とする、脳波信号の事象関連電位を利用して、運転者の周辺視野領域に対する注意量を判定する。出力部は、注意量判定部の判定結果に基づいて信号を出力することにより、運転者に対して注意を喚起する。注意量判定部は、周辺刺激検出部により検出された視覚刺激の発生時点を特定する情報を周辺刺激検出部から受け取る。   The electroencephalogram measurement unit measures a driver's electroencephalogram signal. The imaging unit captures an image in front of the vehicle driven by the driver. The peripheral stimulus detection unit detects an occurrence time point of the visual stimulus generated in the driver's peripheral visual field region from the video imaged by the photographing unit. The attention amount determination unit determines an attention amount with respect to the driver's peripheral visual field region using an event-related potential of the electroencephalogram signal starting from the generation time point of the visual stimulus generated in the driver's peripheral visual field region. The output unit alerts the driver by outputting a signal based on the determination result of the attention amount determination unit. The attention amount determination unit receives information specifying the generation time point of the visual stimulus detected by the peripheral stimulus detection unit from the peripheral stimulus detection unit.

特許文献1には、視覚刺激は、運転注意量判定装置に設けられた発光装置の発光によって与えられてもよいし、外部環境(例えば他車が点灯させたランプ等)から与えられてもよい旨が記載されている。   According to Patent Document 1, the visual stimulus may be given by light emission of a light emitting device provided in the driving attention amount determination device, or may be given from an external environment (for example, a lamp lighted by another vehicle). The effect is described.

特許第4625544号公報Japanese Patent No. 4625544

特許文献1に記載された運転注意量判定装置では、運転者の周辺視野領域に対する注意量を判定することができる。   With the driving attention amount determination device described in Patent Document 1, it is possible to determine a driver's attention amount with respect to the peripheral visual field region.

しかしながら、移動体(自動車等)の運転者の視認性評価技術については、視認性を客観的に評価する技術の開発が望まれていた。   However, regarding a visibility evaluation technique for a driver of a mobile object (such as an automobile), development of a technique for objectively evaluating the visibility has been desired.

本発明の目的は、移動体の運転者の視認性を客観的に評価することが可能な視認性評価システムを提供することにある。   An object of the present invention is to provide a visibility evaluation system capable of objectively evaluating the visibility of a driver of a moving object.

本発明の一態様の視認性評価システムは、タイミング特定部と、電位抽出部と、視認性判定部と、を備える。前記タイミング特定部は、移動体の運転者の視環境を撮影する撮像装置から取得した画像を用いて視対象の視角及び識別可能限界値を推定し、推定した視角及び識別可能限界値を用いて視対象の発生タイミングを特定する。前記電位抽出部は、前記タイミング特定部により順次特定された複数の視対象それぞれの発生タイミングに一対一に対応する複数の脳波データであって前記運転者の脳波を計測する脳波計測部から取得した複数の脳波データ、の加算起点を決定し、前記複数の脳波データを加算平均することによって事象関連電位を抽出する。前記視認性判定部は、前記電位抽出部によって抽出された事象関連電位の潜時に基づいて前記運転者の視認性を判定する。前記タイミング特定部は、前記撮像装置から取得した画像において前記運転者の周辺視野領域に対応する画像領域内に位置している視対象に対応する視対象領域を抽出し、視対象の視角を推定する。   The visibility evaluation system of 1 aspect of this invention is equipped with a timing specific | specification part, an electric potential extraction part, and a visibility determination part. The timing specifying unit estimates a viewing angle and an identifiable limit value of a visual target using an image acquired from an imaging device that captures a visual environment of a driver of a moving object, and uses the estimated viewing angle and an identifiable limit value. Specify the generation timing of the visual target. The potential extracting unit is a plurality of electroencephalogram data corresponding to the generation timing of each of a plurality of visual objects sequentially specified by the timing specifying unit, and acquired from an electroencephalogram measuring unit that measures the driver's electroencephalogram. An addition starting point of a plurality of electroencephalogram data is determined, and an event-related potential is extracted by averaging the plurality of electroencephalogram data. The visibility determination unit determines the visibility of the driver based on the latency of the event-related potential extracted by the potential extraction unit. The timing specifying unit extracts a visual target region corresponding to a visual target located in an image region corresponding to the driver's peripheral visual field region in an image acquired from the imaging device, and estimates a visual angle of the visual target To do.

本発明は、移動体の運転者の視認性を客観的に評価することが可能となる。   The present invention makes it possible to objectively evaluate the visibility of a driver of a moving object.

図1は、実施形態に係る視認性評価システムのブロック図である。FIG. 1 is a block diagram of the visibility evaluation system according to the embodiment. 図2は、同上の視認性評価システムでの移動体と視対象との位置関係の一例の説明図である。FIG. 2 is an explanatory diagram of an example of the positional relationship between the moving object and the visual target in the visibility evaluation system same as above. 図3は、自動車の運転者の中心視野領域及び周辺視野領域の説明図である。FIG. 3 is an explanatory diagram of the central visual field area and the peripheral visual field area of the driver of the automobile. 図4は、同上の視認性評価システムのタイミング特定部の動作を説明するフローチャートである。FIG. 4 is a flowchart for explaining the operation of the timing specifying unit of the above-described visibility evaluation system. 図5は、実施形態に係る視認性評価システムにおいて用いる識別可能限界値とコントラストとの関係説明図である。FIG. 5 is an explanatory diagram of the relationship between the distinguishable limit value and the contrast used in the visibility evaluation system according to the embodiment. 図6は、同上の視認性評価システムの動作説明図である。FIG. 6 is an operation explanatory diagram of the visibility evaluation system. 図7は、実施形態の変形例1に係る視認性評価システムのブロック図である。FIG. 7 is a block diagram of a visibility evaluation system according to Modification 1 of the embodiment. 図8は、同上の視認性評価システムにおいて用いる識別可能限界値と視力との関係説明図である。FIG. 8 is an explanatory diagram of the relationship between the discriminable limit value and visual acuity used in the visibility evaluation system same as above. 図9は、実施形態の変形例2に係る視認性評価システムにおいて用いる識別可能限界値と背景輝度との関係説明図である。FIG. 9 is an explanatory diagram of the relationship between the discriminable limit value and the background luminance used in the visibility evaluation system according to Modification 2 of the embodiment.

(実施形態)
以下、実施形態に係る視認性評価システムについて、図1〜6を参照して説明する。
(Embodiment)
Hereinafter, the visibility evaluation system according to the embodiment will be described with reference to FIGS.

(1)概要
実施形態に係る視認性評価システム1は、図2及び3に示すように、例えば、自動車(移動体)20を運転する運転者30の視認性の評価に用いられるシステムである。
(1) Outline As shown in FIGS. 2 and 3, the visibility evaluation system 1 according to the embodiment is a system used for evaluating the visibility of a driver 30 who drives an automobile (moving body) 20, for example.

視認性評価システム1は、自動車20の運転者30の運転中の視環境に出現する視対象40に対する運転者30の視認性を評価する。ここにおいて、「視環境」とは、運転者30に運転者30の視覚を通じて認識される環境である。視認性評価システム1は、運転者30の視環境に発生する視対象40を運転者30に対する感覚刺激(視覚刺激)として利用し、運転者30の脳波の事象関連電位(Event-Related Potential:ERP)を利用して視認性を評価する。「事象関連電位」とは、脳波の一部であり、外的な事象に時間的に関連して生じる脳の一過性の電位変動をいう。視認性評価システム1では、「事象関連電位」として、運転者30の脳波において、外的な視覚刺激の発生タイミングを起点として約300ミリ秒付近に出現する陽性成分(「P300」と呼ばれている)を利用する。「陽性成分」とは、0μVよりも大きい電位をいう。P300の潜時は、例えば、250ミリ秒〜600ミリ秒の範囲である。   The visibility evaluation system 1 evaluates the visibility of the driver 30 with respect to the visual target 40 that appears in the visual environment during driving of the driver 30 of the automobile 20. Here, the “visual environment” is an environment recognized by the driver 30 through the vision of the driver 30. The visibility evaluation system 1 uses the visual target 40 generated in the visual environment of the driver 30 as a sensory stimulus (visual stimulus) for the driver 30, and the event-related potential (Event-Related Potential: ERP) of the brain wave of the driver 30. ) To evaluate visibility. An “event-related potential” is a part of an electroencephalogram and refers to a transient potential fluctuation in the brain that occurs temporally in relation to an external event. In the visibility evaluation system 1, as an “event-related potential”, a positive component (referred to as “P300”) that appears in the brain wave of the driver 30 around about 300 milliseconds from the generation timing of an external visual stimulus. Use). “Positive component” refers to a potential greater than 0 μV. The latency of P300 is, for example, in the range of 250 milliseconds to 600 milliseconds.

(2)構成
(2.1)視認性評価システムの全体構成
実施形態に係る視認性評価システム1は、図1に示すように、タイミング特定部2と、電位抽出部3と、視認性判定部4と、を備える。タイミング特定部2は、運転者30の視環境を撮影する撮像装置11から取得した画像を利用して、運転者30の視環境に発生する視対象40(視覚刺激)の発生タイミング(発生時点)を特定する。電位抽出部3は、脳波計測部12により計測した運転者30の脳波に基づいて事象関連電位を抽出する。視認性判定部4は、電位抽出部3によって抽出された事象関連電位の潜時に基づいて運転者30の視認性を判定する。ここにおいて、「潜時」とは、視覚刺激が発生した時点を起点としてP300のピークが出現するまでの時間である。つまり、「潜時」とは、視対象40の発生タイミング(発生時点)から脳波のP300に対応する上記範囲において電位がピークになるまでの時点である。視認性判定部4は、潜時が短いほど視認性が高いと判定し、潜時が長いほど視認性が低いと判定する。
(2) Configuration (2.1) Overall Configuration of the Visibility Evaluation System As shown in FIG. 1, the visibility evaluation system 1 according to the embodiment includes a timing specifying unit 2, a potential extraction unit 3, and a visibility determination unit. 4. The timing specifying unit 2 uses the image acquired from the imaging device 11 that captures the visual environment of the driver 30 to generate the generation timing (occurrence time) of the visual target 40 (visual stimulus) generated in the visual environment of the driver 30. Is identified. The potential extraction unit 3 extracts an event-related potential based on the brain wave of the driver 30 measured by the brain wave measurement unit 12. The visibility determination unit 4 determines the visibility of the driver 30 based on the latency of the event-related potential extracted by the potential extraction unit 3. Here, the “latency” is the time until the peak of P300 appears from the time when the visual stimulus is generated. That is, the “latency” is a time from when the visual target 40 is generated (occurrence time) until the potential reaches a peak in the above range corresponding to the electroencephalogram P300. The visibility determination unit 4 determines that the visibility is higher as the latency is shorter, and determines that the visibility is lower as the latency is longer.

また、視認性評価システム1は、視認性判定部4の判定結果を出力する出力部5を更に備える。   The visibility evaluation system 1 further includes an output unit 5 that outputs the determination result of the visibility determination unit 4.

撮像装置11及び脳波計測部12は、視認性評価システム1の構成要素ではないが、説明の便宜上、視認性評価システム1の各構成要素についてより詳細に説明する前に、撮像装置11及び脳波計測部12について説明する。なお、視認性評価システム1が撮像装置11と脳波計測部12との少なくとも一方を備えていてもよい。   Although the imaging device 11 and the electroencephalogram measurement unit 12 are not constituent elements of the visibility evaluation system 1, for convenience of explanation, before describing each constituent element of the visibility evaluation system 1 in more detail, the imaging device 11 and the electroencephalogram measurement. The unit 12 will be described. The visibility evaluation system 1 may include at least one of the imaging device 11 and the electroencephalogram measurement unit 12.

脳波計測部12は、運転者30の脳波を計測する。脳波計測部12は、例えば、脳波計である。脳波計測部12は、例えば、運転者30の頭部に装着された複数の電極における電位変化を計測することによって脳波信号を検出する。   The electroencephalogram measurement unit 12 measures the electroencephalogram of the driver 30. The electroencephalogram measurement unit 12 is, for example, an electroencephalograph. The electroencephalogram measurement unit 12 detects an electroencephalogram signal, for example, by measuring potential changes at a plurality of electrodes attached to the head of the driver 30.

運転者30の頭部に装着する複数の電極は、導出電極、基準電極及び接地電極を含む。複数の電極は、例えば、国際10−20法に基づいて、例えば、導出電極をPz(正中頭頂)、基準電極をA1(右耳朶)、接地電極を前額部に配置する。導出電極は、Pz(正中頭頂)の代わりに、Pz周辺のCz(頭蓋頂)又はOz(後頭部)に配置してもよい。脳波計は、ヘッドマウント式脳波計であってもよい。   The plurality of electrodes mounted on the head of the driver 30 includes a lead electrode, a reference electrode, and a ground electrode. For example, based on the International 10-20 method, for example, the lead electrode is Pz (medial parietal), the reference electrode is A1 (right earlobe), and the ground electrode is disposed on the forehead. The lead-out electrode may be arranged on Cz (cranial head) or Oz (occipital region) around Pz instead of Pz (median parietal head). The electroencephalograph may be a head-mounted electroencephalograph.

撮像装置11は、例えば、動画撮影が可能なカメラである。撮像装置11は、運転者30の視環境を撮像する。撮像装置11は、例えば、運転者30の頭部に装着可能に構成されており、運転者30に設けられる。撮像装置11は、運転者30に設けられる場合に限らず、例えば、自動車20のダッシュボードの上、バックミラーの後ろ等に配置されていてもよい。撮像装置11の横方向の視野角は、例えば、135度である。また、撮像装置11の縦方向の視野角は、例えば、105度である。これらの視野角は、一例であり、特に限定されない。また、撮像装置11による動画のフレームレートは、例えば、60fpsである。この場合、撮像装置11は、1秒間に60フレームの画像を出力する。   The imaging device 11 is a camera capable of moving image shooting, for example. The imaging device 11 images the visual environment of the driver 30. The imaging device 11 is configured to be attachable to the head of the driver 30, for example, and is provided in the driver 30. The imaging device 11 is not limited to being provided to the driver 30, and may be disposed, for example, on the dashboard of the automobile 20 or behind the rearview mirror. The viewing angle in the horizontal direction of the imaging device 11 is, for example, 135 degrees. Further, the viewing angle in the vertical direction of the imaging device 11 is, for example, 105 degrees. These viewing angles are examples and are not particularly limited. Moreover, the frame rate of the moving image by the imaging device 11 is 60 fps, for example. In this case, the imaging device 11 outputs an image of 60 frames per second.

(2.2)視認性評価システムの詳細
視認性評価システム1は、撮像装置11によって撮影された映像に基づいて、脳波の事象関連電位を分析する際の起点となる視対象40(視覚刺激)の発生タイミングを特定する。より詳細には、タイミング特定部2は、自動車(移動体)20の運転者30の視環境を撮影する撮像装置11から取得した画像を用いて視対象40の視角及び識別可能限界値を推定し、推定した視角及び識別可能限界値を用いて視対象40の発生タイミングを特定する。一例として、タイミング特定部2は、視対象40の視角が識別可能限界値を上回ったタイミングを視対象40の発生タイミングとして特定する。
(2.2) Details of Visibility Evaluation System The visibility evaluation system 1 is a visual target 40 (visual stimulus) serving as a starting point when analyzing an event-related potential of an electroencephalogram based on an image captured by the imaging device 11. Specify the timing of occurrence. More specifically, the timing specifying unit 2 estimates the viewing angle and the identifiable limit value of the visual target 40 using an image acquired from the imaging device 11 that captures the visual environment of the driver 30 of the automobile (moving body) 20. The generation timing of the visual target 40 is specified using the estimated viewing angle and the discriminable limit value. As an example, the timing specifying unit 2 specifies the timing when the visual angle of the visual target 40 exceeds the discriminable limit value as the generation timing of the visual target 40.

運転者30の視環境は、自動車20の運転座席に着座した運転者30が前方を向いた状態で自動車20の運転中に見える環境である。より詳細には、運転者30の視環境は、例えば、夜間に自動車20のヘッドライト(前照灯)を点灯させた状態で自動車20が道路50上を走行しているときに運転者30に見える環境である。   The visual environment of the driver 30 is an environment that can be seen while driving the automobile 20 with the driver 30 seated on the driver's seat of the automobile 20 facing forward. More specifically, the visual environment of the driver 30 is determined by the driver 30 when the vehicle 20 is traveling on the road 50 with the headlight (headlight) of the vehicle 20 turned on at night, for example. It is a visible environment.

タイミング特定部2は、撮像装置11から取得した画像内の視対象に対応する領域を抽出し、視対象40の視角を推定する。ここにおいて、視対象40とは、視環境において道路50の路面を含む大地よりも上に見える物体である。ここにおいて、「物体」は、自動車20の運転者30にとって危険と感じられる危険対象物であり、例えば、道路に飛び出した歩行者等である。「視対象40の視角」とは、運転者30の眼と視対象40(物体)の左右両端を結んだ二直線のなす角の大きさである。したがって、視対象40の視角が大きいほど、運転者30の眼には、視対象40が大きく見える。   The timing specifying unit 2 extracts a region corresponding to the visual target in the image acquired from the imaging device 11 and estimates the visual angle of the visual target 40. Here, the visual target 40 is an object that is visible above the ground including the road surface of the road 50 in the visual environment. Here, the “object” is a dangerous object that is perceived as dangerous for the driver 30 of the automobile 20, for example, a pedestrian or the like jumping out on the road. The “viewing angle of the visual target 40” is the size of an angle formed by two straight lines connecting the eyes of the driver 30 and the left and right ends of the visual target 40 (object). Therefore, the larger the viewing angle of the visual target 40, the larger the visual target 40 appears to the eyes of the driver 30.

タイミング特定部2は、画像内の視対象に対応する領域を抽出する際に、撮像装置11から取得した画像において運転者30の周辺視野領域A2(図3参照)に対応する画像領域内に位置している視対象に対応する視対象領域を抽出する。ここにおいて、「周辺視野領域A2」とは、運転者30の視野領域A0のうち、運転者30の視線方向D1(図3参照)を中心として定まる中心視野領域A1(図3参照)以外の3次元の領域をいう。中心視野領域A1は、運転者30の視線方向D1を軸とした円錐を想定したときに、その円錐の側面と視線方向がなす一定の角度によって囲まれた3次元の領域として定義できる。この一定の角度は、例えば、約10度である。一例として、「周辺視野領域A2」とは、視線方向D1を中心にした約20度の範囲(中心視野領域A1)から外れた上下130度、左右180度の領域を指している。したがって、運転者30の視角20度以内の領域を中心視野領域A1とし、それ以外の領域(上下方向のそれぞれについて、視線方向D1を中心とした20度以上〜130度以下、左右方向のそれぞれについて、視線方向D1を中心とした20度以上〜180度以下の領域)を周辺視野領域A2とすることができる。   When the timing specifying unit 2 extracts a region corresponding to the visual target in the image, the timing specifying unit 2 is positioned in the image region corresponding to the peripheral visual field region A2 (see FIG. 3) of the driver 30 in the image acquired from the imaging device 11. A visual target area corresponding to the visual target being extracted is extracted. Here, the “peripheral visual field area A2” is 3 of the visual field area A0 of the driver 30 other than the central visual field area A1 (see FIG. 3) determined around the line-of-sight direction D1 (see FIG. 3) of the driver 30. A dimension area. The central visual field area A1 can be defined as a three-dimensional area surrounded by a certain angle formed by the side of the cone and the line-of-sight direction when a cone with the line-of-sight direction D1 of the driver 30 as an axis is assumed. This constant angle is, for example, about 10 degrees. As an example, “peripheral visual field region A2” refers to a region of 130 degrees up and down and 180 degrees left and right outside the range of about 20 degrees (center visual field area A1) centered on the line-of-sight direction D1. Therefore, an area within a viewing angle of 20 degrees of the driver 30 is defined as a central visual field area A1, and other areas (for each of the vertical directions, 20 degrees or more to 130 degrees or less centered on the line-of-sight direction D1 and each of the left and right directions). The region of 20 degrees or more and 180 degrees or less around the line-of-sight direction D1) can be the peripheral visual field region A2.

タイミング特定部2は、撮像装置11から取得した画像に対して、画像処理技術を利用して視対象領域を抽出する。つまり、タイミング特定部2は、撮像装置11から取り込む画像データに対して種々の画像処理を実行し、画像処理の結果を利用して周辺視野領域A2に対応する画像領域内の視対象領域を抽出する。そして、タイミング特定部2は、運転者30の視環境に発生する視対象40(視覚刺激)の発生タイミング(発生時点)を特定する。   The timing specifying unit 2 extracts a view target region from the image acquired from the imaging device 11 using an image processing technique. That is, the timing specifying unit 2 executes various image processing on the image data captured from the imaging device 11, and extracts a viewing target region in the image region corresponding to the peripheral visual field region A2 using the result of the image processing. To do. And the timing specific | specification part 2 specifies the generation | occurrence | production timing (generation | occurrence | production time) of the visual target 40 (visual stimulus) which generate | occur | produces in the driver | operator's 30 visual environment.

タイミング特定部2は、例えば、CPU(Central Processing Unit)及びメモリを主構成とするコンピュータにて構成されている。言い換えれば、タイミング特定部2は、CPU及びメモリを有するコンピュータにて実現されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータがタイミング特定部2として機能する。プログラムは、ここではタイミング特定部2のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。   The timing specifying unit 2 is configured by, for example, a computer having a CPU (Central Processing Unit) and a memory as main components. In other words, the timing specifying unit 2 is realized by a computer having a CPU and a memory, and the computer functions as the timing specifying unit 2 when the CPU executes a program stored in the memory. Here, the program is recorded in advance in the memory of the timing specifying unit 2, but may be provided through a telecommunication line such as the Internet or recorded in a recording medium such as a memory card.

以下では、タイミング特定部2において視対象40の発生タイミングを特定するアルゴリズムの一例について、図4を参照して説明する。なお、タイミング特定部2は、カウンタを含んでいる。また、タイミング特定部2は、メモリを含んでいる。   Below, an example of the algorithm which specifies the generation | occurrence | production timing of the visual target 40 in the timing specific | specification part 2 is demonstrated with reference to FIG. The timing specifying unit 2 includes a counter. The timing specifying unit 2 includes a memory.

タイミング特定部2は、撮像装置11から時系列に並んだ複数の画像を含む画像群を取得した後、カウンタの値iを0にリセットする(ステップS1)。   After acquiring the image group including a plurality of images arranged in time series from the imaging device 11, the timing specifying unit 2 resets the counter value i to 0 (step S1).

タイミング特定部2は、ステップS1を実行した後、時刻tの初期値t0にカウンタの値iを加算する(ステップS2)。ここにおいて、初期値t0は、画像群に含まれる複数の画像それぞれに一対一に対応付けられた時刻情報のうち、時系列的に最も早い時刻情報(時刻)である。   After executing step S1, the timing identification unit 2 adds the counter value i to the initial value t0 at time t (step S2). Here, the initial value t0 is the earliest time information (time) in time series among the time information associated one-to-one with each of the plurality of images included in the image group.

タイミング特定部2は、ステップS2を実行した後、時刻tの画像上で視対象を検索し(ステップS3)、視対象を検出できなかった場合(ステップS4のNo)、カウンタのカウント値iに1を加算し(ステップS11)、ステップS2へ戻る。これに対し、タイミング特定部2は、視対象を検出した場合(ステップS4のYes)、時刻tの画像上における視対象領域の背景の輝度(背景輝度)を算出する(ステップS5)。   After executing step S2, the timing specifying unit 2 searches for the visual target on the image at time t (step S3), and when the visual target cannot be detected (No in step S4), the count value i of the counter is set. 1 is added (step S11), and the process returns to step S2. On the other hand, when the visual target is detected (Yes in step S4), the timing specifying unit 2 calculates the luminance of the background of the visual target region (background luminance) on the image at time t (step S5).

タイミング特定部2は、ステップS5を実行した後、視対象40の視角を推定する(ステップS6)。タイミング特定部2は、ステップS6において、視対象40の視角を推定する処理として、例えば、視対象40の視角を推定する推定式による演算を行う。推定式は、θ40=(P40/P11)×θ11である。ここにおいて、θ40は、視対象40の視角である。P40は、時刻tの画像上の視対象の左右両端間の画素数である。P11は、時刻tの画像の左右方向の画素数(撮像装置11の水平画素数)である。θ11は、撮像装置11の横方向の視野角(水平視野角)である。視対象40の視角を推定する処理は、一例であり、特に限定されない。   After performing step S5, the timing specifying unit 2 estimates the viewing angle of the visual target 40 (step S6). In step S <b> 6, the timing specifying unit 2 performs, for example, a calculation based on an estimation formula for estimating the viewing angle of the viewing object 40 as the process of estimating the viewing angle of the viewing object 40. The estimation formula is θ40 = (P40 / P11) × θ11. Here, θ40 is the viewing angle of the visual target 40. P40 is the number of pixels between the left and right ends of the visual target on the image at time t. P11 is the number of pixels in the left-right direction of the image at time t (the number of horizontal pixels of the imaging device 11). θ11 is a horizontal viewing angle (horizontal viewing angle) of the imaging device 11. The process of estimating the viewing angle of the visual target 40 is an example and is not particularly limited.

タイミング特定部2は、ステップS6を実行した後、時刻tの画像上の視対象領域の背景輝度に対する視対象領域の輝度であるコントラストを算出する(ステップS7)。   After executing step S6, the timing specifying unit 2 calculates the contrast, which is the luminance of the viewing target region with respect to the background luminance of the viewing target region on the image at time t (step S7).

タイミング特定部2は、ステップS7を実行した視対象40の識別可能限界値を推定する(ステップS8)。自動車20の運転者30からの視対象40の見え方は、自動車20のヘッドライトの配光特性、ヘッドライトの光に対する視対象40の反射率等によって変わる。そこで、実施形態に係る視認性評価システム1では、タイミング特定部2のメモリには、事前に実験等で求めたコントラスト({[視対象の輝度]/[視対象の背景輝度]}×100)と識別可能限界値との関係をデータとして記憶させてある。ここにおいて、メモリに記憶されているコントラストと識別可能限界値との関係では、例えば、図5に示すように、コントラストが高いほど識別可能限界値が小さく、コントラストが低いほど識別可能限界値が大きくなる。タイミング特定部2は、ステップS8において視対象40の識別可能限界値を推定する処理として、画像処理により求めた視対象と背景とのコントラストに対応する識別可能限界値をメモリから読み出し、その読み出した識別可能限界値を視対象40の識別可能限界値と推定する。   The timing specifying unit 2 estimates the discriminable limit value of the visual target 40 that has executed Step S7 (Step S8). The appearance of the visual target 40 from the driver 30 of the automobile 20 varies depending on the light distribution characteristics of the headlight of the automobile 20, the reflectance of the visual target 40 with respect to the light of the headlight, and the like. Therefore, in the visibility evaluation system 1 according to the embodiment, the contrast ({[luminance of the visual target] / [background luminance of the visual target]} × 100) obtained in advance by experiments or the like is stored in the memory of the timing specifying unit 2. And the discriminable limit value are stored as data. Here, with respect to the relationship between the contrast stored in the memory and the discriminable limit value, for example, as shown in FIG. 5, the discriminable limit value decreases as the contrast increases, and the discriminable limit value increases as the contrast decreases. Become. The timing specifying unit 2 reads out the identifiable limit value corresponding to the contrast between the visual target and the background obtained by the image processing from the memory as the process of estimating the identifiable limit value of the visual target 40 in step S8, and reads the read out value. The discriminable limit value is estimated as the discriminable limit value of the visual target 40.

タイミング特定部2は、ステップS8を実行した後、視対象40の視角と識別可能限界値とを比較する比較処理を実行し(ステップS9)、視対象40の視角が識別可能限界値未満の場合(ステップS9のNo)、カウンタのカウント値iに1を加算し(ステップS11)、ステップS2へ戻る。これに対し、タイミング特定部2は、視対象40の視角が識別可能限界値以上の場合(ステップS9のYes)、時刻tを視対象発生時刻(視対象発生タイミング)として特定する(ステップS10)。   After performing step S8, the timing specifying unit 2 performs a comparison process that compares the viewing angle of the visual target 40 with the discriminable limit value (step S9), and the visual angle of the visual target 40 is less than the discriminable limit value (No in step S9), 1 is added to the count value i of the counter (step S11), and the process returns to step S2. On the other hand, when the visual angle of the visual target 40 is greater than or equal to the discriminable limit value (Yes in step S9), the timing specifying unit 2 specifies time t as the visual target occurrence time (visual target generation timing) (step S10). .

電位抽出部3は、タイミング特定部2により順次特定された複数の視対象40それぞれの発生タイミングに一対一に対応する複数(例えば、n個)の脳波データD(1)〜D(n)の加算起点T0を決定する(図6参照)。より詳細には、電位抽出部3は、脳波計測部12から取得した脳波データのうち、ステップS10で特定した各視対象発生時刻を起点として、−100ミリ秒から600ミリ秒までの脳波データD(1)〜D(n)を抽出する。なお、脳波データD(1)〜D(n)を抽出する時間幅は、事象関連電位のP300成分を必ず含む範囲として定められたものである。P300成分が含まれるのであれば、この時間幅とは異なる時間幅で脳波データD(1)〜D(n)を抽出してもよい。   The potential extraction unit 3 includes a plurality (eg, n) of electroencephalogram data D (1) to D (n) corresponding to the generation timing of each of the plurality of visual targets 40 sequentially specified by the timing specifying unit 2 in a one-to-one manner. An addition starting point T0 is determined (see FIG. 6). More specifically, the potential extraction unit 3 starts from each visual target occurrence time specified in step S10 among the electroencephalogram data acquired from the electroencephalogram measurement unit 12, and the electroencephalogram data D from -100 milliseconds to 600 milliseconds. (1) to D (n) are extracted. The time width for extracting the electroencephalogram data D (1) to D (n) is determined as a range that necessarily includes the P300 component of the event-related potential. If the P300 component is included, the electroencephalogram data D (1) to D (n) may be extracted with a time width different from this time width.

そして、電位抽出部3は、複数の脳波データD(1)〜D(n)を加算平均することによって事象関連電位(加算平均波形)を抽出する(図6参照)。ここにおいて、電位抽出部3では、脳波データD(1)〜D(n)を脳波計測部12から取得する。   Then, the potential extraction unit 3 extracts an event-related potential (addition average waveform) by averaging the plurality of brain wave data D (1) to D (n) (see FIG. 6). Here, the potential extraction unit 3 acquires the electroencephalogram data D (1) to D (n) from the electroencephalogram measurement unit 12.

視認性判定部4は、電位抽出部3によって抽出された事象関連電位の潜時を抽出する(図6参照)。そして、視認性判定部4は、潜時に基づいて運転者30の視認性を判定する。より詳細には、視認性判定部4は、潜時が短いほど視認性が高いと判定し、潜時が長いほど視認性が低いと判定する。視認性判定部4は、上記の判定結果を出力部5へ送信する。   The visibility determination unit 4 extracts the latency of the event-related potential extracted by the potential extraction unit 3 (see FIG. 6). And the visibility determination part 4 determines the visibility of the driver | operator 30 based on latency. More specifically, the visibility determination unit 4 determines that the visibility is higher as the latency is shorter, and determines that the visibility is lower as the latency is longer. The visibility determination unit 4 transmits the determination result to the output unit 5.

電位抽出部3と視認性判定部4とを含む分析部6は、例えば、CPU(Central Processing Unit)及びメモリを主構成とするコンピュータにて構成されている。言い換えれば、分析部6は、CPU及びメモリを有するコンピュータにて実現されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータが制御部として機能する。プログラムは、ここでは分析部6のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。   The analysis unit 6 including the potential extraction unit 3 and the visibility determination unit 4 is configured by, for example, a computer having a CPU (Central Processing Unit) and a memory as main components. In other words, the analysis unit 6 is realized by a computer having a CPU and a memory, and the computer functions as a control unit when the CPU executes a program stored in the memory. The program is recorded in advance in the memory of the analysis unit 6 here, but may be provided through a telecommunication line such as the Internet or recorded in a recording medium such as a memory card.

出力部5は、視認性判定部4の判定結果を出力する。出力部5は、例えば、画像と音声との少なくとも一方を出力可能な機器である。画像は液晶表示装置、OLED(Organic Light Emitting Diode)ディスプレイ等の表示装置を利用して出力される。音声は、スピーカを用いて出力される。出力部5は、視認性判定部4で判定された結果を画像と音声との少なくとも一方によって提示する。   The output unit 5 outputs the determination result of the visibility determination unit 4. The output unit 5 is, for example, a device that can output at least one of an image and sound. The image is output using a display device such as a liquid crystal display device or an OLED (Organic Light Emitting Diode) display. The sound is output using a speaker. The output unit 5 presents the result determined by the visibility determination unit 4 using at least one of an image and a sound.

視認性評価システム1では、タイミング特定部2の筐体と分析部6の筐体とが別体であるが、これに限らず、例えば、タイミング特定部2と分析部6とが1つの筐体に収納されていてもよい。   In the visibility evaluation system 1, the casing of the timing specifying unit 2 and the casing of the analyzing unit 6 are separate. However, the present invention is not limited to this. For example, the timing specifying unit 2 and the analyzing unit 6 have one casing. It may be stored in.

上述した通り、タイミング特定部2及び分析部6は、それぞれコンピュータを含む。すなわち、本開示におけるタイミング特定部2及び分析部6それぞれの実行主体は、コンピュータを含んでいる。コンピュータは、ハードウェアとしてのCPU及びメモリを主構成とする。コンピュータのメモリに記録されたプログラムをプロセッサが実行することによって、本開示におけるタイミング特定部2又は分析部6の実行主体としての機能が実現される。プログラムは、コンピュータのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよいし、コンピュータで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ(磁気ディスク)等の非一時的記録媒体に記録されて提供されてもよい。コンピュータのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。   As described above, the timing specifying unit 2 and the analysis unit 6 each include a computer. That is, the execution subject of each of the timing specifying unit 2 and the analysis unit 6 in the present disclosure includes a computer. The computer mainly includes a CPU and memory as hardware. When the processor executes the program recorded in the memory of the computer, the function as the execution subject of the timing specifying unit 2 or the analysis unit 6 in the present disclosure is realized. The program may be pre-recorded in a computer memory, but may be provided through an electric communication line, or a non-temporary recording such as a computer-readable memory card, optical disk, or hard disk drive (magnetic disk). It may be provided by being recorded on a medium. A processor of a computer includes one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). The plurality of electronic circuits may be integrated on one chip, or may be distributed on the plurality of chips. The plurality of chips may be integrated into one device, or may be distributed and provided in a plurality of devices.

また、視認性評価システム1は、タイミング特定部2と分析部6とで別々にCPUを備えた構成に限らず、タイミング特定部2と分析部6とで、1つのCPUを共用していてもよい。   Further, the visibility evaluation system 1 is not limited to the configuration in which the timing specifying unit 2 and the analysis unit 6 are provided with separate CPUs, and the timing specifying unit 2 and the analysis unit 6 may share one CPU. Good.

(3)効果
実施形態に係る視認性評価システム1は、タイミング特定部2と、電位抽出部3と、視認性判定部4と、を備える。タイミング特定部2は、自動車(移動体)20の運転者30の視環境を撮影する撮像装置11から取得した画像を用いて視対象40の視角及び識別可能限界値を推定し、推定した視角及び識別可能限界値を用いて視対象40の発生タイミングを特定する。電位抽出部3は、タイミング特定部2により順次特定された複数の視対象40それぞれの発生タイミングに一対一に対応する複数の脳波データD(1)〜D(n)であって運転者30の脳波を計測する脳波計測部12から取得した複数の脳波データD(1)〜D(n)、の加算起点を決定し、複数の脳波データD(1)〜D(n)を加算平均することによって事象関連電位を抽出する。視認性判定部4は、電位抽出部3によって抽出された事象関連電位の潜時に基づいて視認性を判定する。タイミング特定部2は、撮像装置11から取得した画像において運転者30の周辺視野領域A2に対応する画像領域内に位置している視対象に対応する視対象領域を抽出し、視対象40の視角を推定する。
(3) Effect The visibility evaluation system 1 according to the embodiment includes a timing specifying unit 2, a potential extraction unit 3, and a visibility determination unit 4. The timing specifying unit 2 estimates the viewing angle and the identifiable limit value of the visual target 40 using the image acquired from the imaging device 11 that captures the visual environment of the driver 30 of the automobile (moving body) 20, and the estimated viewing angle and The generation timing of the visual target 40 is specified using the discriminable limit value. The potential extraction unit 3 includes a plurality of electroencephalogram data D (1) to D (n) corresponding to the generation timing of each of the plurality of visual targets 40 sequentially specified by the timing specifying unit 2, and Determining the addition start point of the plurality of brain wave data D (1) to D (n) acquired from the brain wave measuring unit 12 that measures the brain wave, and averaging the plurality of brain wave data D (1) to D (n) To extract the event-related potential. The visibility determination unit 4 determines the visibility based on the latency of the event-related potential extracted by the potential extraction unit 3. The timing specifying unit 2 extracts a visual target region corresponding to a visual target located in an image region corresponding to the peripheral visual field region A2 of the driver 30 in the image acquired from the imaging device 11, and the visual angle of the visual target 40 Is estimated.

実施形態に係る視認性評価システム1では、自動車20の運転者30の視認性を客観的に評価することが可能となる。ここにおいて、視認性評価システム1では、電位抽出部3において運転者30の事象関連電位のP300を抽出することが可能となる。また、視認性評価システム1では、運転者30が実際に自動車20を運転しているときの運転者30の視認性を、運転者30が自動車20から降車した後に評価することができる。なお、視認性評価システム1は、運転者30が実際に自動車20を運転しているときの運転者30の視認性をリアルタイムで評価してもよい。   In the visibility evaluation system 1 according to the embodiment, the visibility of the driver 30 of the automobile 20 can be objectively evaluated. Here, in the visibility evaluation system 1, the potential extraction unit 3 can extract the event-related potential P300 of the driver 30. In the visibility evaluation system 1, the visibility of the driver 30 when the driver 30 is actually driving the automobile 20 can be evaluated after the driver 30 gets off the automobile 20. The visibility evaluation system 1 may evaluate the visibility of the driver 30 in real time when the driver 30 is actually driving the automobile 20.

(4)実施形態の変形例
実施形態は、本発明の様々な実施形態の一つに過ぎない。実施形態は、本発明の目的を達成できれば、設計等に応じて種々の変更が可能である。
(4) Modification of Embodiment The embodiment is merely one of various embodiments of the present invention. The embodiment can be variously changed according to the design or the like as long as the object of the present invention can be achieved.

(4.1)変形例1
以下、実施形態の変形例1に係る視認性評価システム1について図7及び8に基づいて説明する。
(4.1) Modification 1
Hereinafter, the visibility evaluation system 1 which concerns on the modification 1 of embodiment is demonstrated based on FIG.

実施形態の変形例1に係る視認性評価システム1は、タイミング特定部2において識別可能限界値を運転者30の視力情報に基づいて推定する点で、実施形態1に係る視認性評価システム1と相違する。変形例1に係る視認性評価システム1の基本構成は実施形態に係る視認性評価システム1と同様なので図示及び説明を省略する。   The visibility evaluation system 1 according to the first modification of the embodiment is different from the visibility evaluation system 1 according to the first embodiment in that the timing identification unit 2 estimates the discriminable limit value based on the visual acuity information of the driver 30. Is different. Since the basic configuration of the visibility evaluation system 1 according to Modification 1 is the same as that of the visibility evaluation system 1 according to the embodiment, illustration and description thereof are omitted.

変形例1に係る視認性評価システム1では、視力情報と識別可能限界値との関係をデータとしてタイミング特定部2のメモリに保持している。ここにおいて、メモリに保持されている視力情報と識別可能限界値との関係では、例えば、図8に示すように、視力が高いほど識別可能限界値が小さく、視力が低いほど識別可能限界値が大きくなる。変形例1に係る視認性評価システム1は、運転者30の視力の検査値が入力される入力部7を備えている。タイミング特定部2は、入力部7に入力された視力の検査値に対応する視力情報に基づいて識別可能限界値を推定する。運転者30の視力の検査値は、例えばランドルト環(Landolt Ring)を視標とする視力検査の検査結果の値である。変形例1に係る視認性評価システム1は、視力と識別可能限界値との関係をデータとしてタイミング特定部2のメモリに保持している構成に限らず、例えば、入力部7にて入力された視力の値と標準の識別可能限界値とを乗じた値を識別可能限界値としてもよい。   In the visibility evaluation system 1 according to the first modification, the relationship between the visual acuity information and the discriminable limit value is held in the memory of the timing specifying unit 2 as data. Here, in the relationship between the visual acuity information held in the memory and the discriminable limit value, for example, as shown in FIG. 8, the discriminable limit value is smaller as the visual acuity is higher, and the discriminable limit value is lower as the visual acuity is lower. growing. The visibility evaluation system 1 according to the modified example 1 includes an input unit 7 into which a test value of the visual acuity of the driver 30 is input. The timing specifying unit 2 estimates the discriminable limit value based on the visual acuity information corresponding to the visual acuity test value input to the input unit 7. The test value of the visual acuity of the driver 30 is a value of a test result of a visual test using, for example, a Landolt Ring as a target. The visibility evaluation system 1 according to the modified example 1 is not limited to the configuration in which the relationship between the visual acuity and the discriminable limit value is stored in the memory of the timing specifying unit 2 as data, and is input by the input unit 7, for example. A value obtained by multiplying the visual acuity value and the standard identifiable limit value may be used as the identifiable limit value.

変形例1に係る視認性評価システム1では、実施形態の視認性評価システム1と比べて、自動車20の運転者30の視認性を、より客観的に評価することが可能となる。   In the visibility evaluation system 1 according to the modification 1, the visibility of the driver 30 of the automobile 20 can be more objectively evaluated as compared to the visibility evaluation system 1 of the embodiment.

(4.2)変形例2
実施形態の変形例2に係る視認性評価システム1は、タイミング特定部2において識別可能限界値をコントラスト及び視対象の背景輝度に基づいて推定する点で、実施形態1に係る視認性評価システムと相違する。変形例2に係る視認性評価システム1の基本構成は実施形態に係る視認性評価システム1と同様なので図示及び説明を省略する。
(4.2) Modification 2
The visibility evaluation system 1 according to the second modification of the embodiment is different from the visibility evaluation system according to the first embodiment in that the timing identification unit 2 estimates the identifiable limit value based on the contrast and the background luminance of the visual target. Is different. Since the basic configuration of the visibility evaluation system 1 according to Modification 2 is the same as that of the visibility evaluation system 1 according to the embodiment, illustration and description thereof are omitted.

ランドルト環を視標とする視力を背景輝度(順応輝度)及び視標のコントラスト(輝度対比)の関数として表すと、下記の式(1)となることが知られている(例えば、文献1[照明ハンドブック(第2版)、平成15年11月20日第2版第1刷発行、編者:社団法人照明学会、発行所:株式会社オーム社]参照)。   When the visual acuity using the Landolt ring as a target is expressed as a function of the background luminance (adapted luminance) and the contrast of the target (luminance contrast), it is known that the following equation (1) is obtained (for example, reference 1 [ Lighting Handbook (2nd edition), November 20, 2003, 2nd edition, 1st edition issued, edited by The Illuminating Society of Japan, Publisher: Ohm Co., Ltd.]).

A=L/{(1.7C-1/3(0.85C-1/5+L1/44} 式(1)
ここにおいて、VAは、視力であり、L[cd/m2]は、順応輝度であり、C[%]は、視標の輝度対比である。
V A = L / {(1.7C -1/3 (0.85C -1/5 + L 1/4) 4} Equation (1)
Here, V A is visual acuity, L [cd / m 2 ] is adaptation luminance, and C [%] is luminance contrast of the visual target.

また、ランドルト環の切れ目の幅が眼に対して張る視角を[分]で表した場合、その逆数で定義されるのが視力である。また、1[分]は、1[度]の1/60である。   Further, when the viewing angle at which the width of the cut of the Landolt ring stretches with respect to the eye is expressed in [minutes], the visual acuity is defined by the reciprocal thereof. Moreover, 1 [minute] is 1/60 of 1 [degree].

変形例2に係る視認性評価システム1のタイミング特定部2は、視対象の識別可能限界値を推定する方法として、例えば、下記式(2)を用いる。   The timing specifying unit 2 of the visibility evaluation system 1 according to the modification 2 uses, for example, the following equation (2) as a method for estimating the discriminable limit value of the visual target.

識別可能限界値[度]={(1.7C-1/3(0.85C-1/5+L1/44}/(L×60) 式(2)
ここにおいて、C[%]は、視対象(視標)のコントラスト(輝度対比)である。また、L[cd/m2]は、背景輝度(順応輝度)である。
Identifiable limits [degrees] = {(1.7C -1/3 (0.85C -1/5 + L 1/4) 4} / (L × 60) Equation (2)
Here, C [%] is the contrast (luminance contrast) of the visual target (target). L [cd / m 2 ] is background luminance (adapted luminance).

式(2)から、背景輝度と識別可能限界値との関係では、図9に示すように、背景輝度が高いほど識別可能限界値が小さく、背景輝度が低いほど識別可能限界値が大きくなる。   From the formula (2), as shown in FIG. 9, the relationship between the background luminance and the discriminable limit value is such that the discriminable limit value decreases as the background luminance increases, and the discriminable limit value increases as the background luminance decreases.

変形例2に係る視認性評価システム1では、実施形態の視認性評価システム1と比べて、自動車20の運転者30の視認性を、より客観的に評価することが可能となる。   In the visibility evaluation system 1 according to the modification example 2, the visibility of the driver 30 of the automobile 20 can be more objectively evaluated as compared to the visibility evaluation system 1 of the embodiment.

(4.3)その他の変形例
視認性評価システム1は、運転者30の年齢が入力される入力部を備え、入力部に入力された運転者30の年齢に応じて識別可能限界値を決定してもよい。
(4.3) Other Modifications The visibility evaluation system 1 includes an input unit to which the age of the driver 30 is input, and determines an identifiable limit value according to the age of the driver 30 input to the input unit. May be.

また、視認性評価システム1の視認性判定部4は、P300の潜時だけでなく、例えば、潜時とP300の振幅とに基づいて視認性を判定してもよい。   Moreover, the visibility determination unit 4 of the visibility evaluation system 1 may determine the visibility based on not only the latency of P300 but also the latency and the amplitude of P300, for example.

視認性評価システム1で想定する移動体は、自動車20に限らない。例えば、移動体は、二輪車、電車、航空機、建設機械及び船舶等の自動車以外の移動体でもよい。   The moving body assumed in the visibility evaluation system 1 is not limited to the automobile 20. For example, the moving body may be a moving body other than an automobile such as a motorcycle, a train, an aircraft, a construction machine, and a ship.

(5)まとめ
以上説明した実施形態等から以下の態様が開示されている。
(5) Summary The following aspects are disclosed from the embodiments and the like described above.

第1の態様に係る視認性評価システム(1)は、タイミング特定部(2)と、電位抽出部(3)と、視認性判定部(4)と、を備える。タイミング特定部(2)は、移動体(自動車20)の運転者(30)の視環境を撮影する撮像装置(11)から取得した画像を用いて視対象の視角及び識別可能限界値を推定し、推定した視角及び識別可能限界値を用いて視対象の発生タイミングを特定する。電位抽出部(3)は、タイミング特定部(2)により順次特定された複数の視対象それぞれの発生タイミングに一対一に対応する複数の脳波データ(D(1)〜D(n))であって運転者(30)の脳波を計測する脳波計測部(12)から取得した複数の脳波データ(D(1)〜D(n))、の加算起点を決定し、複数の脳波データ(D(1)〜D(n))を加算平均することによって事象関連電位を抽出する。視認性判定部(4)は、電位抽出部(3)によって抽出された事象関連電位の潜時に基づいて視認性を判定する。タイミング特定部(2)は、撮像装置(11)から取得した画像において運転者(30)の周辺視野領域(A2)に対応する画像領域内に位置している視対象に対応する視対象領域を抽出し、視対象(40)の視角を推定する。   The visibility evaluation system (1) according to the first aspect includes a timing identification unit (2), a potential extraction unit (3), and a visibility determination unit (4). The timing specifying unit (2) estimates the viewing angle and the identifiable limit value of the visual target using the image acquired from the imaging device (11) that captures the visual environment of the driver (30) of the moving body (the automobile 20). The generation timing of the visual target is specified using the estimated viewing angle and the discriminable limit value. The potential extraction unit (3) is a plurality of electroencephalogram data (D (1) to D (n)) corresponding one-to-one to the generation timing of each of the plurality of visual objects sequentially specified by the timing specifying unit (2). The addition start point of the plurality of brain wave data (D (1) to D (n)) acquired from the brain wave measuring unit (12) that measures the brain wave of the driver (30) is determined, and the plurality of brain wave data (D ( The event-related potential is extracted by averaging the 1) to D (n)). The visibility determination unit (4) determines the visibility based on the latency of the event-related potential extracted by the potential extraction unit (3). The timing specifying unit (2) selects a visual target region corresponding to a visual target located in an image region corresponding to the peripheral visual field region (A2) of the driver (30) in the image acquired from the imaging device (11). Extraction is performed to estimate the viewing angle of the visual target (40).

第1の態様に係る視認性評価システム(1)では、移動体(自動車20)の運転者(30)の視認性を客観的に評価することが可能となる。ここにおいて、視認性評価システム(1)では、電位抽出部(3)において運転者(30)の事象関連電位のP300を抽出することが可能となる。   In the visibility evaluation system (1) which concerns on a 1st aspect, it becomes possible to objectively evaluate the visibility of the driver | operator (30) of a moving body (automobile 20). Here, in the visibility evaluation system (1), the potential extraction unit (3) can extract the event-related potential P300 of the driver (30).

第2の態様に係る視認性評価システム(1)では、第1の態様において、タイミング特定部(2)は、視対象(40)の視角が識別可能限界値を上回ったタイミングを前記発生タイミングとして特定する。   In the visibility evaluation system (1) according to the second aspect, in the first aspect, the timing specifying unit (2) uses the timing when the visual angle of the visual target (40) exceeds the discriminable limit value as the generation timing. Identify.

第2の態様に係る視認性評価システム(1)では、移動体(自動車20)の運転者(30)の視認性を、より客観的に評価することが可能となる。   In the visibility evaluation system (1) according to the second aspect, it is possible to more objectively evaluate the visibility of the driver (30) of the moving body (automobile 20).

第3の態様に係る視認性評価システム(1)では、第1又は2の態様において、タイミング特定部(2)は、画像領域内における視対象領域の位置情報を用いて視対象の視角を推定するとともに、画像領域内における視対象領域と背景とのコントラストに基づいて視対象の識別可能限界値を推定する。   In the visibility evaluation system (1) according to the third aspect, in the first or second aspect, the timing specifying unit (2) estimates the viewing angle of the visual target using position information of the visual target area in the image area. At the same time, the discriminable limit value of the visual target is estimated based on the contrast between the visual target region and the background in the image region.

第3の態様に係る視認性評価システム(1)では、移動体(自動車20)の運転者(30)の視認性を、より客観的に評価することが可能となる。   In the visibility evaluation system (1) according to the third aspect, it is possible to more objectively evaluate the visibility of the driver (30) of the moving body (automobile 20).

第4の態様に係る視認性評価システム(1)は、第1又は2の態様において、運転者(30)の視力情報が入力される入力部(7)を更に備える。タイミング特定部(2)は、運転者の視力情報に基づいて識別可能限界値を推定する。   The visibility evaluation system (1) which concerns on a 4th aspect is further provided with the input part (7) into which the visual acuity information of a driver | operator (30) is input in the 1st or 2nd aspect. The timing specifying unit (2) estimates an identifiable limit value based on the driver's visual acuity information.

第4の態様に係る視認性評価システム(1)では、移動体(自動車20)の運転者(30)の視認性を、より客観的に評価することが可能となる。   In the visibility evaluation system (1) according to the fourth aspect, it is possible to more objectively evaluate the visibility of the driver (30) of the moving body (automobile 20).

第5の態様に係る視認性評価システム(1)では、第1又は2の態様において、タイミング特定部(2)は、画像領域内における視対象領域の位置情報を用いて視対象(40)の視角を推定するとともに、画像領域内における視対象領域と背景とのコントラストと、視対象の背景輝度と、に基づいて識別可能限界値を推定する。   In the visibility evaluation system (1) according to the fifth aspect, in the first or second aspect, the timing specifying unit (2) uses the position information of the visual target area in the image area to determine the visual target (40). The visual angle is estimated, and the discriminable limit value is estimated based on the contrast between the visual target region and the background in the image region and the background luminance of the visual target.

第5の態様に係る視認性評価システム(1)では、移動体(自動車20)の運転者(30)の視認性を、より客観的に評価することが可能となる。   In the visibility evaluation system (1) according to the fifth aspect, it is possible to more objectively evaluate the visibility of the driver (30) of the moving body (the automobile 20).

第6の態様に係る視認性評価システム(1)では、第1〜5の態様のいずれか一つにおいて、移動体は、自動車(20)であり、撮像装置(11)は、運転者(30)に設けられる。   In the visibility evaluation system (1) according to the sixth aspect, in any one of the first to fifth aspects, the moving body is an automobile (20), and the imaging device (11) is a driver (30 ).

第6の態様に係る視認性評価システム(1)では、自動車(20)の運転者の視認性を客観的に評価することが可能となる。   In the visibility evaluation system (1) according to the sixth aspect, the visibility of the driver of the automobile (20) can be objectively evaluated.

1 視認性評価システム
2 タイミング特定部
3 電位抽出部
4 視認性判定部
5 出力部
6 分析部
7 入力部
11 撮像装置
12 脳波計測部
20 自動車(移動体)
30 運転者
40 視対象
A2 周辺視野領域
DESCRIPTION OF SYMBOLS 1 Visibility evaluation system 2 Timing identification part 3 Electric potential extraction part 4 Visibility determination part 5 Output part 6 Analysis part 7 Input part 11 Imaging device 12 Electroencephalogram measurement part 20 Automobile (mobile body)
30 driver 40 object of view A2 peripheral visual field

Claims (6)

移動体の運転者の視環境を撮影する撮像装置から取得した画像を用いて視対象の視角及び識別可能限界値を推定し、推定した視角及び識別可能限界値を用いて視対象の発生タイミングを特定するタイミング特定部と、
前記タイミング特定部により順次特定された複数の視対象それぞれの発生タイミングに一対一に対応する複数の脳波データであって前記運転者の脳波を計測する脳波計測部から取得した複数の脳波データ、の加算起点を決定し、前記複数の脳波データを加算平均することによって事象関連電位を抽出する電位抽出部と、
前記電位抽出部によって抽出された事象関連電位の潜時に基づいて前記運転者の視認性を判定する視認性判定部と、を備え、
前記タイミング特定部は、前記撮像装置から取得した画像において前記運転者の周辺視野領域に対応する画像領域内に位置している視対象に対応する視対象領域を抽出し、視対象の視角を推定する、
視認性評価システム。
A viewing angle and a discriminable limit value are estimated using an image acquired from an imaging device that captures the visual environment of a driver of a moving object, and the generation timing of the visual object is determined using the estimated viewing angle and the discriminable limit value A timing identification unit to identify,
A plurality of electroencephalogram data corresponding to the generation timing of each of a plurality of visual objects sequentially identified by the timing identification unit, the electroencephalogram data acquired from an electroencephalogram measurement unit that measures the driver's electroencephalogram, A potential extraction unit that determines an addition start point and extracts an event-related potential by averaging the plurality of brain wave data; and
A visibility determination unit that determines the visibility of the driver based on the latency of the event-related potential extracted by the potential extraction unit;
The timing specifying unit extracts a visual target region corresponding to a visual target located in an image region corresponding to the driver's peripheral visual field region in an image acquired from the imaging device, and estimates a visual angle of the visual target To
Visibility evaluation system.
前記タイミング特定部は、視対象の視角が識別可能限界値を上回ったタイミングを前記発生タイミングとして特定する、
請求項1に記載の視認性評価システム。
The timing specifying unit specifies, as the generation timing, a timing at which a viewing angle of a visual target exceeds an identifiable limit value.
The visibility evaluation system according to claim 1.
前記タイミング特定部は、前記画像領域内における視対象領域の位置情報を用いて視対象の視角を推定するとともに、前記画像領域内における視対象領域と背景とのコントラストに基づいて視対象の識別可能限界値を推定する、
請求項1又は2に記載の視認性評価システム。
The timing specifying unit estimates the viewing angle of the viewing target using position information of the viewing target area in the image area and can identify the viewing target based on the contrast between the viewing target area and the background in the image area. Estimate the limit value,
The visibility evaluation system according to claim 1 or 2.
前記運転者の視力情報が入力される入力部を更に備え、
前記タイミング特定部は、前記運転者の視力情報に基づいて識別可能限界値を推定する、
請求項1又は2に記載の視認性評価システム。
An input unit for inputting the driver's eyesight information;
The timing specifying unit estimates an identifiable limit value based on the driver's visual acuity information.
The visibility evaluation system according to claim 1 or 2.
前記タイミング特定部は、前記画像領域内における視対象領域の位置情報を用いて視対象の視角を推定するとともに、前記画像領域内における視対象領域と背景とのコントラストと、視対象の背景輝度と、に基づいて識別可能限界値を推定する、
請求項1又は2に記載の視認性評価システム。
The timing specifying unit estimates the viewing angle of the viewing target using position information of the viewing target region in the image region, and compares the contrast between the viewing target region and the background in the image region, and the background luminance of the viewing target. Estimate identifiable limits based on
The visibility evaluation system according to claim 1 or 2.
前記移動体は、自動車であり、
前記撮像装置は、前記運転者に設けられる、
請求項1〜5のいずれか一項に記載の視認性評価システム。
The moving body is an automobile,
The imaging device is provided to the driver,
The visibility evaluation system as described in any one of Claims 1-5.
JP2018032296A 2018-02-26 2018-02-26 Perceptibility evaluation system Pending JP2019146690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018032296A JP2019146690A (en) 2018-02-26 2018-02-26 Perceptibility evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018032296A JP2019146690A (en) 2018-02-26 2018-02-26 Perceptibility evaluation system

Publications (1)

Publication Number Publication Date
JP2019146690A true JP2019146690A (en) 2019-09-05

Family

ID=67848835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018032296A Pending JP2019146690A (en) 2018-02-26 2018-02-26 Perceptibility evaluation system

Country Status (1)

Country Link
JP (1) JP2019146690A (en)

Similar Documents

Publication Publication Date Title
JP6591085B2 (en) Motion sickness estimation device, motion sickness prevention device, and motion sickness estimation method
JP4733242B2 (en) Driving attention amount determination device, method, and computer program
JP6669173B2 (en) Eyeball observation device, eyewear terminal, gaze detection method and program
Arabadzhiyska et al. Saccade landing position prediction for gaze-contingent rendering
US10117577B2 (en) Visual field calculation apparatus and method for calculating visual field
US20150371444A1 (en) Image processing system and control method for the same
JP5580855B2 (en) Obstacle avoidance device and obstacle avoidance method
US9589469B2 (en) Display control method, display control apparatus, and display apparatus
US20230249618A1 (en) Display system and display method
KR20150140814A (en) Head and eye tracking
WO2014004715A1 (en) Enhanced peripheral vision eyewear and methods using the same
US20150309567A1 (en) Device and method for tracking gaze
WO2020203915A1 (en) Pulse wave detection device, and pulse wave detection program
Guasconi et al. A low-cost implementation of an eye tracking system for driver's gaze analysis
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP2019146690A (en) Perceptibility evaluation system
JP2020028430A (en) Electroencephalogram analysis system, visibility evaluation system, electroencephalogram analysis method, and program
US20160117802A1 (en) Display control device, display control method, non-transitory recording medium, and projection device
JP2011086125A (en) Visual recognition detection device
JP6169446B2 (en) Gaze detection device
JP7261370B2 (en) Information processing device, information processing system, information processing method, and computer program
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
KR100651104B1 (en) Gaze-based computer interface apparatus and method of using the same
US9857598B2 (en) Display control device, display control method, non-transitory recording medium, and projection device
KR20190107738A (en) Image processing apparatus and method