JP2019535089A - 視覚配分管理を提供するシステムおよび方法 - Google Patents

視覚配分管理を提供するシステムおよび方法 Download PDF

Info

Publication number
JP2019535089A
JP2019535089A JP2019530378A JP2019530378A JP2019535089A JP 2019535089 A JP2019535089 A JP 2019535089A JP 2019530378 A JP2019530378 A JP 2019530378A JP 2019530378 A JP2019530378 A JP 2019530378A JP 2019535089 A JP2019535089 A JP 2019535089A
Authority
JP
Japan
Prior art keywords
sight
visual
data
states
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019530378A
Other languages
English (en)
Inventor
ムニョス・デルガド・アンドレス・マウリシオ
ライマー・ブライアン・エル
リー・ジョンボム
エンジェル・リンダ・サラ
セッペルト・ボビー・ダニエル
メーラー・ブルース・エル
コフリン・ジョセフ・エフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Massachusetts Institute of Technology
Original Assignee
Massachusetts Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Massachusetts Institute of Technology filed Critical Massachusetts Institute of Technology
Publication of JP2019535089A publication Critical patent/JP2019535089A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Abstract

モデルを使用して、視覚的データに基づいて状態を決定し、それに基づいて、決定された状態に基づくフィードバックを出力する、視覚配分を管理するシステムおよび方法が本明細書で提供される。視覚的データは、最初に視覚配分管理システムによって入手される。視覚的データは、タスクまたは活動に関与するなど、特定の状態にある人の眼球画像シーケンスを含む。視覚的特徴は、視覚的データから識別され得、方向および持続時間を含む視線情報が算出され得る。視覚的データ、そこから導き出された情報、および/または他の情況データが、状態に対応するモデルに入力されて、人が関与している特定の状態がモデル化された状態のうちの1つである確率を算出する。最も高い確率を有すると識別された状態に基づいて、警告または指示など、最適なフィードバックが、接続されたデバイス、システム、または物体に出力され得る。

Description

開示の内容
〔関連出願の相互参照〕
本出願は、「Attention Maps」のタイトルで2016年8月19日に出願された米国仮特許出願第62/377,213号の優先権および利益を主張し、この内容は、参照により全体として本明細書に組み込まれる。
〔分野〕
本出願は、ダイナミックに変化する環境において活動に関わっている間の個人の視覚分布(visual distribution)の評価に基づく視覚配分管理(visual allocation management)を提供し、その評価を使用して、状態、行動、活動などが個人の視覚配分から容易に観察できないか、明らかでないか、または検出可能でないにもかかわらず、個人によってそれらの状態、行動、活動などが行われていることを予測または推測する、システムおよび方法に関する。このような評価に関連するシステムおよび方法は、多くの活動に関して使用され得るが、本開示が適用可能である1つの非限定的な活動は、リアルタイムフィードバックを与える運転活動である。
〔背景〕
技術的進歩により、センサは、より安価かつ小型になり続けており、それによって、それらの大規模な普及および使用が可能となり、ほぼあらゆる物理的物体または存在が「スマート」または「インテリジェント」になっている。これらのセンサは、データを収集および送信することができる電子デバイスを指す。センサは、例えば2〜3例を挙げると、器具、機械、車両、家、幹線道路、都市に関連して近年使用されているが、これらのセンサの縮小するサイズおよびコストは、より多くのセンサの適用を、より可能性の低い環境で、例えば静脈内、皮膚上、衣類の中、歯の表面その他において有し、かつ可能にし続けている。センサの数の増大は、より多くのデータが収集、共有、および分析され、よりインテリジェントな発見、予測、決定などを行うことが可能になることを意味する。実際、センサおよびセンサを備えた物体を含む、相互接続された「モノ」(例えば、物体、デバイス、人々)の巨大なネットワークである、モノのインターネット(IoT)は、このデータの収集、共有、および分析をさらに促進する。
このようなタイプのデータの一例は、個人の視覚的行動に関し、これは、カメラなどのセンサによって取り込まれ、そこからの情報を推測するために、分配および/または分析され得る。例えば、車両の運転と関連して、個人の視覚的注意を測定するためのさまざまな技術が研究されてきた。これらの研究は、車両の運転中に安全を最重視すべき事象が発生する可能性に対する、視覚的−手動タスクを実行する影響を識別するなどの概念に重点を置いてきた。さらに、これらの研究では、視覚的注意が前方の道路から離れるか、または、車両内インターフェースの要素に向けられた合計時間に基づいて、このような注意要求をしばしば測定する。したがって、このような既存の研究は、ある期間にわたる、広範な運転環境におけるドライバーの視覚的行動を、ポジティブであるかネガティブであるかにかかわらず、考慮していない。
したがって、車両を動作させているドライバーの視覚的行動もしくは配分を含む、個人の視覚的行動または配分を、より幅広く考慮することによって、視覚配分管理を提供するシステムおよび方法が必要とされている。また、そのような視覚的行動が、視方向、持続時間、およびパターン、または視線の推移に基づいて測定され得ることも必要とされている。さらに、人間の行動、認識、注意力、ストラテジー、感情、ならびに他の精神および身体的状態(例えば、活動、タスク)(まとめて「状態」)をモデル化して、測定された視覚的行動の実行中に個人のそのような観察できないかもしくは検出できない状態の存在もしくは発生を予測または決定するために、測定された視覚配分が比較され得るようにする必要がある。モデル化され、測定された視覚配分と比較するこれらの状態には、ポジティブ、中立、およびネガティブなタイプが含まれる。さらに、フィードバックが、検出もしくは推測された状態に基づいて決定され得、当業者が理解する自然な遅れが「リアルタイム」とみなされたシステムでも起こることを考慮に入れて、リアルタイムまたはほぼリアルタイムでフィードバックを提供することができる必要がある。最後に、視覚配分管理は、運転のシナリオ、ならびに視覚的行動または配分が、他の状況では容易に利用可能または獲得可能ではない状態の存在を意味する他の活動、に適用可能となる必要がある。
〔概要〕
視覚配分を管理するシステムおよび方法が本明細書で提供される。さらに具体的には、活動に関与している人の、取り込まれた視覚的データを使用し、その視覚的データおよび/または他の情況情報に基づいて、その活動に関与している間の人の状態を識別または推測し、その結果、1つ以上の応答アクションがトリガされ得るような、視覚配分管理システムおよび方法が、本明細書に記載される。状態は、人の注意力、認識、感情(例えば、恐れ、怒り)、または他の精神もしくは身体的状態(例えば、眠気)を指すために本明細書において使用され、これは、場合によっては視覚的データから容易に観察可能もしくは測定可能でない。本明細書に記載するように、人の視覚的データは、運転など、1つ以上の活動に関与している間に、入手される。視覚的データは、1つ以上のカメラを含む、さまざまなセンサを用いて、取り込まれ得る。瞳孔位置などの視覚的特徴が、視覚的データから導き出されるか、または抽出され得、視線情報が算出され得る。視線情報は、視線方向、視線持続時間、および視線推移を含み得る。
視覚的データ、視覚的データから導き出されたデータ(例えば視線情報)、および入手された他の情況情報は、人間の状態に対応する1つ以上のモデルに入力されるか、またはこれと共に使用され得る。モデルは、さまざまな数学的および/または統計モデルであってよく、事前に決定され、かつ/または事前に記憶され得る。モデルは、人が関与している活動の期間中の、その人に関与または関連するタスク、行動、認識、注意力などを含み得る、状態のモデル化されたデータ表示であるか、またはそれに対応するものである。入力データは、各モデルのそれぞれの確率を算出するために、モデルのデータ表示と比較され得る。モデルによって算出および/または出力された確率のそれぞれは、人が、1つ以上の活動に関与している間に、モデルによって表示される状態にも関与したか、またはその状態も経験していた可能性を示す。しばしば、最も高い確率を生じた1つまたは複数のモデルは、その人に対応する、最も可能性の高い状態であるとみなされる。識別された状態に基づいて、最適なまたは必要とされるフィードバックが、例えば、ルール、閾値などを用いて、決定される。算出または決定された最適なまたは必要とされるフィードバックは、接続されたシステム、物体、デバイス、人などに出力される。フィードバックおよび出力は、特定の行動、注意力もしくは認識のレベル、タスク、その他を識別および/または促進するのに使用され得る。
視覚配分を管理するシステムの例示的な一実施形態では、少なくとも1つのメモリ、および少なくとも1つのメモリに通信可能に連結された少なくとも1つのプロセッサが提供される。メモリは、(1)複数の候補状態に対応するモデル;および(2)各モデルが複数の候補状態のうちの1つに対応する、複数のモデル、のうちの少なくとも1つを含む、1つ以上のモデルを記憶する。連続した期間中に活動に関与している人に対応する視覚的データが、受信される。視覚的データから、一連の視線が識別される。さらに、一連の視線における各視線について、視線方向を含む対応する視線情報が識別される。一連の視線における視線はそれぞれ、それぞれの視線情報に基づいて、1組の所定の空間領域のうちの1つの空間領域に分類される。1つ以上のモデルに基づいて、連続した期間中に活動に関与している間の人の1つ以上の状態の存在は、記憶された1つ以上のモデルのそれぞれに、(1)一連の視線における視線の分類、および(2)一連の視線における視線の視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別される。フィードバックは、識別された1つ以上の状態に基づいて出力される。
いくつかの実施形態では、1つ以上の眼球画像シーケンスが、視覚的データにおいて識別される。1つ以上の眼球画像シーケンスは、連続した期間中に活動に関与している人の眼球領域の画像を含む。視覚的特徴は、1つ以上の眼球画像シーケンスの画像それぞれから抽出される。一連の視線および対応する視線情報は、抽出された視覚的特徴に基づいて1つ以上の眼球画像シーケンスから識別される。
いくつかの実施形態では、連続した期間中の所与の段階における1つ以上の状態の存在は、以下のとおり識別される。複数の候補状態それぞれが存在するそれぞれの確率が、1つ以上のモデルによって、モデル入力データに基づいて算出される。連続した期間中の所与の段階における存在の最も高いそれぞれの算出された確率を有する複数の候補状態のうちの1つ以上が、識別された1つ以上の状態として選択される。
いくつかの実施形態では、出力されたフィードバックは、以下のうちの1つ以上を含む:(1)連続した期間中における複数の候補状態それぞれの存在の確率;(2)連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された1つ以上の状態;および(3)連続した期間中に活動に関与している間の、人の識別された1つ以上の状態に基づく指示。
いくつかの実施形態では、視線持続時間および視線推移のうちの1つ以上は、一連の視線それぞれについて識別される。視線推移は、一連の視線のうちの次の視線の視線方向を示す。一連の視線それぞれの視線情報は、それぞれの視線持続時間および視線推移のうちの1つ以上をさらに含む。1つ以上の状態を識別することは、一連の視線それぞれの視線持続時間および視線推移のうちの1つ以上にさらに基づく。さらに、1つ以上の視線パターンが、一連の視線それぞれの分類および/または一連の視線それぞれの視線推移に基づいて、一連の視線の中から識別される。さらに、1つ以上の状態の存在を識別することは、1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく。
いくつかの実施形態では、1つ以上のモデルは、隠れマルコフモデルである。さらに、1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応し、1つ以上のカメラを用いて取り込まれる。
いくつかの実施形態では、視覚的データを受信し、結果を出力することは、リアルタイムで実行される。
いくつかの実施形態では、情況データが、1つ以上の通信可能に連結されたシステムから受信される。1つ以上の状態の存在を識別することは、情況データにさらに基づく。情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含み得る。
いくつかの実施形態では、1つ以上のモデルは、(1)連続した期間中に活動に関与している複数の人々に対応する視覚的データ、および(2)活動に関与している間に複数の人々に存在する1つ以上の状態を含む状態データ、を用いてトレーニングされる。
いくつかの実施形態では、車両は、本明細書に記載する視覚配分を管理するシステムを含む。活動に関与する人は、車両を動作させることに関与するドライバーである。出力されたフィードバックは、識別された1つ以上の状態に基づいた指示を含む。指示は、以下のうちの1つ以上を含む:(1)車両のドライバーの空間的注意力または認識を管理する指示、(2)車両の制御に影響をもたらす指示、ならびに(3)車両および車両のドライバーのうちの少なくとも1つとの情報交換を増やす指示。車両および車両のドライバーのうちの少なくとも1つとの情報交換を増やす指示は、車両への、および車両からの情報交換を抑制する指示を含み得る。
視覚配分を管理する方法の例示的な一実施形態では、1つ以上のモデルが記憶され、これは以下のうちの少なくとも1つを含む:(1)複数の候補状態に対応するモデル;および(2)各モデルが複数の候補状態のうちの1つに対応する、複数のモデル。連続した期間中に活動に関与している人に対応する視覚的データが、受信される。一連の視線が視覚的データから識別される。一連の視線における各視線について、視線方向を含む対応する視線情報が識別される。一連の視線における視線はそれぞれ、それぞれの視線情報に基づいて、1組の所定の空間領域から選択される1つの空間領域に分類される。さらに、1つ以上のモデルに基づいて、連続した期間中に活動に関与している間の人の1つ以上の状態の存在は、記憶された1つ以上のモデルのそれぞれに、(1)一連の視線における視線の分類、および(2)一連の視線における視線の視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別される。識別された1つ以上の状態に基づいたフィードバックが、出力される。
いくつかの実施形態では、1つ以上の眼球画像シーケンスが、視覚的データにおいて識別される。1つ以上の眼球画像シーケンスは、連続した期間中に活動に関与している人の眼球領域の画像を含む。視覚的特徴は、1つ以上の眼球画像シーケンスの画像それぞれから抽出される。一連の視線および対応する視線情報は、抽出された視覚的特徴に基づいて1つ以上の眼球画像シーケンスから識別される。
いくつかの実施形態では、連続した期間中の所与の段階における1つ以上の状態の存在は、以下のとおり識別される。複数の候補状態それぞれが存在するそれぞれの確率が、1つ以上のモデルによって、モデル入力データに基づいて算出される。連続した期間中の所与の段階における存在の最も高いそれぞれの算出された確率を有する複数の候補状態のうちの1つ以上が、識別された1つ以上の状態として選択される。
いくつかの実施形態では、フィードバックを出力することは、(1)連続した期間中における複数の候補状態それぞれの存在の確率を決定すること;(2)連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された1つ以上の状態を決定すること;および(3)連続した期間中に活動に関与している間の人の識別された1つ以上の状態に基づいて指示を提供すること、を含む。
いくつかの実施形態では、視線持続時間および視線推移のうちの1つ以上は、一連の視線それぞれについて識別される。視線推移は、一連の視線のうちの次の視線の視線方向を示す。一連の視線それぞれの視線情報は、それぞれの視線持続時間および視線推移のうちの1つ以上をさらに含む。さらに、1つ以上の状態を識別することは、一連の視線それぞれの視線持続時間および視線推移のうちの1つ以上にさらに基づく。
いくつかの実施形態では、一連の視線の中からの1つ以上の視線パターンが、一連の視線それぞれの分類および/または一連の視線それぞれの視線推移に基づいて、識別される。1つ以上の状態の存在を識別することは、1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく。
いくつかの実施形態では、1つ以上のモデルは、隠れマルコフモデルである。さらに、いくつかの実施形態では、1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応し、1つ以上のカメラを用いて取り込まれる。
いくつかの実施形態では、視覚的データを受信し、結果を出力することは、リアルタイムで実行される。
いくつかの実施形態では、情況データが、1つ以上の通信可能に連結されたシステムから受信される。さらに、1つ以上の存在を識別することは、情況データにさらに基づく。さらに、情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む。
いくつかの実施形態では、1つ以上のモデルは、(1)連続した期間中に活動に関与している複数の人々に対応する視覚的データ、および(2)活動に関与している間に複数の人々に存在する1つ以上の状態を含む状態データ、を用いてトレーニングされる。
視覚配分を管理する1つの例示的なシステムでは、少なくとも1つのメモリ、および少なくとも1つのメモリに通信可能に連結された少なくとも1つのプロセッサが提供される。連続した期間中に活動に関与している複数の人々に対応する視覚的データ、および、連続した期間中に活動に関与している間に複数の人々に存在する1つ以上の状態を含む状態データが、受信される。1つ以上の数学的構造が、視覚的データを用いて算出される。1つ以上の状態のそれぞれに対応する1つ以上のモデルは、算出された数学的構造のうちの1つ以上に基づいてトレーニングされる。トレーニングされた1つ以上のモデルは、1つ以上のメモリに記憶される。トレーニングされた1つ以上のモデルを用いて、1つ以上の状態のうちの少なくとも1つの存在が、異なる連続した期間中に活動に関与している人の視覚的データを用いて識別される。
いくつかの実施形態では、数学的構造は、視線推移および視線持続時間のうちの少なくとも1つとの関連で、視覚的データにおける視線を表す構造を含む。さらに、数学的構造は、(i)推移カウントマトリクス;(ii)推移確率マトリクス;(iii)推移重要性マスクマトリクス;(iv)推移有意性マトリクス;(v)持続時間カウントマトリクス;(vi)場所当たりの時間分布パーセンテージマトリクス(time distribution per location percentage matrix);(vii)推移当たりの時間分布パーセンテージマトリクス(time distribution per transition percentage matrix);および(viii)持続時間重要性マスクマトリクスからなる群から選択された、1つ以上のマトリクスを含み得る。
いくつかの実施形態では、推移カウントマトリクスは、視覚的データにおける視線が、1組の所定の候補視線場所のうちの1つの視線場所から別の視線場所に推移する回数を表すデータを含み;推移確率マトリクスは、推移カウント値マトリクスの値を、それぞれの列のすべての値の合計で割ることによって算出される、視線のそれぞれが別の候補視線場所に推移する相対頻度を表すデータを含み;推移重要性マスクマトリクスは、推移カウントマトリクスの値を、それぞれの列の値のうちの最大値で割ることによって算出された、データを含み;推移有意性マトリクスは、推移確率マトリクスに推移有意性マトリクスを掛け合わせることによって算出されたデータを含み;持続時間カウントマトリクスは、視線それぞれの持続時間を表すデータを含み;場所当たりの時間分布パーセンテージマトリクスは、候補視線場所によって持続時間カウントマトリクスを正規化することによって得られる、候補視線場所それぞれについての視線の持続時間の集合を表すデータを含み;推移当たりの時間分布パーセンテージマトリクスは、候補視線場所すべてによって持続時間カウントマトリクスを正規化することによって得られる、候補視線場所のすべてに対する候補視線場所それぞれの視線の持続時間の集合を表すデータを含み;持続時間重要性マスクマトリクスは、持続時間カウントマトリクスを1に正規化することによって算出されたデータを表す。
いくつかの実施形態では、その他の連続した期間中に活動に関与する人の1つ以上の状態は、その人の視覚的データにおいて識別されない。
本開示は、添付図面と併せて理解される以下の詳細な説明から、さらに十分に理解されるであろう。
〔詳細な説明〕
特定の例示的な実施形態は、本明細書に開示する装置および方法の構造、機能、製造、および使用の原理の全体的な理解をもたらすために説明される。これらの実施形態の1つ以上の例を添付図面に示す。当業者は、本明細書に具体的に説明され添付図面に示される装置および方法が、非限定的な例示的実施形態であること、また、本開示の範囲が特許請求の範囲によってのみ定められることを理解するであろう。例示的な一実施形態に関連して示されるか、または説明される特徴は、他の実施形態の特徴と組み合わせることができる。このような修正および変形体は、本開示の範囲に含まれることが意図されている。本開示では、さまざまな実施形態の同様の符号のコンポーネントは概して、それらのコンポーネントが同様の性質のものであり、かつ/または同様の目的に役立つものである場合に、同様の特徴を有する。当業者は、本開示を鑑みれば、さまざまな図面にわたる同様の符号のコンポーネントが類似しているさまざまな実例を理解するであろう。さらに、いくつかの場合、当業者が理解するかもしくは別様に当業者に既知であり、かつ/または本開示において提供される、さまざまな用語は、互換的に使用される。非限定的な例として、認識および注意力、ならびに操作者およびユーザなどの用語は、互換的に使用され得る。
本明細書に記載するシステムおよび方法は、モデルを用いる視覚配分管理が、人間の視覚的データから人間の状態を識別し、識別された人間の状態に基づいて適切なフィードバックを算出することを可能にする。記載されるシステムおよび方法は、多くの方法で使用され得、そのうちのいくつかを本明細書に記載するが、1つの適用は、「リアルタイム」とみなされるシステムにおいても、当業者が理解する自然な遅延が発生することを考慮に入れて、ほぼリアルタイムを含む、リアルタイムの視覚配分管理を提供するためのものである。このために、視覚配分管理システムは、活動に関与する人の視覚的データを入手する。視覚的データは、視覚配分管理システムのセンサを用いて活動に関与している間の人の動画または画像を取り込むことによって入手することができ、センサのうちのいくつかは、ビデオカメラまたは写真用カメラを含み得る。視覚的データは、活動に関与している間の人の少なくとも眼球画像シーケンスを含み得る。瞳孔位置などの視覚的特徴は、視覚的データから抽出され、活動への人の関与全体にわたって視線情報を算出するのに使用され得る。視線情報は、視線方向(例えば、所与の時間に、人が見ているもの、または人が見ている方向もしくは領域)、視線持続時間(例えば、人が所与の時間に視線方向を見ている長さ)、および/または(例えば、人が一方向の注視から別の方向の注視へと動くときの)視線推移を含み得る。視覚的データにおける各視線は、少なくともその方向または空間領域に従って分類される。
さらに、本明細書に記載する視覚配分管理に関連して、情況情報が、さまざまな相互接続されたデバイス、システムなどから入手され得る。情況情報は、活動に関与する間の人の状態を決定するため、または、識別された状態に基づいて最適なフィードバックを決定するために使用され得る、実質的にあらゆるタイプのデータを含み得る。視覚的データ、そこから導き出される情報、例えば視線情報、および/または情況データは、人が活動中に関与し得る各潜在的または候補状態に対応する、事前に記憶されたモデルに入力され得る。モデルは、数学的モデル、例えば隠れマルコフモデル、および他の統計モデルであってよく、または、学習アルゴリズム(例えば人工知能)に基づくモデルであってよい。モデルはそれぞれ、ある人、またはその人が活動に関与する間に所与の状態でどのように行動するかの、データ表示および/または1組の仮定を含み得る。したがって、モデルはそれぞれ、入力データを、そのデータ表示もしくは仮定と比較し、人が活動に関与する間にそれぞれのモデル化された状態にあったかもしくはその状態を実行していたかの確率を出力することができる。
活動を実行している間の人の1つまたは複数の状態を識別する、モデルからのこれらの出力された確率に基づいて、最適な、必要とされる、または推奨されるフィードバックが決定され得る。フィードバックの決定は、識別された1つもしくは複数の状態、情況情報、ならびに/またはモデルからの出力結果がどのように取り扱われるべき、もしくは取り扱われ得るかを示すルールおよび閾値に基づき得る。フィードバックは、警告、指示、通知、メッセージ、応答、リクエストなどを含み得、これは、例えば、適応性のある機能性もしくは制御および/または適応性のあるディスプレイもしくはユーザーインターフェースを提供することを含む、以下でさらに詳細に説明するような、救済目的のために構成され、またはそれを対象とされ得る。次に、決定されたフィードバックは、視覚配分管理システムおよび/またはこれに連結された他のシステム、デバイス、物体などによって実行され得る。
本明細書に記載するいくつかの例示的な実施形態では、視覚配分管理プロセスおよびシステムは、ドライバーによる車両の操作(例えば運転)に関連して記載される。このような実施形態では、視覚配分管理は、車両に埋め込まれるか、またはこれに通信可能に連結される。車両を運転している間のドライバーの記録された動画の形態である視覚的データは、カメラを用いて取り込まれ得る。記録された動画は、車両の運転中のドライバーの一連の画像を含み得る。記録された動画の各画像シーケンス中のドライバーの瞳孔位置などの視覚的特徴が、識別され得、その瞳孔位置に基づいて、ドライバーが見ている空間領域または方向が決定され得る。
視線に対応する眼球画像シーケンスまたは眼球画像シーケンスのサブセット中の画像はそれぞれ、所定の1組の空間領域に分類され、かつ/または割り当てられる。これらの空間領域は、フロントガラス、サイドミラー、ハンドル、計器、インフォテインメントシステムなどにおけるエリアであってよい。この情報、ならびに、例えば他の車両、クラウドストレージ、および/もしくは他のシステムから入手した情況データは、状態のモデルに入力される。これらのモデルは、取り込まれた視覚的データから容易に観察できないかまたは検出できない、人間の状態を表す。例えば、状態は、ドライバーの注意力、認識、感情(例えば、恐れ、怒り)、または他の精神もしくは身体的状態(例えば眠気)に関連し得る。モデルはそれぞれ、ドライバーがそれぞれのモデル化された状態にあったか、またはその状態に関与していた確率を出力する。
出力された確率に基づいて、視覚配分管理システムは、適切なフィードバックを決定し得る。フィードバックの目的はさまざまであってよく、他の行動もしくは状態を促進する、注意力、認識、もしくは感情の状態を変える、潜在的な問題を救済する、動機づけすること、その他を含む。フィードバックは、指示、警告などの形態であってよく、視覚配分管理システムが提供されている車両に、または、他の車両、クラウドシステムなどといった相互接続されたシステムもしくは物体に、送信され得る。当然、視覚配分管理システムの使用は、単に例示目的で一例として提供されたものであることを理解されたく、当業者は、本明細書に記載する視覚配分管理の多くの適用を理解し、そのいくつかの非限定的な例は、本明細書に提供されている。
視覚配分管理エコシステム
図1は、視覚配分の管理に関連する本開示が使用され得る、コンピューティングデバイスエコシステム100の例示的な実施形態を示す。いくつかの実施形態では、用語「視覚配分」は、人の視力、注目、視線などの分布または割り当てを指すために本明細書で使用され得、これには、所与の時間に眼球運動を空間領域、場所、方向などに割り当てることを含む。視覚配分を管理することは、いくつかの実施形態では、視覚的データ(例えば、視線方向、視線持続時間、視線推移)、ならびに/または、対応する人間の状態(例えば、行動、活動、タスクなど)を決定または予測するための情況データを入手および分析し、それに基づいて情報を出力することを指すことを理解されたい。視覚的データは、視覚的注意力および/または認識のプロキシとして役立ち得、これは、入手した視覚的データが、注意力または認識情報を表すか、または暗示し得ることを意味することを理解されたい。同様に、本明細書に記載する出力は、人間の視覚的注意または認識を管理するか、変化させるか、促進するか、または別様にそれに対する影響を有するように使用され得る。
エコシステム100は、人の視覚配分を管理するためにデータを収集し、記憶し、操作し、算出するように構成された、さまざまなシステム、デバイス、物体、ネットワーク、インフラストラクチャーなどを含む。コンピューティングデバイスエコシステム100が、任意の数および種類の相互接続されたシステム、デバイス、物体、インフラストラクチャーなどを含み得ることを理解されたい。例えば、エコシステム100は、モノのインターネット(IoT)、ホームネットワーク、オフィスネットワーク、または同様の相互接続されたデバイスのセットを指すことができる。示された例示的なコンピューティングデバイスエコシステム100では、データは、有線または無線通信を介して伝送され得ることも理解されたい。
図1に示すように、エコシステム100は、とりわけ、視覚配分を管理するように構成された、視覚配分管理システム103を含む。このために、視覚配分管理システム103は、人103pの、または人103pに関連する、視覚配分データまたは単に「視覚的データ」を収集または決定する。以下でさらに詳細に説明するように、視覚的データは、未処理形態の、人103pの画像化、および処理形態の、そこから引き出されたデータ、例えば眼球画像シーケンス;視覚的特徴、および瞳孔位置、眼球状態(例えば、開いている、閉じている)、顔面の特徴、および当業者に既知の他の特徴を含む、視覚的特徴を識別するのに使用される特性;視線方向;視線持続時間;視線推移などを含み得る。用語「個人」、「人間」、「人々」、「人」、「ユーザ」、および他の類似用語は、視覚配分、およびそれに関連するデータが視覚配分管理システム103によって取り込まれ、かつ/または処理される、一人または複数の人間を指すように本明細書で互換的に使用されることを理解されたい。コンピューティングデバイスエコシステム100の視覚配分管理システム103、およびその他のコンポーネントおよび/またはシステムは、任意の数の個人の視覚配分を、連続して、または同時に管理するように構成されることも理解されたい。にもかかわらず、単純化のため、単一の人103pのみが図1に示され、本明細書に記載する実施形態は、単に単純化のために一人の人に関連して視覚配分管理システム103を使用することを指し得る。
視覚配分管理システム103によって収集または決定された視覚的データに基づいて、システム103は、取り込まれた視覚的データに関連する期間中に人103pが経験するか、人103pにさらされるか、人103pによって実行されるか、または別様に人103pに影響を与える状態、ならびに/または人103pの視覚的データを目標ストラテジーと比較する方法を算出するか、見積もるか、または別様に識別する。本明細書でさらに詳細に説明するように、いくつかの実施形態では、視覚配分管理システム103は、監視システム101に組み込まれるか、または埋め込まれ、かつ/または通信可能に連結され得、監視システム101は、視覚配分管理システム103により生じる処理および結果に基づいて、管理し、かつ/または管理され得る。視覚配分管理システム103および/または監視システム101は、ネットワーク105を介して、クラウド109およびシステム107−1、107−2、…、107−n(集合的に「システム107」と呼ぶ)を含むさまざまなシステムに、通信可能に連結される。本明細書でさらに詳細に説明するように、視覚配分管理システム103および/または監視システム101は、システム107およびクラウド109と協力して、例えば、中央の接続性を高め、データおよび他の資源を共有し、最終的には、より効果的で有効な視覚配分管理を提供することができる。視覚配分管理システム103に通信可能に連結され(またはその中に埋め込まれ)得るシステム107の1つの非限定的な例は、内容が参照により全体として本明細書に組み込まれる、本出願と同日出願された、Seppelt他の「Systems and Methods for Using an Attention Buffer to Improve Resource Management」のタイトルの米国特許出願に詳細に記載されるような、視覚配分、人および/もしくは車両の算出された状態を含むさまざまな要因、ならびに/または周囲のおよび/または別様にそれに関連する他の要因に基づいて、活動に関与する間の人の注意力レベルを動的に測定および評価することができる、資源配分管理システムである。
より具体的には、依然として図1を参照すると、図1には示されていないが、視覚配分管理システム103は、通信可能に連結され、視覚配分管理を提供するように構成された、1つ以上のプロセッサ、1つ以上のメモリ、および/または1つ以上のセンサを含む。いくつかの実施形態では、視覚配分管理システム103の1つ以上のメモリは、本明細書に記載する配分管理を行うために1つ以上のプロセッサによって実行され得るコードまたはロジックを記憶し得る。あるいは、またはさらに、視覚配分管理を提供するためのコードまたはロジックのすべてまたは一部は、以下でさらに詳細に説明する、(1)クラウド109および/もしくは(2)監視システム101(例えば車両)のメモリ、プロセッサおよび/または他のコンポーネント、(1)クラウド109および/もしくは(2)監視システム101内のメモリ、プロセッサおよび/または他のコンポーネント、または(1)クラウド109および/もしくは(2)監視システム101と関連付けられたメモリ、プロセッサおよび/または他のコンポーネントの中で、またはこれらによって、記憶および実行され得る。なお、さらに、1つ以上のメモリは、ユーザに関して受信され、その後システム103によって分析されるデータなどの、システム103によって検出されるか、決定されるか、または別様に受信されたデータを、その中に記憶させるように動作可能であってよく、この分析については、以下でさらに詳細に述べる。
視覚配分管理システム103のセンサは、当業者が理解するさまざまな技術を用いて、人の視覚配分データを取り込むように構成された、1つ以上のカメラを含み得る。用語「視覚配分データ」または「視覚的データ」は、(1)期間Tの間、人103pの眼球領域およびユーザ103pの頭部のうちの1つ以上と関連付けられた処理されていない(例えば未処理の)データ;または(2)未処理のデータもしくは処理されていないデータから引き出された情報を意味する、処理されたデータを指し得ることを理解されたい。例えば、視覚配分データは、人103pの連続した動画または周期的静止画像を指すことができ、これは、場合によっては、視覚配分管理システム103の一部であるかまたはこれと通信しているカメラによって取り込まれる。人103pはさまざまな角度および距離から撮像され得るが、動画および/または画像は、少なくとも人103pの眼球または眼球領域の画像化を含み、眼球画像または画像シーケンスは、そこから、および/または人103pの頭部の画像化から引き出され得、人103pが見ている方向を確認することができる。いくつかの実施形態では、視覚配分データは、別のデバイスによって事前に取り込まれ、相互接続されたメモリ、または視覚配分管理システム103のメモリに記憶され得る。さらに、当業者に既知であるように、視覚配分データは、例えば眼瞼の動き、眼球または顔の筋肉の動き、脳波、赤外線または音響画像(thermal or acoustic imaging)(または他の形態のエネルギーを使用するもの)などを測定するセンサから収集されたデータから入手されるか、または引き出され得る。
視覚配分管理システム103の、またはこれと別様に通信しているカメラは、以下でさらに詳細に説明するように、連続的に、または特定の事象もしくはアクションによってトリガされて、視覚的配分データ(例えば動画、静止画像)を取り込むように構成され得る。取り込まれた視覚的データは、1つ以上のメモリ(例えば揮発性もしくは不揮発性)、例えば視覚配分管理システム103のメモリに記憶され、以下に記載するように処理されて、人103pの視覚配分に関するフィードバック、指示、および/または他の出力を提供することができる。
依然として図1を参照すると、監視システム101は、システム、1組のシステム、インフラストラクチャー、物体などであり、視覚配分管理システム103を含むか、視覚配分管理システム103が埋め込まれているか、または視覚配分管理システム103と共に動作する。図1では、監視システム101および視覚配分管理システム103が独立した要素として図示されているが、いくつかの実施形態では、視覚配分管理システム103および監視システム101が単一の結合力のあるシステム、または1組のシステムを指し得ることを理解されたい。監視システム101は、多くの種類のうちの1つであってよいが、本明細書に記載する例示的な一実施形態では、監視システム101は、視覚配分管理システム103を含む車両である。このようなシナリオでは、例えば、視覚配分管理システム103は、期間Tの間のドライバー103pの眼球領域および/または頭部の視覚的データ(例えば動画、画像)を取り込み、取り込まれた視覚的データに基づいて期間Tの間の個人103pの行動を決定し、データ(例えば指示、警告、通知など)を車両101、人103p、またはシステムの他のコンポーネント(例えば、この種のエコシステムで提供され得る可能なコンポーネントまたはシステムとして例示されるか、または別様に知られているかに関わらず、ポータブルデバイス技術(portable technologies)およびエコシステム100における他のシステム)に出力することができる。例えば、出力データは、車両101の制御または部分制御を想定せよという指示であってよい。いくつかの実施形態では、出力データの種類または詳細は、事前に決定されかつ/または事前に記憶されたルール、閾値、目標(例えば、目標ストラテジー)などに基づいていてよい。この点について、ルール、閾値、目標などは、視覚配分管理システム103の1つもしくは複数のメモリ、または(例えば、クラウド109の中、他の接続されたデバイスおよびシステムの中のなどの)任意の相互接続されたメモリに記憶され得る。
例示したように、監視システム101は、1つ以上のメモリ101mと、1つ以上のコンポーネント101cと、を含む。メモリ101mは、監視システム101によって使用され、システム101の動作前に提供されたデータ、ルール、コード、ロジックなど、ならびにシステム101を動作させる結果として受信されかつ/もしくは引き出されたデータ、ルール、コード、ロジックなど、例えば、受信データ、受信データを考慮して調節されたルールおよびロジックなどを含む、それ自体のデータ、ルール、コード、ロジックなどを記憶することができる。例えば、監視システム101が車両である、前述し本明細書に記載する実施例では、メモリ101mに記憶されるデータは、車両に関する情報(例えば、燃料油面、油面、タイヤ圧力、残りの電池容量)、車両によって感知されるかまたは取り込まれた情報(例えば、異なる部分の温度、外部の温度、速度、場所)、周辺環境に関する情報(例えば、物体、障害物、他の車両)、および車両のドライバーまたは乗客、時間、旅行、予報などに関する他のデータ、を含み得る。これらの非限定的な例は、例示のために提示されたものであり、当業者は、監視システム101によって記憶され得る他の種類のデータ、および本明細書に記載する車両の例示的な実施形態以外の種類の監視システム101を認識するであろうことを理解されたい。
いくつかの実施形態では、システム101のメモリ101mに記憶されたデータは、コンポーネント101cによって取り込まれるか、もしくは入手され、あるいはコンポーネント101cと関連付けられる。監視システム101のコンポーネント101cは、監視システム101のものであるか、監視システム101に埋め込まれるか、取り付けられるか、もしくはつながれ、かつ/またはデータを収集および/もしくは伝送するように動作可能である、任意の物体、デバイス、部分、コンポーネントなどであってよい。1つの非限定的な例として、コンポーネント101cはセンサを含み得る。監視システム101が車両である、前述したシナリオでは、コンポーネント101cは、道路状況センサ、距離センサ、空気圧センサ、全地球測位システム(GPS)センサ、および当業者に既知である他のものなどのセンサであってよい。さらに、監視システム101が車両である、例示的なシナリオに関連して、コンポーネント101は、車両内ディスプレイ(例えば、車両内のインフォテインメント(IVI)センター/システム、エンターテインメントセンター/システム、器具パネル/ダッシュボードなど)、および/または(例えば、ブルートゥース、Wi−Fiなどを使用して)車両と関連付けられるか、もしくは車両につながれたデバイス、例えばモバイルデバイス、オーディオプレイヤー、ビデオプレイヤー、スクリーン、タブレット、コンピュータなどを含み得る。コンポーネント101cが1つ以上のプロセッサであってよいか、またはこれを含み得ることを理解されたい。
メモリ101mに記憶され、かつ/またはコンポーネント101cで取り込まれるか、生成されるか、もしくはこれと関連付けられたデータは、視覚配分管理システム103と共有されるか、またはこれに伝送されて、本明細書に記載する視覚配分の管理中に情況の改善を提供することができる。例示的な例として、システム101のコンポーネント101c(例えばセンサ)によって入手または感知された凍結温度および滑らかな表面のデータは、視覚配分管理システム103に伝送され、かつ/またはこれによって使用され得、例えば、人(例えば、ドライバー)103pの取り込まれた視覚的データが比較される目標ストラテジーは、道路および環境条件によって提示される危険の増加を考慮に入れるように調節または強調され得る。
さらに図1を参照すると、例示されるように、(例えば、以下の図2および図3で詳述するような)この図で提供されるサブシステムまたはコンポーネントを含む視覚配分管理システム103および監視システム101は、さまざまなシステム107およびクラウド109内の、またはそれらのデータおよびコンポーネントに接続され、それによって動作され、かつ/またはそれらと関連付けられているか、もしくは関連付けられることができる。視覚配分管理システム103と、監視システム101と、システム107と、クラウド109との間のこのような通信は、ネットワーク105を介して実行され得る。ネットワーク105は1つ以上のネットワークを含み得る。ネットワーク105の非限定的な例は、インターネット、プライベートエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、企業のプライベートネットワーク(EPN)、仮想プライベートネットワーク(VPN)などを含む。ネットワーク105を介したこのような通信は、Wi−Fi、ブルートゥース、および携帯電話もしくは衛星通信サービスを含む、当業者に既知であるさまざまな有線および無線技術、基準、およびプロトコルを用いて実行され得る。さらに、いくつかの実施形態では、システム101、103、107、および109、ならびに/またはそれらのそれぞれのデバイス、コンポーネント、部分、センサ、サブシステムなど(例えばコンポーネント101c)は、例えば、近距離通信テクノロジーおよびブルートゥースなどの基準を介して、ならびに/またはコントローラー・エリア・ネットワーク(CAN)バスおよび当業者に既知の他のものなどの構成を用いて、直接通信し得る。このために、図1には例示していないが、システム101、103、107、109および/またはそれらのそれぞれのデバイス、コンポーネント、部分、センサ、サブシステムは、前述した通信を可能にするためにハードウェア(例えば、ラジオ、アンテナ)およびロジックを含む。
単一のクラウド109が図1に例示されているが、エコシステム100は、公的および私設クラウドを含む複数のクラウド、ならびに、データ伝送、記憶および/または検索のための他の技術を含み得、これらは、当業者に既知であることを理解されたい。本明細書においてクラウド109での記憶に言及することによって、他の場所に記憶する能力を決して制限するわけではない。同様に、3つのシステム107−1、107−2、および107−nのみが例示されているが、任意の数のシステムが、監視システム101および/または視覚配分管理システム103に通信可能に連結され得る。
クラウド109は、共有されるコンピューティング資源、ならびに視覚配分管理システム101、監視システム103、および/またはシステム107などのデバイスがアクセス可能なデータで構成された、インフラストラクチャーを指す。共有されるコンピューティング資源は、ネットワーク、サーバー、記憶装置、アプリケーションおよびサービスを含み得る。当業者は、任意の種類のデータおよびデバイスをクラウド109に含め得ることを理解するであろう。にもかかわらず、クラウド109のコンテンツの例示的な一例は、接続されたシステム107から収集されクラウド109に記憶された視覚配分データを含む。クラウド109におけるアプリケーションおよびサービスは、視覚配分データを処理し、例えばそこから情報を引き出すのに使用され得る。システム101が車両である、前述した例示的なシナリオでは、クラウド109は、そこから、例えば、車両101の近くにおける、潜在的な危険および/または他の車両(例えばシステム107)のドライバーの視覚配分パターンを引き出すか、または識別し得る。いくつかの実施形態では、視覚配分管理システム103により使用されるデータまたはロジックは、クラウド109に記憶される。例えば、フィードバック、指示などを出力するために視覚配分管理システム103によって使用されるモデルおよびルールは、クラウド109に中心的に記憶され得る。さらなる例として、システム103によって記憶されるかまたは別様に受信されるデータ、ならびに、受信データを分析するかまたは別様に使用するためにシステム103によって行われた任意のステップにより実行される任意の出力もまた、クラウド109に中心的に記憶され得る。いくつかの実施形態では、これらのモデルは、数学的モデル、統計モデル、論理モデル、ならびに当業者に既知であるような、ベイジアン・ネットワーク、カルマンフィルタ、ニューラルネットワーク、カーネル法などを含む、人工知能ツールおよび技術を含み得る。
システム107は、事実上、データを収集し、かつ/またはそれを、例えば視覚配分管理システム103と通信することができる任意のシステム、デバイス、物体、人、インフラストラクチャーなどを含み得る。例えば、システム107は、いくつかの相互接続されたデバイス(例えば、冷蔵庫、テレビ、冷暖房システム)、およびセンサを備えた物体(例えば、ドア、窓、セキュリティシステム)を有する家;センサを備えた機械類で作られた工場;モバイルデバイス、植え込み可能なデバイス、ウェアラブルデバイスなどを身に着けた人、を含み得る。当業者は、他の種類のシステム107を認識するであろう。にもかかわらず、システム107は、視覚配分管理システム103に、またはそのためのデータを提供して、より情況に沿った視覚配分管理を実行することができ、視覚配分管理システムは、例えばシステム103によって実行された視覚配分管理処理に基づいて、データまたは指示をシステム107に出力し得る。
前述の一例で説明したように、システム107は、システム/車両101と相互接続された周囲の車両を含み得る。周囲の車両107は、それら自体が感知または収集した情報を車両101と共有することができ、逆もまた同じである。いくつかの実施形態では、車両101は、視覚配分管理システム103によって算出または決定された視覚配分管理結果を鑑みて、視覚配分管理システム103から出力された指示および/または他のデータを周囲の車両107に送信し、例えば周囲の車両107のドライバーに警告し、かつ/または周囲の車両107に指示して、特定の様式で動かすかもしくは機能させる(例えば、ヘッドライトをつける、減速する、停止する、車線中央に戻る、特定された車両からの分離距離を増やす)ことができる。
エコシステム100がドライバーの視覚配分を識別するために車両101で使用される視覚配分管理システム103を含む、例としての実施形態は、ドライバーが車両を動作させると状況認識のレベルを連続的に算出および出力し、図2〜図9に関連して以下で詳細に説明する、ドライバーの安全性を支援する車両システムと協調する。しかしながら、エコシステム100およびその中のシステムが、さまざまな情況のために構成され、かつ/またはさまざまな情況で使用され得ることを、理解されたい。視覚配分管理システム103の非限定的な例示的な適用は以下を含む:
・保険会社:保険料控除を決定する上でリスクの尺度として特定の操作者の視覚配分を評価する;
・車隊管理:個人として、また車隊にわたって車両操作者の能力を監視し、車隊の安全性を最適化するか、または安全性に関連するボーナスを支給する;
・小売業:買い物中の消費者の視覚配分パターンを識別し、消費者の視覚または視覚的注意をオンターゲットに引き戻すよう対話式のインターフェースディスプレイを改善または強化する;
・車同士のネットワーク:1つの車からクラウドネットワークに視覚配分データをアップロードし、他の車がその情報にアクセスでき、車またはドライバーが自分たちの周りの車両への認識を考慮できるようにする;
・保険数理:リスクおよび不確実性評価の精度および詳細を改善する;
・事故再現:本開示を鑑みて決定され得る要因の中でも特に、事故に巻き込まれた人の認識のレベルを評価する;
・法の執行:ドライバーにわたる共通の視覚配分パターンを識別し、速度制限、標識、またはパトロールカバー(patrol cover)の調節など、懸念に対処する積極的な措置をとるか、または、特定の時間に特定の操作者の配分を評価する。
当業者は、視覚配分管理システム103の多くの他の適用を理解するであろう。追加の非限定的な例としては、航空機の操縦、航空管制、組立ライン、および、例えば欠陥のスキャン、(例えば手荷物の)x線スキャンのための品質管理活動が含まれる。
視覚配分管理システムを備えた車両
前述のように、視覚配分管理システム103は、監視システム101として役立ち得る多くの物体に組み込まれ得る。このような物体は、異なるレベルの行動、注意力、および/または認識を分類することから利益を得ることができ、監視システム101がそれ自体の調節を行うか、または、視覚配分管理システム103によって記録されかつ/もしくは別様に決定された結果を鑑みて望ましい調節を行うために実行され得るアクションについて、他のコンポーネントおよび/もしくは人々に通知することを可能にする。車両は、本開示で提供される視覚配分管理システムおよび方法から利益を得る物体の、非限定的な一例である。以下でさらに詳細に説明するように、車両に組み込まれた視覚配分管理システムによって、システムは、車両自体、車両のドライバーもしくは操作者、ならびに/または、車両および/もしくは視覚配分管理システムと相互接続されるかもしくは別様に通信する他のデバイスもしくは他のコンポーネントに指示を与えて、それらの能力を改善することができる。
図2は、車両201に含まれ得るセンサおよび他の監視コンポーネントの種類の非限定的な例示を与えるものである。これらのセンサおよび他のコンポーネントの認識、またこれらにより与えられる認識は、車両201、その操作者、およびエコシステム(例えばエコシステム100)に接続された他のデバイスもしくはコンポーネントの全体的な認識を改善するのに役立つ。エコシステムに接続された他のコンポーネントは、車両100と関連付けられた他の監視システム、他の車両(例えば、周辺エリアにある車両、同型の車両、特定のデータベースにある車両)、およびグローバルデータベースを含み得、グローバルとは、世界中を意味するが、必ずしも世界中を意味しておらず、より特定の領域、例えば車両の周辺環境、車両が動作する領域(例えば、都市、州、領土、国、保険業者が担保範囲を提供する領域など)を含み得る。
いくつかのセンサおよび他の監視コンポーネントは、外部環境、およびそれに対する車両201の反応の仕方を検出するように動作され得る。それらは以下を含む:道路状況センサ202、磁気センサ203、車両距離センサ204、前方障害物センサ205、死角監視カメラ206、側面障害物センサ207、後方障害物センサ208、道路−車両/車両−車両の通信システム209、後方確認カメラ210。他のセンサおよび監視コンポーネントは、車両の上および/または内部で何が起こるのかを監視または制御するように動作され得る。それらは以下を含む:ドライブレコーダー211、空気圧センサ212、内側ドアロック/ロック解除213、エアバッグ214、撥水性フロントガラス215、シートベルトプリテンショナー216、ドライバー監視センサ217、ドライバーを監視する1つ以上のカメラ(one or cameras)218、ヘッドアップディスプレイ219、ステアリング角センサ220、電子制御スロットル221、電子制御ブレーキ222、火災検知センサ223、車両速度および加速度センサ224、衝突検出センサ225、歩行者衝突傷害低減構造体226、ならびに電子制御ステアリング227。
なお、さらに、他のセンサおよび監視コンポーネントは、情報を通信するように動作され得、これにより、車両201がそれに対して反応し、かつ/または他の車両およびコンポーネントが、通信された情報に対して反応することができる。それらは以下を含む:全地球測位システム(GPS)センサ228、メッセージ表示システム229、およびハンズフリーシステム230。標識付きのセンサおよび他の監視コンポーネントは、決して限定的なものでなく、外部環境、車両201を感知および監視し、かつ/または車両201とエコシステム(例えばエコシステム100)の他のコンポーネントとの間で情報を通信するために車両201と組み合わせられ得る多量の他のセンサおよび他の監視コンポーネントを、当業者は理解するであろう。さらに、特定されたセンサおよび監視コンポーネントのうちの少なくともいくつかが、データの感知、および、車両201の他のコンポーネントへ、またはエコシステムの任意の他のコンポーネントへのその情報の通信を含む、これらの機能のうちの複数を実行し得ることを、当業者は認識するであろう。なお、さらに、例示された実施形態が単一のセンサまたは他の監視コンポーネントを標識付けした範囲で、そのタイプの複数のセンサまたは監視コンポーネントがあってよく、同様に、例示された実施形態が複数のセンサまたは他の監視コンポーネントを標識付けした範囲で、ただ1つのセンサまたは他の監視コンポーネントが提供される場合があってもよい。
車両201のセンサおよび他の監視コンポーネントによって感知されるか、記録されるか、または別様に受信されるデータまたは情報が、互いとの間で、および/または他の場所(例えば、クラウド、他のデータベース、他の車両など)に、通信され得る多くの方法がある。データ伝送の任意の手段を使用し得る。図3は、車両201(不図示)内部のさまざまなシステムが互いと、また外部環境(例えばエコシステム100)と通信することを可能にする電子制御ユニット(ECU)242を車両201が含む、車両ネットワーク240の例示的な非限定的一実施形態を提供する。電子制御ユニットは、コア(例えば、マイクロコントローラなど)、1つ以上のメモリ(例えば、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能プログラム可能読取り専用メモリ(EEPROM)、フラッシュなど)、1つ以上の入力(例えば、供給電圧、デジタル入力、アナログ入力)、1つ以上の出力(例えば、リレードライバー、Hブリッジドライバー、インジェクタドライバー、ロジック出力など)、および通信リンクなどのコンポーネントを含み得る。
いくつかの例示的な入力が図3に例示される。図示のとおり、第1のミニスイッチまたはハブ244は、計器群246、パワートレインモジュール248、本体制御モジュール250、シャシーおよび/または安全性モジュール252、1つ以上のドライバー対面ビデオカメラ254、および、それ自体がバックミラー258および遠隔測定モジュール260などのコンポーネントから情報を受信し得る第2のミニスイッチまたはハブ256など、のコンポーネントから情報を受信し得る。例示された実施形態では、本体制御モジュール250と、シャシーおよび/または安全性モジュール252とは組み合わせられて単一のモジュールになる。遠隔測定モジュール260は、本明細書で提供される他のコンポーネントと同じように、任意の既知の通信手段、例えばWi−Fi、ブルートゥース、セルラーネットワーク、GPS、専用狭域通信(DSRC)などにより、車両の内部および外部と通信し得る。ドライバーを監視するドライバー対面ビデオカメラ254に関して、このような監視は、眼球運動、眼球の微小移動、頭部の動きの追跡、ならびに本明細書で提供されるか、または別様に当業者に既知である他の測定手段を含むがこれらに限定されない、眼球および頭部の動きを測定する任意の既知の技術によって行われ得る。
第1のハブ244は、それが受信した情報を、任意の既知の通信手段によってECU242に伝送することもでき、例示された実施形態では、イーサネット243によって行う。例示された実施形態では、第2のハブ256は、それが受信した情報を、イーサネット245を介して伝送することもできるが、他の通信手段を使用することができ、さらに、代替的な実施形態では、第2のハブ256は、第1のハブ244ではなくECU242に直接通信するように構成され得る。
第3のミニスイッチまたはハブ262および第4のミニスイッチまたはハブ264はそれぞれ、同様に、車両の他のコンポーネントから情報を受信し得る。図示のとおり、第3のハブ262は、第2のパワートレインモジュール266、第2の本体制御モジュール268、第2のシャシーおよび/または安全性モジュール270、ならびに1つ以上の前方ビデオカメラ272から受信し、第4のハブ264は、第3の本体制御モジュール274および1つ以上の後方ビデオカメラ276から情報を受信する。例示された実施形態では、第2のパワートレインモジュール266、第2の本体制御モジュール268、ならびに第2のシャシーおよび/または安全性モジュール270は、組み合わせられて単一のモジュールになる。第3のハブ262および第4のハブ264は同様に、それらが受信した情報を、任意の既知の通信手段によって、ECU242に伝送することができ、例示された実施形態では、イーサネット247および249によってそれぞれ行う。
さらに、当業者に既知の名称の中でも特に、インフォテインメントセンター/システム、もしくはエンターテインメントセンター/システム、またはセンタースタックとも呼ばれる、IVIセンター/システム278は、ECU242と通信することもできる。IVIセンター/システム278、ならびに本開示の他のコンポーネント、例えば計器群246は、より一般的には車両内ディスプレイとも呼ばれ、これは、ユーザによる車両の動作に関連する情報をユーザに表示する任意のコンポーネントを含む。したがって、場合によっては、車両内ディスプレイは、スマートフォンなどといった外部の物体によって提供され得る。例示された実施形態では、IVIセンター/システム278は、イーサネット251を介して直接ECU242と通信するが、他の実施形態では、例えば、ミニスイッチまたはハブを通じて、および/または当業者に既知の他の通信手段によって、実行することができる。図示のとおり、IVIシステム278は、GPS280、衛星282、アンテナ(不図示)、または他の通信手段などのコンポーネントを用いて、車両201の外部で、例えばエコシステムの別の部分に、通信することもできる。いくつかの例示的なIVIシステムは、Ford SYNC、Ford MyFordTouch、Audi Multi-Media Interface、BMW iDrive、Lexus Remote Touch、Mercedes-Benz Command APS、Toyota Entune、Kia Motors UVO、Cadillac CUE、Chevrolet MyLink、Hyundai Blue Link、Fiat Chrysler Uconnect、Fiat Chrysler Blue&Meを含むがこれらに制限されない。いくつかの実施形態では、IVIセンター278は、遠隔測定モジュール260を使用して、車両201の環境の外部に通信することができ、かつ/または他の車両内ディスプレイ(例えば、計器群246、スピーカー、マイクなど)を通じて通信することができる。
なお、さらに、追加情報は、1つ以上の追加デバイスによって、ECU242に、かつ/またはECU242によって提供され得る。例示された実施形態では、追加デバイスは、スマートフォン284およびコンピュータ286として図示されており、これは、車両201、および図3に例示するか、または別様に本明細書で提供されるかもしくは当業者に既知であるコンポーネントと通信するためにリンク253によってECU242に通信可能に連結され(例えばつながれ)得る。リンク253は、ユニバーサルシリアルバス(USB)、Wi−Fi、およびブルートゥースを含むがこれらに限定されない、多くの異なる通信手段を用いて達成され得る。追加デバイスは、しばしば、車両201の操作者によって提供されるデバイスであってよいが、場合によっては、デバイスは、車両201の乗客、車両201の近くの別の人、車両もしくはそのコンポーネントの製造業者もしくは他の供給業者、および/またはエコシステムもしくは車両201の別のコンポーネントなどの第三者によって提供され得る。
図示のとおり、ECU242は、一般的に、関連する配線255を含むデータリンクコネクタ288(例えばOBD DLCコネクタ)によって車両201と関連付けられ得る。データリンクコネクタ288は、ECUが車両201により電力供給されることを可能にする、マルチピン診断コネクタポートであってよい。これは、ECU242に結び付けられた、識別されたコンポーネントまたは制御モジュールと連動する車両スキャンツールを含み得、他の情報の中でも特に、内蔵の診断および実データストリームにアクセスし得る。データリンクコネクタ288と関連付けられたスキャンツールを使用して、例えば、ECU242と関連付けられたさまざまなモジュールを診断および/または再プログラミングし得る。
当業者は、車両ネットワーク240と関連付けられたさまざまなモジュールおよびコンポーネントがどのように動作するかを理解するであろうから、特定のモジュールおよびコンポーネントの詳細な説明は不要である。一例として、当業者は、速度計、走行距離計、燃料計器、およびそれらの関連コンポーネント、センサなどがどのように動作するかを詳述しなくても、計器群246によって提供および/または監視され得るさまざまな情報を理解するであろう。
図4は、車両201’と共に提供される、視覚配分管理システム、例えば、視覚配分管理システム103のいくつかの態様を示す。図示のとおり、車両201’は、車両内ディスプレイ、例えば計器群246’およびIVIセンター278’、ならびにバックミラー258’、サイドミラー290’、および2つのドライバー対面カメラ254’を含み、これらはそれぞれ、車両201’の動作中に車両201’およびその操作者を監視するのを助けるために使用され得る。当業者は、これらのさまざまなコンポーネントおよびモジュール、ならびに図4では具体的に標識付けまたは例示されていないが、車両201’を含む車両ネットワーク240’に追加情報を提供し得るコンポーネントおよびモジュールとして当業者に既知である、他のコンポーネントおよびモジュールが、どのようにして動作され得るのかを理解するであろう。これらのコンポーネントおよびモジュールは、図3に関して説明したタイプを含むが、これらに制限されない。非限定的な例として、2つのドライバー対面カメラ254’は、ドライバーの視線の頻度、場所、および持続時間を検出するように動作され得、これらと関連付けられたプロセッサは、本明細書で提供される開示に従ってこのような場所を分析するように動作可能であってよい。さらに、例示された実施形態では、2つのドライバー対面カメラ254’があるが、バックミラー258’と関連付けられた単一のカメラなどの多くの他のカメラ構成が使用されて、ドライバーを監視することができ、任意の数のカメラを使用し得ることを、当業者は認識するであろう。なお、さらに、いくつかの実施形態では、カメラが含まれるかどうかに関わらず、他のツール、デバイス、コンポーネントなどを使用してドライバーを監視することができる。非限定的な例として、ドライバーに関する情報、例えば、ドライバーが自分の見ているものに注意を払っている場合、ドライバーがどこを見ているか、どれほどの長さか、どのようにしてドライバーが外側の物体を認識するかなどを判断するために、身体(例えば、眼球の近くもしくは眼球上)に埋め込まれるか、もしくは別様に身体と関連付けられたセンサ、および/または、脳波および/もしくは他の神経機能および経路を監視するのに使用されるデバイス。
図4には、視線が位置し得るさまざまな場所も示されており、そのうちのいくつかは、車両操作者による車両の動作に有益であり、かつ/または役立ち、他のものは役立たない。例えば、速度制限標識292’は、ドライバーの状況認識に有益と考えられ得る路外視線(以下でさらに詳細に説明する)を必要とし得、広告板294’は、ドライバーの状況認識に有益と考えられないであろう、路外視線を必要とし得る。本明細書に提供されるように、路外視線のタイプは、視覚配分管理システム103がどのように視線を処理し、提供されるアルゴリズムを動作させるかに影響を与え得る。同様に、路上視線の持続時間は、視覚配分管理システム103がどのように視線を処理し、提供されるアルゴリズムを動作させるかに影響を与え得る。図4は、路上視線および路外視線として本明細書に記載されるものに背景(context)を提供するのに役立つ。
視覚配分の管理
図5は、視覚配分管理システム103を用いて視覚配分を管理するための1つの例示的なプロセス300を示す、シーケンス線図である。プロセス300では、視覚配分管理システム103は、ドライバー303pが動作させる車両301に埋め込まれるか、または組み込まれている。視覚配分管理システム103は、とりわけ、クラウド309、システム307−1、およびシステム307−2(本明細書では、まとめて「システム308」または「308」と呼ぶ)と通信可能に連結され、これらと通信して、(1)さらに情況に応じて認識する視覚配分管理を行うために視覚配分管理システム103によって使用される情況情報を交換し、かつ(2)視覚配分管理に基づいて出力(例えば、フィードバック、指示)を提供する。プロセス300では、システム307−1および307−2は、車両301に近接して位置する車両であり、クラウド309は、交通データ、交通ストラテジーなどを収集および管理し得る交通管理システムによって管理される、スマートな交通クラウドである。当業者は、システム308が任意の数およびタイプのシステム、物体、およびデバイスを含み得ることを理解するであろう。
プロセス300では、システム103は、視覚配分のリアルタイム管理を提供し、これは、システム103が、フィードバックまたは指示などの出力を、その出力が効果的に適用され得るように十分短い期間以内に提供し得ることを意味する。いくつかの実施形態では、リアルタイムとは、データ(例えば、ドライバーの視覚的データ、情況データ)が収集される時間から、フィードバック、指示、または他のデータが出力される時間までが、およそミリ秒またはマイクロ秒であることを意味し、「ほぼリアルタイム」であってよいことも理解されるであろう。入力から出力(または要求から応答)までのこのような時間の保証または要件が、入力または出力のタイプに基づいて変化し得ることを理解されたい。例えば、車両へのブレーキ制御指示の出力を生じるリアルタイムの視覚配分管理は、潜在的に注意散漫である運転に関する警告の出力を生じるリアルタイムの視覚配分管理よりも、速くてよいか、または寛大な即時性要件を必要とし得る。いくつかの実施形態では、視覚配分管理は、リアルタイム以外で、例えば、広告、品質保証、トレーニングなどといった、本明細書に提示される例を含む、あまり緊急を要しない適用において、提供され得る。
これからさらに詳細に説明する、ステップ350aおよび350bは、第1の期間T1中に行われ、ステップ352〜366aおよび366bは、第2の期間T2中に行われる。前述したように、視覚配分管理プロセス300は、リアルタイムで行われ、これは、期間T1の開始から期間T2の終了までの時間の長さが、ほぼ即時、例えば1マイクロ秒未満、1ミリ秒未満、または1秒未満ほどであり得ることを意味する。
ステップ350aで、ドライバー303pは、車両301の運転に関与し、ステップ350bで、視覚配分管理システム103は、車両301の運転に関与するドライバー303pの視覚的データを入手する。当業者には既知であるように、ドライバー303pが車両301の運転に関与する間の時間T1の長さは、任意の長さであってよいが、少なくとも、ドライバー303pが1回視線を送るより長い時間に対応するよう十分長い。当然、ステップ350aでの車両の運転中、ドライバー303pは、異なる視覚配分を必要とするさまざまな活動に関与し得る。視覚配分が車両301の運転中の所与の時間におけるドライバー303pの視覚的行動または視線の方向を指すことを理解されたい。例えば、ドライバーの視覚配分は、歌を変えるときには、IVIセンターの方向であってよく、または、車線変更の際は、サイドミラーの方向であってよい。
プロセス300では、ドライバー303pが車両301を運転するとき、視覚配分管理システム103は、ステップ350bで、ドライバーの視覚的データ、すなわち、ドライバー303pの視覚配分を取り込む。ドライバー303pの未処理の視覚的データまたは視覚配分を取り込むのは、管理システム103(例えば、図4に示すカメラ254’)に対応する1つ以上のカメラ(例えば、ビデオカメラ、静止画像カメラ)を用いて実行する。当業者には既知であるように、視覚配分管理システム103のカメラは、車両の異なるエリア(例えば、ダッシュボード、コンソール、バックミラー、サイドミラーなど)に位置づけられ得、ドライバーの眼球領域(例えば、一方または両方の眼球、開くかまたは閉じた眼球、ドライバーがサングラスをつけているときの眼球エリア)が、見えるようになり、さまざまな角度から取り込まれ得る。例えば、カメラは、ドライバーが通常または予期されるタイプの動きを行っている間に頭部または顔面が見えたままになるように、十分な余裕をもってドライバーの頭部全体および上部胴体を取り込むように位置づけられ得る。
いくつかの実施形態では、視覚配分管理システム103は、車両301のカメラを使用することができ、これは、ステップ350bでドライバー303pの視覚的データまたは視覚配分を取り込むために、(例えばブルートゥースなどの近距離通信プロトコルを用いて)視覚配分管理システムに通信可能に連結されている。取り込まれた視覚的データは、本明細書に記載するような視覚配分の管理を提供するために、視覚配分管理システム103によるさらなる処理のために記憶され得る。取り込まれた視覚的データは、内蔵メモリ、車両301のメモリ、もしくはシステム308のいずれかのメモリ(例えばクラウド309)などの、視覚配分管理システム103のメモリ、または視覚配分管理システム103に通信可能に連結されたメモリに、記憶され得る。
プロセス300では、ドライバー303pの視覚的データは、カメラを用いて取り込まれるが、他の実施形態では、視覚的データは、相互接続されたデバイスから/相互接続されたデバイスへの応答−要求;例えば、瞼の動き、眼球もしくは顔面の筋肉の動き、脳波などを測定するセンサから入手したデータ;赤外線または音響画像(thermal or acoustic imaging)(または他の形態のエネルギーを使用するもの)など、他の技術を用いて入手され得ることを理解されたい。
次に、ステップ352では、視覚的特徴が、車両301を動作させるドライバー303pの、ステップ350bで取り込まれた視覚的データから視覚配分管理システム103によって検出および/または抽出される。いくつかの実施形態では、視覚的データは、ドライバー303pの視覚的行動または配分を正確に表すと共に不要なデータを除去するのに十分とみなされる、最適または好適なフレーム毎秒(fps)速度(例えば、10fps〜50fps)にダウンサンプリングされ得る。ダウンサンプリングにより、視覚配分管理システムは、視覚的データを標準的にまたは均一に処理することもでき、視覚配分管理結果は、より正確となり得る。
さらにステップ352の視覚的特徴抽出を参照すると、いくつかの実施形態では、視覚的データは、ある長さまたはサイズの部分にセグメント化することができる。すなわち、取り込まれた動画または画像は、例えば、0.1秒、0〜1秒、1秒、5〜10秒の長さの時期(epochs)に分けることができる。動画をセグメント化すると、システム108により、より均一で一貫した視覚配分管理も可能になる。したがって、結果として得られるダウンサンプリングおよび/またはセグメント化された視覚的データは、車両301の運転中のドライバー303pの眼球領域の画像またはフレームで構成された眼球画像シーケンスである。画像のそれぞれまたは眼球画像シーケンスは、視覚的特徴を識別および/または抽出するように、図6に関連して以下のように処理され得る。
図6は、視覚的特徴検出プロセス400の例示的な実施形態を示す図である。図6で示すように、ステップ450では、顔検出が、眼球画像シーケンスの各画像において実行される。当業者には既知であるように、顔検出は、さまざまな画像化および顔検出アルゴリズムおよび技術(例えば、OpenCVで利用可能なHaar特徴に基づく顔検出)を用いて実行され得る。いくつかの実施形態では、顔検出は、線形SVM分類器、画像ピラミッド、およびスライディングウィンドウ検出スキーム(sliding window detection scheme)と組み合わせて、配向勾配のヒストグラム(histogram of oriented gradients)(HOG)を使用する。図6に示すこれらのアプローチの根底には、顔の注釈つきデータセットにおいてトレーニングされた機械学習メカニズムがある。トレーニングプロセスは、「顔」と「顔ではない」との分類間の相違点を定める特徴の表示を形成する。当業者には既知であるように、異なる機械学習アルゴリズムおよび/または特徴を用いてもよく、また、特定の適用に基づいて変えてもよい。
次に、いったん顔がステップ450で検出されたら、ドライバー303pの検出された顔は、ステップ452で位置合わせされる。同様に、当業者は、画像上での顔の位置合わせが、さまざまな位置合わせアルゴリズムおよび技術を用いて実行され得ることを理解するであろう。いくつかの実施形態では、ステップ452で、顔の位置合わせは、ドライバー303pの眼球、眉、鼻、および口の部分を含む、3点顔標識点(three-point facial landmark)を識別することによって行われる。コンピュータービジョンアルゴリズム、例えば、アクティブ・アピアランス・モデル(active appearance model)(AAM)最適化アルゴリズムは、一連のリグレッサー(cascade of regressors)を使用して、43点形状を画像データに位置合わせすることができる。当業者には既知であるように、対象形状(例えば、顔、瞼、瞳孔)のモデルを、新しい画像(例えば、ドライバーの画像シーケンスからの画像)に適合させ得る、他のコンピュータービジョンアルゴリズムを使用し得ることを理解されたい。両方の眼球領域が識別され、画像から抽出され得るが、いくつかの実施形態では、片目に対応する眼球領域のみが、本明細書に記載する視覚配分管理プロセスの入力として選択される。片目の眼球領域を選択する場合、いくつかの実施形態では、当業者に既知である技術を用いて画像から推定された現実世界の座標に基づいて決定されるような、カメラに最も近い眼球に対応する眼球領域が、視覚配分管理のために選択される。このために、顔の位置合わせされた特徴は、人間の頭部および顔の一般的または標準的な(事前に記憶され、かつ/または事前に決定された)三次元モデルにマッピングされる。結果として得られる点対応(例えば三次元および/または二次元)は、ドライバー303pの頭部および/または顔面の向きを計算するのに使用される。
識別された43の基準点および選択された眼球領域は、ステップ454で顔の正面化(face frontalization)を行うために使用され得る。顔の正面化は、ドライバー303pの顔の正面図を合成して、それによって、眼球領域も正面化するために実行される。いくつかの実施形態では、ステップ456で、AAM最適化アルゴリズムなどが、眼球画像シーケンスの画像の選択された眼球領域の眼球の瞼に対して実行される。ステップ458で、位置合わせされた点および未処理画像は、ニューラルネットワーク(例えば、3つの畳み込み層(convolutional layers)および2つの全結合層(fully connected layers)を有する二次元畳み込みニューラルネットワーク(CNN))にロードまたは入力されて、瞳孔の可視性状態を予測する。これは、それが、ドライバー303pの瞬きアクションにより引き起こされる閉鎖に関連するためである。言い換えれば、ニューラルネットワークは、眼球画像シーケンスの眼球画像における眼球が、瞳孔が見えるように十分開いているとみなされるかどうかを判断するのに使用され得る。瞳孔が視覚配分管理プロセスを続けるのに十分見えているとみなされれば、AAM最適化アルゴリズムなどは、虹彩および瞳孔を識別するか、または突き止める14の点を含む、39の像点を用いて、ステップ460で実行される。図6に関連して最適化アルゴリズムで使用される点の数は、少なくとも部分的には、当業者に既知であるように、最適または必要とみなされる点の数に応じて、変化し得ることを理解されたい。
ステップ352で実行された視覚的特徴抽出の結果は、車両301を動作させているドライバー303pの画像シーケンスの各画像における瞳孔位置の概算である。いくつかの実施形態では、瞳孔位置は、「眼内線分」とも呼ばれる、眼球の2つの隅の間の線分の大きさを用いて、正規化され得る。このような場合、眼内線分の中間点は、起点として使用される。瞳孔位置は、眼内線分に等しいかまたは平行であるx軸と、これに垂直なy軸とに基づいて、xy座標で構成される。瞳孔位置が画像中に見えない場合、時間的に最後の、または先の瞳孔位置が、その画像に割り当てられるか、または、ベースラインの(0,0)位置が割り当てられる。
眼内線に対して測定される瞳孔位置が、視線方向および/または目標視認エリア(例えば、フロントガラス、サイドミラー、車両内ディスプレイの領域)もしくは物体を示すか、またはこれを算出または決定するのに使用され得ることを理解されたい。視線は、画像シーケンス中の1つの画像、または画像シーケンス中の複数の画像に対応し得る。よって、ステップ354では、画像シーケンスの各画像の瞳孔位置または視線方向は、所定の空間領域に分類またはマッピングされ得る。いくつかの実施形態では、空間領域は、予め決定され、対応する瞳孔位置と関連付けられる。空間領域の非限定的な例は、左のミラー、計器群、前方道路、バックミラー、センタースタック、右のミラー、左の死角、助手席、右の死角、不明のものなどを含む。視線または瞳孔位置が、任意の数の空間領域にマッピングされ得、空間領域は、任意のサイズおよび場所のものであってよく、また、任意の物体、コンポーネント、デバイス、要素、またはこれらの組み合わせと関連付けられ得ることを理解されたい。
いくつかの実施形態では、ステップ356で、視覚配分管理システム103は、各視線の持続時間を識別する。前述のとおり、視線の長さに応じて、視線は、眼球画像シーケンスの1つまたは複数の画像に対応し得る。いくつかの実施形態では、各視線の持続時間は、視線における第1の画像のタイムスタンプを、次の視線における第1の画像と比較することによって、算出される。それらの差は、視線の持続時間に等しい。以下でさらに詳細に説明するように、視覚配分管理は、例えば、視線の方向ならびに視線の持続時間を用いて、実行され得る。
ステップ358aおよび358bで、視覚配分管理システムは、(1)車両301、および(2)システム308(例えば、クラウド309、車両307−1、307−2)それぞれと通信して、視覚配分管理およびそこからの結果の作成中に使用される、情況情報もしくは補足情報を得る。いくつかの実施形態では、情況情報は、より効果的かつ正確な計算を提供するのに使用され得、それによって、より効果的な出力(例えば、フィードバック、指示)も可能になる。当業者には既知であるように、情況情報は、時間T1に車両301を動作させる間のドライバー303bの行動を、より正確に予測または推定するのに使用され得る、実質的にあらゆるタイプのデータであってよい。非限定的なタイプの情況データは、車両301が位置する環境に関する環境データ(例えば、天候、道路状況)、所与の半径以内の車両301の周辺環境に関する周辺データ(例えば、近くの車両、障害物、構造物、道路などに関する情報)、および車両301のドライバーに関するユーザデータ(例えば、年齢、性別、心拍数、体温)を含む。情況情報の他の非限定的な例は、車両30によって収集および/または受信される、車両速度、車両重量、燃料油面、運転パターン、ヘッドライト状態、(例えば、周囲の車両もしくは障害物に対する)位置、ドライバーデータ、ラジオのボリュームなど;車両307−1および307−2から収集および/または受信される、車両速度、車両重量、燃料油面、運転パターン、ヘッドライト状態、(例えば車両301に対する)位置など;市役所または州政府、交通管理事業体、天候データ供給業者などによって管理されるか、またはこれらに対応するクラウドなどの、さまざまなタイプのクラウド309から受信される、交通データ、天候データ、イベントデータ、道路データなどを含む。情況データの他の例は、皮膚温度、心拍数、動き、音などといった、ドライバー303pに対応するデータを含む。図1を参照して詳細に説明したように、情況データは、各システムによって、例えば、これに取り付けられるか、もしくは連結された対応するセンサを用いて、入手され、定期的に、または情況データの要求に応答して、視覚配分管理システム103に伝送され得る。
次に、ステップ360で、視覚配分管理システム103は、視覚的データおよび情況データを使用して、時間T1に車両301を動作させる間のドライバー303bの1つまたは複数の状態(または、ドライバー303pが関与する、行動、活動もしくはタスク、もしくはその集合)を予測、推測、または算出する。前述したように、視覚的データは、眼球画像シーケンスの画像から視覚配分管理システムによって識別された、視線方向(例えば、利用可能な場合は瞳孔位置に基づく;および/または、顔の特徴、赤外線もしくは音響画像などに基づく)、視線持続時間、および視線の推移を含み得る。ドライバー303pの状態を予測するため、視覚配分管理システム103は、視覚的データおよび/または情況データを、目標または候補状態(例えば、行動、タスク、活動、ストラテジー)の統計モデル(例えば隠れマルコフモデル(HMM))と比較する。統計モデルおよびHMMがプロセス300に関連して説明されるが、当業者は、本明細書で述べる例、ならびに本開示を鑑みれば当業者に既知であるものを含む、他のモデルおよび人工知能ツールを使用し得ることを理解するであろう。視覚的データを統計モデルと比較することによって、視覚配分管理システム103は、T1中のドライバー303pの行動または状態が、統計モルの状態と一致する確率を算出し得る。ステップ360で行われるドライバー303pの状態を予想するための統計モデルの使用を、これからさらに詳細に説明する。
前述のとおり、ドライバー303p視覚的データおよび/または情況データは、人間の状態(または、行動、活動、タスクなど)の、HMMなどの事前に記憶された統計モデルと比較される。統計モデルに対応する状態が、少なくとも部分的には、視覚配分管理システム103の使用および適用に応じて、変化し得ることを理解されたい。例えば、プロセス300では、モデル化された状態は、車両内の従来の運転活動であるが、従来の活動に似たものも、あまり一般的でない行動のためにモデル化され得る。モデル化された状態の非限定的な例は、車両301の車両内ディスプレイとの相互作用(例えば、ナビゲーション、電話での呼び出し(phone contact calling)、ラジオのチューニング、代わりの音楽選択)、ポータブルデバイス技術(例えば、GPSデバイス、スマートフォン)の使用、部分的に自動化された運転(例えば、ソサエティ・オブ・オートモーティブ・エンジニアズ(Society of Automotive Engineers)(SAE)の運転自動化レベル1、2、3)への関与、眠そうな運転、注意深い運転などを含む。当業者には理解されるように、状態の粒度は、視覚配分管理システム103によって最適または必要とみなされると、変化してよく、「幹線道路の運転」などの幅広い状態から、「従荷重(例えば、ラジオのチューニング)の存在なしの、注意深い幹線道路の運転」など、より狭い状態までの範囲である。さらに、モデル化された状態は、特定のタスク、行動、もしくは活動、例えば「ラジオのチューニング」、または複数の行動もしくは活動、例えば「ラジオのチューニングをしながら注意深い幹線道路の運転」で構成され得るストラテジー、に対応し得ることを理解されたい。いくつかの実施形態では、状態またはストラテジーは、「目標状態」または「目標ストラテジー」と呼ばれ、これは、視覚配分管理システム103によって促進される状態またはストラテジーを指す。
状態は、視線方向などの1つの特徴、もしくは視線持続時間および視線推移などの複数の特徴を考慮に入れるために、かつ/または情況データから導き出された特徴もしくは属性を用いて、統計学的にモデル化され得る。
統計モデルは、視覚配分管理システム103のメモリによって、構築され、トレーニングされ、記憶され得る。いくつかの実施形態では、統計モデルは、視覚配分統計モデル管理会社によって管理されるクラウドであってよい、クラウド309において中心および遠隔で記憶され得る。記憶された統計モデルは、具体的には、ドライバー303pに対応してよく、これは、特にドライバー303pの行動をモデル化することを意味する。すなわち、ドライバー303pは、別の人とは異なる視覚配分または注意力をもたらすように活動または行動を実行し得るので、ドライバー303pの統計モデルは、その特定の活動または行動では、別の人の統計モデルとは異なるであろう。そのようなモデルは、場合によっては、より一意的に調整されるとみなされ、したがって、より正確であるとみなされ得る。にもかかわらず、いくつかの実施形態では、各状態の統計モデルは、各状態の活動または行動に関与する複数の個人の集合データおよび正規化データに基づき得る。このようなアプローチは、あまり個別化されていないが、所与の状態の存在のより多くのバリエーションを識別し得るように、より柔軟性を持つことができる。
前述したように、記憶されたモデルが、最初に生成され、トレーニングされる。いくつかの実施形態では、モデルは、プロセス300を実行する前、および/またはプロセス300の前およびプロセス300中に、構築されトレーニングされる。言い換えれば、モデルは、事前にトレーニングされ得、かつ/または、プロセス300で取得された視覚的データおよび/または情況データを含む、新たに取得したデータに基づいて、連続的に再トレーニングされ得る。当業者は、モデルがトレーニングされ得る多くの方法を理解するであろう。にもかかわらず、プロセス300では、統計モデルは、ステップ350a〜358bに関連して説明したプロセスを用いてトレーニングされ得る。いくつかの実施形態では、トレーニングデータは、単に統計モデルのトレーニングのために取り込まれ、かつ/または使用される。トレーニングデータは、車両のドライバーの1つまたは複数の状態(例えば、活動、行動)を表す状態データが既知であるか、または正確に決定され得る、トレーニングシナリオから入手される。例えば、個人がさまざまな活動および行動に関与し、そのうちに、それらの視覚的データが取り込まれ、活動または行動の実行中に個人が呈する属性(例えば視覚的行動)がトレーニングされた統計モデルにおいて考慮に入れられ得る、いくつかのトレーニングシナリオが実行される。取り込まれた視覚的データ、および/または他の情況データは、統計モデルを構築しトレーニングするのに使用され得る。
当業者に既知であるように、記憶されたモデルは、未処理の視覚的データおよび/もしくは情況データを用いて、または、データの変換を使用して、構築されトレーニングされ得る。図7は、各状態に対応するモデルを構築しトレーニングするのに使用され得る、データ変換および/または表示の例を示す図500である。図7では、各ノードは、数学的構造(例えば、マトリクス、頂点、アレイ、表)の形態のデータ(例えば視覚的データ)表示に対応し、ノード間の矢印は、データ操作に対応する。図7では、視線推移および視線持続時間に関するマトリクスが提供されるが、本明細書に記載する統計モデルが、視線推移もしくは持続時間など、1種類の属性に基づき得ることを理解されたい。図7のノードは以下を含む:
・推移カウント(580):推移カウントマトリクスは、眼球画像シーケンスもしくは視覚的データにおいて、すべての場所の対について、場所もしくは空間領域Jでの配分から、場所もしくは空間領域Kへ視線が何回進むかを表す。
・推移確率(582):推移確率マトリクスは、各場所または空間領域について正規化された値を表す。場所または空間領域による推移カウントの正規化は、例えば式:P(現在の視線=K|先の線=J)を用いて、算出され得る。推移確率マトリクスは、任意の所与の視線領域について、視線が別の定められた領域へと推移する相対頻度を示す。マトリクスの各セルについて、マトリクスの値は、そのセルの(例えば、推移カウントマトリクス(580)からの)推移カウント値を、1つの場所からすべての他の場所への推移の総数を表す、列の合計で割ることによって得ることができる。言い換えれば、状態、活動、タスク、または行動に対応する時系列として組織化された、1組の視線を考慮すると、場所Jから場所Kへの推移(ノード580)の数を、場所Jからの推移の総数で割る。よって、推移確率マトリクスは、所与の場所または空間領域から別の場所または空間領域へ推移する確率を示す。
・推移重要性マスク(584):推移重要性マスクマトリクスは、セルの(例えば推移カウントマトリクス(580)からの)推移カウント値を、それぞれの列のセル(例えば、(推移カウントマトリクスにおいて)領域から離れる推移の数が最も大きいセル)の最大値で割ることによって得られる。このマトリクスは、場合によっては、あまり訪れない目的領域と関連付けられた1つの視線推移が高い推移確率を生じ得るが、頻繁に訪れる領域は、より安定した確率予測を表すであろうという事実を考慮に入れる。
・推移有意性(586):推移有意性マトリクスは、推移確率マトリクス(582)と推移重要性マスクマトリクス(584)との要素ごとの乗算を用いて算出される。推移有意性マトリクスでは、高強度の入力が、おそらく、さらにはしばしば、基礎となる視覚的データに表れる、推移をマークする。
・持続時間カウント(588):持続時間カウントマトリクスは、視線方向または場所Kから視線場所または方向Jへの推移の持続時間を表し、これは、視線場所Jに切り替える前の場所Kにおける視線の持続時間と定義され得る。持続時間カウントマトリクスは、すべての場所J、Kについてこの結果を含むか、または表す。このように、各推移は、その持続時間の大きさで重みづけされ得る。
・場所当たりの時間分布(%)(590):場所当たりの時間分布マトリクスは、各視線場所について持続時間カウントマトリクスを正規化することによって得られ、これは、視線対象の関数としてすべての場所にわたって消費された時間の分布を得る。
・推移当たりの時間分布(%)(592):すべての入力の合計により持続時間カウントマトリクスを正規化することで、推移当たりの時間分布マトリクスが得られ、これは、各タイプの視線で消費された、すべての状態またはタスクおよび対象にわたる合計時間のパーセンテージを示す。
・持続時間重要性マスク(594):持続時間重要性マスクは、特定の動きのタイプに割り当てられた大量の時間が、わずかな、長い持続時間の視線の、または多くの短い持続時間の視線の結果であるかどうかを強調する。持続時間重要性マトリクスは、すべての持続時間カウント値をグローバルに正規化することによって、これを達成する。持続時間重要性マスクは、推移重要性マスクと同様に、しかし、推移カウントではなく持続時間カウントを用いて、機能する。
・持続時間有意性(596):持続時間重要性マスクマトリクス594は、要素ごとの乗算を用いて、推移重要性マスクマトリクス584と組み合わせられて、高強度の値が、やはりしばしばデータに表れる長い持続時間の視線に対応する、持続時間有意性マップを得る。いくつかの実施形態では、持続時間重要性マスクマトリクス594は、高強度から低強度への切り替えが、まれな長い持続時間の視線を示す;および低強度から高強度への切り替えが、頻繁な短い持続時間の視線を示唆する、パターンなど、追加パターンを識別し得る。
図7に関連して前述したマトリクス表示は、図8A、図8B、および図8Cに示すように、視覚的に表示され得る。図8A〜図8Cは、前述したマトリクス582の線に沿った推移確率マトリクスの例を示し、複数の状態または活動中の推移確率、すなわちベースラインの運転(600A)、視覚的な手動のラジオ操作(600B)、および聴覚−音声ラジオ操作(600C)それぞれを表す。y軸は、視線が生じる車両(例えば、車両301)の所定の空間領域または場所を表し、x軸は、視線が生じた場所から推移する車両内の空間領域または場所を表す。図8A、図8B、および図8Cでは、高強度の入力は、ありうる推移を表す。前述したように、当業者は、図7のデータ表示マトリクスのいずれか(および本明細書に例示または記載されていない他のもの)を使用して、本明細書に記載するモデルを構築およびトレーニングし得ることを理解するであろう。
さらにステップ360を参照すると、それぞれの状態(例えば、行動、目標ストラテジーなど)に対応する、トレーニングされたモデルは、時間T1における車両301の動作中のドライバー303pの行動、注意力、または認識を、入力された視覚的データ(例えば、視線持続時間、視線方向、視線推移)および/または情況情報に基づいて、予測または推測するのに使用される。最も高いスコアを出力するモデルは、時間T1における車両301の運転中のドライバー303pの状態に対応するとみなす。場合によっては、モデルに対する、ドライバー303pの視覚的データの比較の結果の採点は、視覚的データがモデル化された状態に対応する確率に基づく。最も高い確率を生じるモデルは、時間T1におけるドライバーの状態である可能性が高いとみなされる。言い換えれば、いくつかの実施形態では、記憶されたモデルのすべてのうち、入力された眼球画像シーケンスまたは視覚的データについて最も高い対数確率を生じるモデルが、ドライバー303pの最も可能性の高い状態として選択される。
いくつかの実施形態では、視覚的データおよび/または眼球画像シーケンスは、個別にかつ独立してモデル化される複数の状態に対応することを理解されたい。このような場合、視覚配分管理システムは、同じように最も高い確率をもたらすモデルに基づいて、各状態に対応する視覚的データの部分を識別し得る。
ステップ362で、視覚配分管理システムは、時間T1に関連してステップ350bで入手した視覚的データに対応する、識別された1つ以上の状態に基づいて、最適または適切なフィードバックを決定する。以下で詳細に説明するように、フィードバックが決定され、今度は、それを、接続されたシステム、デバイス、コンポーネントなどに、またはそれらを通じて、出力する。いくつかの実施形態では、識別されたフィードバックは、ドライバー303pの視覚的認識もしくは注意力を改善するか、もしくは別様に影響するか、または、ドライバー303pの視覚的認識もしくは注意力のプロキシとして取って代わるか、もしくは役立つアクションを、取るか、引き起こすか、もしくは指示することが、意図されている。
いくつかの実施形態では、適切なフィードバックは、視覚配分管理システム103によって、および/または車両301、クラウド309、もしくは車両307−1および307−2などの相互接続されたシステムによって、記憶され得る事前に定義されたルール、閾値などに基づいて決定される。識別されたフィードバックは、例えば、指示、警告、通知、警報、リクエスト、応答などの形態であってよい。フィードバックの一例は、指示型フィードバックであり、これは、例えば、(1)モデルに、ドライバーの最も起こり得る状態を、「眠そうな幹線道路の運転」として識別させる、視覚的データ、および、(2)車両の速度が最大許容速度の10%超であることを示す、車両301からの情況情報から、生じ得る。このような場合、視覚配分管理システム103は、視覚的データおよび情況データの入力されたパラメータに基づいて適用可能なルール、すなわち、例えば、識別された状態が修正されるか、阻害されるか(dis-incentivized)、妨げられるか、または別様に影響を受けることができるように、車両301のブレーキを起動させ、かつ/または別様に車両301を減速さる車両制御指示の作成(および伝送)および/または実行をトリガする、適用可能なルール、を識別し得る。当業者は、指示型フィードバックがトリガされ得る多くの方法、および/または、そのようなフィードバックをトリガするのに記憶され得るルールを理解するであろう。
フィードバックの別の非制限的な例は、警告型フィードバックであり、これは、例えば、モデルに、ドライバーの最も起こり得る状態を、「視覚的な手動のラジオ操作」であると識別させる、視覚的データから生じ得る。いくつかの実施形態では、視覚配分管理システム103は、ドライバー303pの最も起こり得る状態を識別する際の情況データ、適用可能なルール、または最適なフィードバックを考慮することを必要としない。このような場合、視覚配分管理システム103は、車両301内部でまたはそれに関連して起動される光、音、振動などで構成され得る、車両警告の作成(および伝送)および/または実行をトリガする、適用可能なルールを識別することができ、ドライバー303pの識別された状態は、変更されるか、または少なくともドライバー303pに対して警告され得る。当然、当業者には既知であるように、光および音の種類および仕様は、最適または望ましいものとして、変化し得る。
フィードバックの別の非制限的な例は、目標ストラテジー型フィードバックであり、これは、例えば、モデルに、ドライバーの最も起こり得る状態を、望ましくないか、または基準以下の状態(例えば、「注意散漫な運転」、「交通量が多い中でのラジオの視覚操作」など)であると識別させる、視覚的データから生じ得る。このような場合、視覚配分管理システム103は、目標ストラテジーの視覚配分または目的に従って、またはこれらと同様に、ドライバー303pの視覚配分を導くよう促進するか、助長するか、奨励するか、または別様に試みることができる、車両制御指示、車両警告などの作成(および伝送)および/または実行をトリガする、適用可能なルールを識別することができる。例えば、いくつかの実施形態では、目標ストラテジーの目的は、サイドミラーに対応する空間領域へのドライバーの視覚配分を増やすことであってよい。このために、目標ストラテジーフィードバックは、例えば、ライトなどを、サイドミラー、フロントガラス領域、バックミラーなどにおいて、またはその近くで、最適とみなす間隔で点灯させることができる。このような目標ストラテジーの一例は、ドライバーが:フロントガラスの中心(1〜2秒)、左のサイドミラー(0.1〜0.25秒)、フロントガラスの中心(1〜2秒)、フロントガラスの左側(0.5〜1秒)、フロントガラスの中心(1〜2秒)、フロントガラスの右側(0.5〜1秒)などの視覚配分パターンを実行するのを助長するためのトリガのために作られるであろう。当然、目標ストラテジーのこのような例示的なパターンは、例示目的で提示するものである。いくつかの実施形態では、目標ストラテジーのパターンは、ドライバーが環境を注意深く調べていると見えるように、1組の視線が広範な空間領域を横切ることを促進するよう生成され得る。
目標ストラテジーは、(1)モデル化され、取り込まれた視覚的データと比較され得る状態、または状態群(例えば、タスク、活動、行動)、および(2)特定の視覚配分を助長する方針の両方を指すことができることを理解されたい。さらに、本明細書に記載する状態の例は、望ましくない状態(例えば、眠そうな運転、注意散漫な運転)を指すが、視覚配分管理システム103および視覚配分管理300は、視覚配分または行動の取り込まれた視覚的データを、ポジティブおよび/または中立なものとして特徴づけるのに使用されてもよいことを理解されたい。言い換えれば、記憶されたモデルは、ポジティブまたは中立状態のモデルを含み得る。本明細書に記載する車両内視覚配分管理の場合、視覚的データは、ドライバー303pの状態を、例えば、注意深い運転、用心した運転(aware driving)、および/または、適切な長さの時間にわたって望ましい空間領域を横切る、適切な注視配分として特徴付けるのに使用され得る。このようなポジティブまたは中立なフィードバックは、例えば、車両301が他の機能性(例えば、インフォテインメントシステム)を有効にすることができ、かつ/または、職業的ドライバー環境では昇給、賞品、昇進などを与えることができるか、またはそれを引き起こすために、使用され得る。
当然、当業者は、本明細書に記載する例示的なルールおよびフィードバックが、非限定的であり、例示のために提供されたこと、また、ルールおよびフィードバックが、(例えば、車両301および/または視覚配分管理システム103の)管理者または監督事業体の好みによって、大きく変わり得ることを理解するであろう。
次に、ステップ364aおよび364bで、視覚配分管理システム103は、フィードバック(例えば、制御指示、警告など)を、ステップ364aにおける車両301(それによって、ドライバー303p)、およびステップ364bにおけるシステム308、のうちの1つ以上に出力し得る。フィードバックは、本明細書に記載する通信プロトコルおよび技術(例えば、ブルートゥース、Wi−Fi)、ならびに当業者に既知の他のものを用いて、伝送され、かつ/または実行させられ得る。ステップ362に関連して前述したとおり、フィードバックは、制御指示、視聴覚および感覚的な警告および通知などの形態であってよい。例えば、取り込まれた視覚的データが、注意散漫な運転状態に対応するとして、視覚配分管理システム103によって認識された場合、視覚配分管理システム103は、車両301に、制御指示(または単に、車両301に制御指示を生成および実行させる情報)を伝送して、車両301のブレーキを起動して、その速度を望ましいかまたは最適な速度まで低減させることができる。当然、フィードバックは、図3には示していない、他の相互接続されたシステムに伝送されることもできる。そのような非限定的な一例は、例えば、識別された望ましくない状態(例えば、眠そうな運転)についてドライバー303pに警告するための、ドライバー303pが身に着けるウェアラブルデバイス(例えば、スマートウォッチ)への警告の出力である。
前述したとおり、いくつかの実施形態では、車両301を動作させ、ドライバー303pの視覚的データを入手する(例えば取り込む)ステップ350aおよび350bで始まり、車両301または相互接続されたシステム308へのフィードバックの出力を通じて進む、プロセスは、リアルタイムで実行され得る。リアルタイム処理の即時性は、例えば、識別された状態のタイプおよび/または識別された最適なフィードバックによって決まるか、または変化し得る。例えば、過度に注意散漫な運転の認識された状態は、制御指示がフィードバックとして出力されることをトリガすることができ、これは、認識された状態があまり重大でないとみなされるシナリオと比較して、より速い「リアルタイム」処理を必要とする。当然、当業者には既知であるように、いくつかの実施形態では、視覚配分管理は、トレーニング、シミュレーション、テスト、品質保証など、重大でないシナリオでは、リアルタイム以外で実行され得る。
図5には示していないが、プロセス300の間および後、視覚配分管理システム103は、ドライバー303pの視覚的データおよび情況情報を(例えば、連続して)入手するかまたは取り込むことができる。同様に、システムは、例示された視覚管理300の間または後で、他の状態およびフィードバックを識別し、フィードバックを出力し得る。例えば、いくつかの実施形態では、視覚配分管理システム103は、車両301を介してドライバー303pに伝送されるフィードバック警告を識別すると同時に、システム301に出力される別のフィードバックを(例えば、同じかまたは異なる視覚的データおよび/もしくは情況データに基づいて)識別し得る。同様に、図5には示していないが、当業者は、本明細書に記載するモデルが、プロセス300の前、間、または後でトレーニングされ得ることを理解するであろう。例えば、モデルは、とりわけ、ステップ360で実行される運転状態識別の正確性に基づいて、連続してトレーニングされ得る。
プロセス300は、視覚配分管理を提供するために視覚的データが入手され得る任意の数(例えば、数百、数千)の期間を含み得る運転シーケンス中の、1つの期間に関することを、理解されたい。よって、プロセス300は、(例えば、連続した)フィードバックを提供するために、運転シーケンスの全体または一部にわたって繰り返され得ることを理解されたい。
コンピュータによる実現
図9は、視覚配分管理システム103を含み、かつ/または本明細書に記載する視覚配分管理(例えば図5の300)を実行し得る、コントローラまたはコンピュータ900の例示的な実施形態の物理的コンポーネントのブロック図を示す。本明細書では例示的なコンピュータ900が描かれ説明されているが、これは普遍性のため、便宜上のことであると認識されるであろう。他の実施形態では、コンピュータ900は、本明細書で図示および説明するものと、構造および動作が異なり得る。コンピュータ900は、タブレット型コンピュータ、モバイルデバイス、スマートデバイス、ウェアラブルデバイス、スマートフォン、ラップトップコンピュータ、デスクトップコンピュータ、クラウドベースのコンピュータ、サーバーコンピュータ、前述したもののうち複数、などであってよい。
例示されたコンピュータ900は、例えば組み込みソフトウェア、オペレーティングシステム、デバイスドライバー、アプリケーションプログラムなどを実行することによって、コンピュータの動作を制御する、プロセッサ922を含み得る。プロセッサ922は、プログラム可能な汎用もしくは特殊用途プロセッサおよび/またはさまざまな独占的もしくは市販のシングルもしくはマルチプロセッサシステムのうちのいずれかを含む、任意のタイプのマイクロプロセッサまたは中央処理装置(CPU)を含み得る。本明細書で使用されるプロセッサという用語は、マイクロプロセッサ、マイクロコントローラ、ASIC、FPGA、PIC、内部もしくは外部メモリもしくはレジスタからのプログラム指示を読み取り解釈するプロセッサ、などを指すことができる。コンピュータ900は、メモリ924を含み得、これは、プロセッサ922によって実行されるコードのため、または、プロセッサによって処理されるデータのための、一時的または永続的な記憶を提供し得る。メモリ924は、読み取り専用メモリ(ROM)、フラッシュメモリ、1つ以上のさまざまなランダムアクセスメモリ(RAM)、および/またはメモリテクノロジーの組み合わせを含み得る。コンピュータ900のさまざまなコンポーネントは、任意の1つ以上の別々のトレース、物理的バス、通信回線などを介して、相互接続され得る。
コンピュータ900は、通信インターフェースまたはI/Oインターフェースなどのインターフェース926を含み得る。通信インターフェースは、コンピュータ900がネットワークまたは通信バス(例えば、ユニバーサルシリアルバス)を通じてリモートデバイス(例えば、他のコントローラもしくはコンピュータシステム)と通信することを可能にし得る。I/Oインターフェースは、1つ以上の入力デバイス、1つ以上の出力デバイス、およびコンピュータ900のさまざまな他のコンポーネント間の通信を容易にし得る。例えば、インターフェース926は、第2のコンピュータのコンピュータコンポーネント(例えば、第2のコンピュータの統合された無線装置)と通信し得る。例示的な入力デバイスは、タッチスクリーン、メカニカルボタン、キーボード、およびポインティングデバイスを含む。追加の例示的な出力デバイスは、プロジェクタ、電子表示画面、およびスピーカーを含む。コンピュータ900は、記憶デバイス928を含み得、これは、非揮発的および/または非一時的にデータを記憶するための任意の従来の媒体を含み得る。よって、記憶デバイス928は、データおよび/または指示を持続状態で保持し得る(すなわち、値は、コンピュータ900への電力が途切れても保持される)。記憶デバイス928は、1つ以上のハードディスクドライブ、フラッシュドライブ、USBドライブ、光学式ドライブ、さまざまなメディアディスクもしくはカード、および/またはそれらの任意の組み合わせを含み得、コンピュータ900のその他のコンポーネントに直接接続されるか、または、これに、通信インターフェースなどを通じて遠隔的に接続され得る。コンピュータ900は、ディスプレイ930を含み得、そこに表示される画像を生成し得る。いくつかの実施形態では、ディスプレイ930は、真空蛍光ディスプレイ(VFD)、有機発光ダイオード(OLED)ディスプレイ、または液晶ディスプレイ(LCD)であってよい。コンピュータ900は、電源932と、適切な調整回路(regulating and conditioning circuitry)と、を含み得る。例示的な電源は、ポリマーリチウムイオンバッテリーなどのバッテリー、または、コンピュータ900をDCもしくはAC電源に連結するためのアダプタ(例えば、USBアダプタもしくは電源アダプタ)を含む。
当業者は、前述した実施形態に基づいて本開示のさらなる特徴および利点を認識するであろう。したがって、本開示は、特許請求の範囲で示すものを除き、具体的に図示および説明したものによって制限されるものではない。本明細書で引用したすべての刊行物および参考文献は、参照により全体として明白に本明細書に組み込まれる。
〔実施の態様〕
(1) 視覚配分を管理するシステムにおいて、
1つ以上のモデルを記憶するように動作可能な少なくとも1つのメモリであって、前記1つ以上のモデルは、
(1)複数の候補状態に対応するモデル、および、
(2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
のうちの少なくとも1つを含む、少なくとも1つのメモリと、
前記少なくとも1つのメモリに通信可能に連結された少なくとも1つのプロセッサと、を含み、前記少なくとも1つのプロセッサは、
連続した期間中に活動に関与している人に対応する視覚的データを受信すること、
前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、こと、
前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域のうちの1つの空間領域に分類すること、
前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別すること、ならびに
フィードバックを、識別された前記1つ以上の状態に基づいて出力すること、
を行うように動作可能である、システム。
(2) 実施態様1に記載のシステムにおいて、
前記プロセッサは、
前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、こと、および、
前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出すること、
を行うようにさらに動作可能であり、
前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、システム。
(3) 実施態様1に記載のシステムにおいて、
前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記少なくとも1つのプロセッサは、
前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出すること、および、
前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択すること、
を行うようにさらに動作可能である、システム。
(4) 実施態様3に記載のシステムにおいて、
出力された前記フィードバックは、
(1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率、
(2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態、および、
(3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示、
のうちの1つ以上を含む、システム。
(5) 実施態様2に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別するようにさらに動作可能であり、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、システム。
(6) 実施態様5に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別するようにさらに動作可能であり、
前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、システム。
(7) 実施態様1に記載のシステムにおいて、
前記1つ以上のモデルは、隠れマルコフモデルである、システム。
(8) 実施態様1に記載のシステムにおいて、
前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、システム。
(9) 実施態様8に記載のシステムにおいて、
前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、システム。
(10) 実施態様1に記載のシステムにおいて、
前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、システム。
(11) 実施態様1に記載のシステムにおいて、
前記プロセッサは、情況データを、1つ以上の通信可能に連結されたシステムから受信するようにさらに動作可能であり、
前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、システム。
(12) 実施態様11に記載のシステムにおいて、
前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、システム。
(13) 実施態様1に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングするようにさらに動作可能である、システム。
(14) 実施態様4に記載のシステムを含む車両において、
前記活動に関与している前記人は、前記車両を動作させることに関与するドライバーであり、
出力された前記フィードバックは、識別された前記1つ以上の状態に基づいた前記指示を含み、
前記指示は、
(1)前記車両の前記ドライバーの空間的注意力または認識を管理する指示、
(2)前記車両の制御に影響をもたらす指示、ならびに、
(3)前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす指示、
のうちの1つ以上を含む、車両。
(15) 実施態様14に記載の車両において、
前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす前記指示は、前記車両への、および前記車両からの情報交換を抑制する指示を含む、車両。
(16) 視覚配分を管理する方法において、
1つ以上のモデルを記憶することであって、前記1つ以上のモデルは、
(1)複数の候補状態に対応するモデル、および、
(2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
のうちの少なくとも1つを含む、ことと、
連続した期間中に活動に関与している人に対応する視覚的データを受信することと、
前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、ことと、
前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域から選択される1つの空間領域に分類することと、
前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別することと、
フィードバックを、識別された前記1つ以上の状態に基づいて出力することと、
を含む、方法。
(17) 実施態様16に記載の方法において、
前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、ことと、
前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出することと、
をさらに含み、
前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、方法。
(18) 実施態様16に記載の方法において、
前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記方法は、
前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出することと、
前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択することと、
をさらに含む、方法。
(19) 実施態様18に記載の方法において、
前記フィードバックを出力することは、
(1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率を決定すること、
(2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態を決定すること、および、
(3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示を提供すること、
のうちの1つ以上を含む、方法。
(20) 実施態様17に記載の方法において、
前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別することをさらに含み、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、方法。
(21) 実施態様20に記載の方法において、
前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別することをさらに含み、
前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、方法。
(22) 実施態様16に記載の方法において、
前記1つ以上のモデルは、隠れマルコフモデルである、方法。
(23) 実施態様16に記載の方法において、
前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、方法。
(24) 実施態様23に記載の方法において、
前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、方法。
(25) 実施態様16に記載の方法において、
前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、方法。
(26) 実施態様16に記載の方法において、
情況データを、1つ以上の通信可能に連結されたシステムから受信することをさらに含み、
前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、方法。
(27) 実施態様26に記載の方法において、
前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、方法。
(28) 実施態様16に記載の方法において、
(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングすることをさらに含む、方法。
視覚配分管理システムを含むコンピューティングデバイスエコシステムの例示的な一実施形態の概略図である。 センサが車両に対して配され得る非限定的な複数の場所を示すことを目的とした、車両の例示的な一実施形態の概略斜視図である。 車両通信ネットワークの例示的な一実施形態の概略図である。 車両の内部運転台の一部と、車両の外側の環境の一部とを、内部運転台から見た場合の概略図であり、車両は、本明細書で提供されるような視覚配分管理システムおよび方法が組み込まれ得るものである。 図1の視覚配分管理システムを用いた視覚配分管理プロセスの例示的な一実施形態を示すシーケンス図である。 図5の視覚配分管理プロセスにおける視覚的特徴検出の例示的な一実施形態を示す図である。 図5の視覚配分管理プロセスにおいて状態を予測するためのモデルを構築するための視覚的データ表示の例示的な実施形態を示す図である。 ベースラインの運転状態に対応する推移確率マトリクスの例示的な一実施形態を示すマトリクスである。 視覚的で手動のラジオ操作状態に対応する推移確率マトリクスの例示的な一実施形態を示すマトリクスである。 聴覚−音声ラジオ操作状態に対応する推移確率マトリクスの例示的な一実施形態を示すマトリクスである。 本明細書に提供される他の開示および特徴の中でも特に、図5の視覚配分管理を実行するためのコンピュータシステムの例示的な一実施形態の概略ブロック図である。

Claims (28)

  1. 視覚配分を管理するシステムにおいて、
    1つ以上のモデルを記憶するように動作可能な少なくとも1つのメモリであって、前記1つ以上のモデルは、
    (1)複数の候補状態に対応するモデル、および、
    (2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
    のうちの少なくとも1つを含む、少なくとも1つのメモリと、
    前記少なくとも1つのメモリに通信可能に連結された少なくとも1つのプロセッサと、を含み、前記少なくとも1つのプロセッサは、
    連続した期間中に活動に関与している人に対応する視覚的データを受信すること、
    前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、こと、
    前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域のうちの1つの空間領域に分類すること、
    前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別すること、ならびに
    フィードバックを、識別された前記1つ以上の状態に基づいて出力すること、
    を行うように動作可能である、システム。
  2. 請求項1に記載のシステムにおいて、
    前記プロセッサは、
    前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、こと、および、
    前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出すること、
    を行うようにさらに動作可能であり、
    前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、システム。
  3. 請求項1に記載のシステムにおいて、
    前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記少なくとも1つのプロセッサは、
    前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出すること、および、
    前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択すること、
    を行うようにさらに動作可能である、システム。
  4. 請求項3に記載のシステムにおいて、
    出力された前記フィードバックは、
    (1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率、
    (2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態、および、
    (3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示、
    のうちの1つ以上を含む、システム。
  5. 請求項2に記載のシステムにおいて、
    前記少なくとも1つのプロセッサは、前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別するようにさらに動作可能であり、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
    前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
    前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、システム。
  6. 請求項5に記載のシステムにおいて、
    前記少なくとも1つのプロセッサは、前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別するようにさらに動作可能であり、
    前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、システム。
  7. 請求項1に記載のシステムにおいて、
    前記1つ以上のモデルは、隠れマルコフモデルである、システム。
  8. 請求項1に記載のシステムにおいて、
    前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、システム。
  9. 請求項8に記載のシステムにおいて、
    前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、システム。
  10. 請求項1に記載のシステムにおいて、
    前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、システム。
  11. 請求項1に記載のシステムにおいて、
    前記プロセッサは、情況データを、1つ以上の通信可能に連結されたシステムから受信するようにさらに動作可能であり、
    前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、システム。
  12. 請求項11に記載のシステムにおいて、
    前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、システム。
  13. 請求項1に記載のシステムにおいて、
    前記少なくとも1つのプロセッサは、(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングするようにさらに動作可能である、システム。
  14. 請求項4に記載のシステムを含む車両において、
    前記活動に関与している前記人は、前記車両を動作させることに関与するドライバーであり、
    出力された前記フィードバックは、識別された前記1つ以上の状態に基づいた前記指示を含み、
    前記指示は、
    (1)前記車両の前記ドライバーの空間的注意力または認識を管理する指示、
    (2)前記車両の制御に影響をもたらす指示、ならびに、
    (3)前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす指示、
    のうちの1つ以上を含む、車両。
  15. 請求項14に記載の車両において、
    前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす前記指示は、前記車両への、および前記車両からの情報交換を抑制する指示を含む、車両。
  16. 視覚配分を管理する方法において、
    1つ以上のモデルを記憶することであって、前記1つ以上のモデルは、
    (1)複数の候補状態に対応するモデル、および、
    (2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
    のうちの少なくとも1つを含む、ことと、
    連続した期間中に活動に関与している人に対応する視覚的データを受信することと、
    前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、ことと、
    前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域から選択される1つの空間領域に分類することと、
    前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別することと、
    フィードバックを、識別された前記1つ以上の状態に基づいて出力することと、
    を含む、方法。
  17. 請求項16に記載の方法において、
    前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、ことと、
    前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出することと、
    をさらに含み、
    前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、方法。
  18. 請求項16に記載の方法において、
    前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記方法は、
    前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出することと、
    前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択することと、
    をさらに含む、方法。
  19. 請求項18に記載の方法において、
    前記フィードバックを出力することは、
    (1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率を決定すること、
    (2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態を決定すること、および、
    (3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示を提供すること、
    のうちの1つ以上を含む、方法。
  20. 請求項17に記載の方法において、
    前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別することをさらに含み、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
    前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
    前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、方法。
  21. 請求項20に記載の方法において、
    前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別することをさらに含み、
    前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、方法。
  22. 請求項16に記載の方法において、
    前記1つ以上のモデルは、隠れマルコフモデルである、方法。
  23. 請求項16に記載の方法において、
    前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、方法。
  24. 請求項23に記載の方法において、
    前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、方法。
  25. 請求項16に記載の方法において、
    前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、方法。
  26. 請求項16に記載の方法において、
    情況データを、1つ以上の通信可能に連結されたシステムから受信することをさらに含み、
    前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、方法。
  27. 請求項26に記載の方法において、
    前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、方法。
  28. 請求項16に記載の方法において、
    (1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングすることをさらに含む、方法。
JP2019530378A 2016-08-19 2017-08-21 視覚配分管理を提供するシステムおよび方法 Pending JP2019535089A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662377213P 2016-08-19 2016-08-19
US62/377,213 2016-08-19
PCT/US2017/047837 WO2018035531A1 (en) 2016-08-19 2017-08-21 Systems and methods for providing visual allocation management

Publications (1)

Publication Number Publication Date
JP2019535089A true JP2019535089A (ja) 2019-12-05

Family

ID=59812096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019530378A Pending JP2019535089A (ja) 2016-08-19 2017-08-21 視覚配分管理を提供するシステムおよび方法

Country Status (4)

Country Link
US (2) US10902331B2 (ja)
EP (1) EP3500975A1 (ja)
JP (1) JP2019535089A (ja)
WO (1) WO2018035531A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019146123A1 (ja) * 2018-01-29 2021-01-14 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びプログラム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3229183A1 (de) * 2016-04-08 2017-10-11 MOBA - Mobile Automation AG Vorrichtung und verfahren zur überwachung von prozessdaten bei der strassenfertigung
JP6759743B2 (ja) * 2016-06-17 2020-09-23 アイシン精機株式会社 視認方向推定装置
US10525984B2 (en) 2016-08-19 2020-01-07 Massachusetts Institute Of Technology Systems and methods for using an attention buffer to improve resource allocation management
US10902331B2 (en) 2016-08-19 2021-01-26 Massachusetts Institute Of Technology Systems and methods for providing visual allocation management
DE202017105761U1 (de) 2016-10-20 2018-03-19 Google LLC (n.d.Ges.d. Staates Delaware) Automatische Schrittsteuerung der Interaktion eines Fahrers mit Inhalten
CN109177877B (zh) * 2017-09-03 2021-04-30 创艺设计股份有限公司 显示装置
US11315415B2 (en) * 2017-09-03 2022-04-26 Innovart Design Inc. Information sharing system and information sharing method for vehicle
CN108229376B (zh) * 2017-12-29 2022-06-03 百度在线网络技术(北京)有限公司 用于检测眨眼的方法及装置
US11449764B2 (en) * 2018-06-27 2022-09-20 Microsoft Technology Licensing, Llc AI-synthesized application for presenting activity-specific UI of activity-specific content
US10990421B2 (en) 2018-06-27 2021-04-27 Microsoft Technology Licensing, Llc AI-driven human-computer interface for associating low-level content with high-level activities using topics as an abstraction
US11354581B2 (en) 2018-06-27 2022-06-07 Microsoft Technology Licensing, Llc AI-driven human-computer interface for presenting activity-specific views of activity-specific content for multiple activities
US11040714B2 (en) * 2018-09-28 2021-06-22 Intel Corporation Vehicle controller and method for controlling a vehicle
US11260872B2 (en) * 2018-10-12 2022-03-01 Honda Motor Co., Ltd. System and method for utilizing a temporal recurrent network for online action detection
US10894542B2 (en) * 2018-10-30 2021-01-19 International Business Machines Corporation Driving feedback based safety system
US10977767B2 (en) * 2018-11-28 2021-04-13 Adobe Inc. Propagation of spot healing edits from one image to multiple images
US11200438B2 (en) 2018-12-07 2021-12-14 Dus Operating Inc. Sequential training method for heterogeneous convolutional neural network
US11068069B2 (en) * 2019-02-04 2021-07-20 Dus Operating Inc. Vehicle control with facial and gesture recognition using a convolutional neural network
CN109871907B (zh) * 2019-03-19 2023-04-18 山东大学 基于sae-hmm模型的雷达目标高分辨率距离像识别方法
EP3719745A1 (en) * 2019-04-01 2020-10-07 Siemens Healthcare GmbH Processing a medical image
CN110177147A (zh) * 2019-05-28 2019-08-27 西安邮电大学 一种基于物联网的多终端资源联合系统
US11064030B2 (en) * 2019-10-17 2021-07-13 Cisco Technology, Inc. Automatic on-boarding agent for IOT edge routers in connected vehicles
CN111178706A (zh) * 2019-12-18 2020-05-19 南京航空航天大学 一种基于眼动数据的管制员注意力分配评估方法
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11538259B2 (en) * 2020-02-06 2022-12-27 Honda Motor Co., Ltd. Toward real-time estimation of driver situation awareness: an eye tracking approach based on moving objects of interest
US11611587B2 (en) 2020-04-10 2023-03-21 Honda Motor Co., Ltd. Systems and methods for data privacy and security
CN111540217B (zh) * 2020-04-16 2022-03-01 成都旸谷信息技术有限公司 基于mask矩阵的平均车速智能监测方法、系统
US11861916B2 (en) * 2021-10-05 2024-01-02 Yazaki Corporation Driver alertness monitoring system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331850A (ja) * 2001-05-07 2002-11-19 Nissan Motor Co Ltd 運転行動意図検出装置
JP2006048171A (ja) * 2004-07-30 2006-02-16 Toyota Motor Corp 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465079A (en) 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
US7098891B1 (en) * 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US7363233B1 (en) * 2000-04-17 2008-04-22 Levine Richard C System and method of network addressing and translation in a transportation system
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
US6724920B1 (en) * 2000-07-21 2004-04-20 Trw Inc. Application of human facial features recognition to automobile safety
US6950027B2 (en) 2000-08-23 2005-09-27 Siemens Vdo Automotive Corporation Method to alert drowsy driver
JP2002143136A (ja) * 2000-08-31 2002-05-21 Fuji Photo Film Co Ltd 異常陰影候補検出方法および検出処理システム
US6879969B2 (en) 2001-01-21 2005-04-12 Volvo Technological Development Corporation System and method for real-time recognition of driving patterns
US6974414B2 (en) 2002-02-19 2005-12-13 Volvo Technology Corporation System and method for monitoring and managing driver attention loads
JP4551766B2 (ja) * 2002-10-15 2010-09-29 ボルボ テクノロジー コーポレイション 被験者の頭及び目の動きを分析する方法及び装置
US6882906B2 (en) 2002-10-31 2005-04-19 General Motors Corporation Vehicle information and interaction management
US6998972B2 (en) 2002-10-31 2006-02-14 General Motors Corporation Driving workload estimation
US6906619B2 (en) * 2003-02-27 2005-06-14 Motorola, Inc. Visual attention influenced condition indicia apparatus and method
EP1638801A1 (en) 2003-06-06 2006-03-29 Volvo Technology Corporation Method and arrangement for controlling vehicular subsystems based on interpreted driver activity
EP1512584B9 (en) 2003-09-03 2008-03-05 Ford Global Technologies, LLC Method and device for estimating workload for a driver of a vehicle
EP1695310B1 (en) 2003-11-30 2008-09-03 Volvo Technology Corporation Method and system for recognizing driver impairment
AU2003300514A1 (en) 2003-12-01 2005-06-24 Volvo Technology Corporation Perceptual enhancement displays based on knowledge of head and/or eye and/or gaze position
WO2005098777A1 (en) 2004-03-22 2005-10-20 Volvo Technology Corporation Method and system for perceptual suitability test of a driver
WO2006064073A1 (es) 2004-12-16 2006-06-22 Martin Alvarez, Juan Carlos Dispositivo para prevenir accidentes en caso de adormecimiento o desatencion del conductor de un vehículo
US7532958B2 (en) 2005-06-24 2009-05-12 General Motors Corporation Method for real-time assessment of driver workload by a navigation or telematics device
US7463961B2 (en) 2005-06-30 2008-12-09 General Motors Corporation Method for adapting lockout of navigation and audio system functions while driving
US7394393B2 (en) 2005-08-02 2008-07-01 Gm Global Technology Operations, Inc. Adaptive driver workload estimator
US7423540B2 (en) 2005-12-23 2008-09-09 Delphi Technologies, Inc. Method of detecting vehicle-operator state
US7428449B2 (en) 2006-03-14 2008-09-23 Temic Automotive Of North America, Inc. System and method for determining a workload level of a driver
US7751960B2 (en) 2006-04-13 2010-07-06 Gm Global Technology Operations, Inc. Driver workload-based vehicle stability enhancement control
JP5036814B2 (ja) * 2006-06-11 2012-09-26 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置
US7468673B2 (en) 2006-06-23 2008-12-23 Delphi Technologies, Inc. System and method for determining whether a vehicle operator has an impaired cognitive state
US7639699B2 (en) 2006-08-04 2009-12-29 Cisco Technology, Inc. Technique for sharing a physical port among a plurality of virtual bridges on a switch in a computer network
US7880621B2 (en) 2006-12-22 2011-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Distraction estimator
US7777619B2 (en) 2007-04-11 2010-08-17 Ford Global Technologies, Llc System and method for implementing active safety counter measures for an impaired driver
US7894953B2 (en) 2007-04-13 2011-02-22 Gm Global Technology Operations, Llc Interior component management of a vehicle via occupant monitoring
CN101722852A (zh) 2008-10-28 2010-06-09 深圳富泰宏精密工业有限公司 行车安全监控装置及方法
US9376018B2 (en) 2009-05-13 2016-06-28 GM Global Technology Operations LLC System and method for determining when a task may be performed on a vehicle
US9213522B2 (en) 2010-07-29 2015-12-15 Ford Global Technologies, Llc Systems and methods for scheduling driver interface tasks based on driver workload
US8749350B2 (en) 2010-12-10 2014-06-10 General Motors Llc Method of processing vehicle crash data
US8994522B2 (en) 2011-05-26 2015-03-31 General Motors Llc Human-machine interface (HMI) auto-steer based upon-likelihood to exceed eye glance guidelines
EP2564765B1 (en) 2011-09-02 2017-12-13 Volvo Car Corporation System and method for improving a performance estimation of an operator of a vehicle
US9251704B2 (en) 2012-05-29 2016-02-02 GM Global Technology Operations LLC Reducing driver distraction in spoken dialogue
CN104756173B (zh) 2012-09-17 2018-02-06 沃尔沃拉斯特瓦格纳公司 用于将基于背景的指导消息提供给汽车驾驶员的方法
CN104641406B (zh) 2012-09-17 2017-07-14 沃尔沃卡车集团 用于向车辆驾驶员提供指导消息的方法和系统
US20140347458A1 (en) 2013-05-23 2014-11-27 Ford Global Technologies, Llc Cellular phone camera for driver state estimation
US10311694B2 (en) * 2014-02-06 2019-06-04 Empoweryu, Inc. System and method for adaptive indirect monitoring of subject for well-being in unattended setting
US10902331B2 (en) 2016-08-19 2021-01-26 Massachusetts Institute Of Technology Systems and methods for providing visual allocation management
US10525984B2 (en) 2016-08-19 2020-01-07 Massachusetts Institute Of Technology Systems and methods for using an attention buffer to improve resource allocation management

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331850A (ja) * 2001-05-07 2002-11-19 Nissan Motor Co Ltd 運転行動意図検出装置
JP2006048171A (ja) * 2004-07-30 2006-02-16 Toyota Motor Corp 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019146123A1 (ja) * 2018-01-29 2021-01-14 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びプログラム

Also Published As

Publication number Publication date
US20210150390A1 (en) 2021-05-20
US11688203B2 (en) 2023-06-27
EP3500975A1 (en) 2019-06-26
WO2018035531A1 (en) 2018-02-22
US20180053103A1 (en) 2018-02-22
US10902331B2 (en) 2021-01-26

Similar Documents

Publication Publication Date Title
US11688203B2 (en) Systems and methods for providing visual allocation management
US10525984B2 (en) Systems and methods for using an attention buffer to improve resource allocation management
US11249544B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US10268909B2 (en) Systems and methods for near-crash determination
CN107415938B (zh) 基于乘员位置和注意力控制自主车辆功能和输出
WO2019151266A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP2022512114A (ja) 運転手の疲労を検出し、動的に緩和するためのシステムおよび方法
CN114340970A (zh) 信息处理设备、移动设备、信息处理系统、方法和程序
Rezaei et al. Simultaneous analysis of driver behaviour and road condition for driver distraction detection
EP4042322A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
JP2020035437A (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
Sharara et al. A real-time automotive safety system based on advanced ai facial detection algorithms
Altaf et al. A survey on autonomous vehicles in the field of intelligent transport system
Bhagat et al. Driver gaze fixation and pattern analysis in safety critical events
RU2703341C1 (ru) Способ определения опасных состояний на дорогах общего пользования на основе мониторинга ситуации в кабине транспортного средства
WO2021241261A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、学習方法
Bulygin et al. Methodology for in-the-Wild Driver Monitoring Dataset Formation
Alomari Human-centric detection and mitigation approach for various levels of cell phone-based driver distractions
Ledezma Espino et al. Implementing a Gaze Tracking Algorithm for Improving Advanced Driver Assistance Systems
Sarson An Investigation Into Time Gazed At Traffic Objects By Drivers
Balcero-Posada et al. A practical approach based on IoT, Video, Audio, and ITS for Micro-Sleep detection in public transportation systems
Kowsari Vehicular Instrumentation and Data Processing for the Study of Driver Intent

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220513

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221115