JP2019535089A - 視覚配分管理を提供するシステムおよび方法 - Google Patents
視覚配分管理を提供するシステムおよび方法 Download PDFInfo
- Publication number
- JP2019535089A JP2019535089A JP2019530378A JP2019530378A JP2019535089A JP 2019535089 A JP2019535089 A JP 2019535089A JP 2019530378 A JP2019530378 A JP 2019530378A JP 2019530378 A JP2019530378 A JP 2019530378A JP 2019535089 A JP2019535089 A JP 2019535089A
- Authority
- JP
- Japan
- Prior art keywords
- sight
- visual
- data
- states
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
- G06V10/85—Markov-related models; Markov random fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Abstract
Description
本出願は、「Attention Maps」のタイトルで2016年8月19日に出願された米国仮特許出願第62/377,213号の優先権および利益を主張し、この内容は、参照により全体として本明細書に組み込まれる。
本出願は、ダイナミックに変化する環境において活動に関わっている間の個人の視覚分布(visual distribution)の評価に基づく視覚配分管理(visual allocation management)を提供し、その評価を使用して、状態、行動、活動などが個人の視覚配分から容易に観察できないか、明らかでないか、または検出可能でないにもかかわらず、個人によってそれらの状態、行動、活動などが行われていることを予測または推測する、システムおよび方法に関する。このような評価に関連するシステムおよび方法は、多くの活動に関して使用され得るが、本開示が適用可能である1つの非限定的な活動は、リアルタイムフィードバックを与える運転活動である。
技術的進歩により、センサは、より安価かつ小型になり続けており、それによって、それらの大規模な普及および使用が可能となり、ほぼあらゆる物理的物体または存在が「スマート」または「インテリジェント」になっている。これらのセンサは、データを収集および送信することができる電子デバイスを指す。センサは、例えば2〜3例を挙げると、器具、機械、車両、家、幹線道路、都市に関連して近年使用されているが、これらのセンサの縮小するサイズおよびコストは、より多くのセンサの適用を、より可能性の低い環境で、例えば静脈内、皮膚上、衣類の中、歯の表面その他において有し、かつ可能にし続けている。センサの数の増大は、より多くのデータが収集、共有、および分析され、よりインテリジェントな発見、予測、決定などを行うことが可能になることを意味する。実際、センサおよびセンサを備えた物体を含む、相互接続された「モノ」(例えば、物体、デバイス、人々)の巨大なネットワークである、モノのインターネット(IoT)は、このデータの収集、共有、および分析をさらに促進する。
視覚配分を管理するシステムおよび方法が本明細書で提供される。さらに具体的には、活動に関与している人の、取り込まれた視覚的データを使用し、その視覚的データおよび/または他の情況情報に基づいて、その活動に関与している間の人の状態を識別または推測し、その結果、1つ以上の応答アクションがトリガされ得るような、視覚配分管理システムおよび方法が、本明細書に記載される。状態は、人の注意力、認識、感情(例えば、恐れ、怒り)、または他の精神もしくは身体的状態(例えば、眠気)を指すために本明細書において使用され、これは、場合によっては視覚的データから容易に観察可能もしくは測定可能でない。本明細書に記載するように、人の視覚的データは、運転など、1つ以上の活動に関与している間に、入手される。視覚的データは、1つ以上のカメラを含む、さまざまなセンサを用いて、取り込まれ得る。瞳孔位置などの視覚的特徴が、視覚的データから導き出されるか、または抽出され得、視線情報が算出され得る。視線情報は、視線方向、視線持続時間、および視線推移を含み得る。
特定の例示的な実施形態は、本明細書に開示する装置および方法の構造、機能、製造、および使用の原理の全体的な理解をもたらすために説明される。これらの実施形態の1つ以上の例を添付図面に示す。当業者は、本明細書に具体的に説明され添付図面に示される装置および方法が、非限定的な例示的実施形態であること、また、本開示の範囲が特許請求の範囲によってのみ定められることを理解するであろう。例示的な一実施形態に関連して示されるか、または説明される特徴は、他の実施形態の特徴と組み合わせることができる。このような修正および変形体は、本開示の範囲に含まれることが意図されている。本開示では、さまざまな実施形態の同様の符号のコンポーネントは概して、それらのコンポーネントが同様の性質のものであり、かつ/または同様の目的に役立つものである場合に、同様の特徴を有する。当業者は、本開示を鑑みれば、さまざまな図面にわたる同様の符号のコンポーネントが類似しているさまざまな実例を理解するであろう。さらに、いくつかの場合、当業者が理解するかもしくは別様に当業者に既知であり、かつ/または本開示において提供される、さまざまな用語は、互換的に使用される。非限定的な例として、認識および注意力、ならびに操作者およびユーザなどの用語は、互換的に使用され得る。
図1は、視覚配分の管理に関連する本開示が使用され得る、コンピューティングデバイスエコシステム100の例示的な実施形態を示す。いくつかの実施形態では、用語「視覚配分」は、人の視力、注目、視線などの分布または割り当てを指すために本明細書で使用され得、これには、所与の時間に眼球運動を空間領域、場所、方向などに割り当てることを含む。視覚配分を管理することは、いくつかの実施形態では、視覚的データ(例えば、視線方向、視線持続時間、視線推移)、ならびに/または、対応する人間の状態(例えば、行動、活動、タスクなど)を決定または予測するための情況データを入手および分析し、それに基づいて情報を出力することを指すことを理解されたい。視覚的データは、視覚的注意力および/または認識のプロキシとして役立ち得、これは、入手した視覚的データが、注意力または認識情報を表すか、または暗示し得ることを意味することを理解されたい。同様に、本明細書に記載する出力は、人間の視覚的注意または認識を管理するか、変化させるか、促進するか、または別様にそれに対する影響を有するように使用され得る。
・保険会社:保険料控除を決定する上でリスクの尺度として特定の操作者の視覚配分を評価する;
・車隊管理:個人として、また車隊にわたって車両操作者の能力を監視し、車隊の安全性を最適化するか、または安全性に関連するボーナスを支給する;
・小売業:買い物中の消費者の視覚配分パターンを識別し、消費者の視覚または視覚的注意をオンターゲットに引き戻すよう対話式のインターフェースディスプレイを改善または強化する;
・車同士のネットワーク:1つの車からクラウドネットワークに視覚配分データをアップロードし、他の車がその情報にアクセスでき、車またはドライバーが自分たちの周りの車両への認識を考慮できるようにする;
・保険数理:リスクおよび不確実性評価の精度および詳細を改善する;
・事故再現:本開示を鑑みて決定され得る要因の中でも特に、事故に巻き込まれた人の認識のレベルを評価する;
・法の執行:ドライバーにわたる共通の視覚配分パターンを識別し、速度制限、標識、またはパトロールカバー(patrol cover)の調節など、懸念に対処する積極的な措置をとるか、または、特定の時間に特定の操作者の配分を評価する。
前述のように、視覚配分管理システム103は、監視システム101として役立ち得る多くの物体に組み込まれ得る。このような物体は、異なるレベルの行動、注意力、および/または認識を分類することから利益を得ることができ、監視システム101がそれ自体の調節を行うか、または、視覚配分管理システム103によって記録されかつ/もしくは別様に決定された結果を鑑みて望ましい調節を行うために実行され得るアクションについて、他のコンポーネントおよび/もしくは人々に通知することを可能にする。車両は、本開示で提供される視覚配分管理システムおよび方法から利益を得る物体の、非限定的な一例である。以下でさらに詳細に説明するように、車両に組み込まれた視覚配分管理システムによって、システムは、車両自体、車両のドライバーもしくは操作者、ならびに/または、車両および/もしくは視覚配分管理システムと相互接続されるかもしくは別様に通信する他のデバイスもしくは他のコンポーネントに指示を与えて、それらの能力を改善することができる。
図5は、視覚配分管理システム103を用いて視覚配分を管理するための1つの例示的なプロセス300を示す、シーケンス線図である。プロセス300では、視覚配分管理システム103は、ドライバー303pが動作させる車両301に埋め込まれるか、または組み込まれている。視覚配分管理システム103は、とりわけ、クラウド309、システム307−1、およびシステム307−2(本明細書では、まとめて「システム308」または「308」と呼ぶ)と通信可能に連結され、これらと通信して、(1)さらに情況に応じて認識する視覚配分管理を行うために視覚配分管理システム103によって使用される情況情報を交換し、かつ(2)視覚配分管理に基づいて出力(例えば、フィードバック、指示)を提供する。プロセス300では、システム307−1および307−2は、車両301に近接して位置する車両であり、クラウド309は、交通データ、交通ストラテジーなどを収集および管理し得る交通管理システムによって管理される、スマートな交通クラウドである。当業者は、システム308が任意の数およびタイプのシステム、物体、およびデバイスを含み得ることを理解するであろう。
・推移カウント(580):推移カウントマトリクスは、眼球画像シーケンスもしくは視覚的データにおいて、すべての場所の対について、場所もしくは空間領域Jでの配分から、場所もしくは空間領域Kへ視線が何回進むかを表す。
・推移確率(582):推移確率マトリクスは、各場所または空間領域について正規化された値を表す。場所または空間領域による推移カウントの正規化は、例えば式:P(現在の視線=K|先の線=J)を用いて、算出され得る。推移確率マトリクスは、任意の所与の視線領域について、視線が別の定められた領域へと推移する相対頻度を示す。マトリクスの各セルについて、マトリクスの値は、そのセルの(例えば、推移カウントマトリクス(580)からの)推移カウント値を、1つの場所からすべての他の場所への推移の総数を表す、列の合計で割ることによって得ることができる。言い換えれば、状態、活動、タスク、または行動に対応する時系列として組織化された、1組の視線を考慮すると、場所Jから場所Kへの推移(ノード580)の数を、場所Jからの推移の総数で割る。よって、推移確率マトリクスは、所与の場所または空間領域から別の場所または空間領域へ推移する確率を示す。
・推移重要性マスク(584):推移重要性マスクマトリクスは、セルの(例えば推移カウントマトリクス(580)からの)推移カウント値を、それぞれの列のセル(例えば、(推移カウントマトリクスにおいて)領域から離れる推移の数が最も大きいセル)の最大値で割ることによって得られる。このマトリクスは、場合によっては、あまり訪れない目的領域と関連付けられた1つの視線推移が高い推移確率を生じ得るが、頻繁に訪れる領域は、より安定した確率予測を表すであろうという事実を考慮に入れる。
・推移有意性(586):推移有意性マトリクスは、推移確率マトリクス(582)と推移重要性マスクマトリクス(584)との要素ごとの乗算を用いて算出される。推移有意性マトリクスでは、高強度の入力が、おそらく、さらにはしばしば、基礎となる視覚的データに表れる、推移をマークする。
・持続時間カウント(588):持続時間カウントマトリクスは、視線方向または場所Kから視線場所または方向Jへの推移の持続時間を表し、これは、視線場所Jに切り替える前の場所Kにおける視線の持続時間と定義され得る。持続時間カウントマトリクスは、すべての場所J、Kについてこの結果を含むか、または表す。このように、各推移は、その持続時間の大きさで重みづけされ得る。
・場所当たりの時間分布(%)(590):場所当たりの時間分布マトリクスは、各視線場所について持続時間カウントマトリクスを正規化することによって得られ、これは、視線対象の関数としてすべての場所にわたって消費された時間の分布を得る。
・推移当たりの時間分布(%)(592):すべての入力の合計により持続時間カウントマトリクスを正規化することで、推移当たりの時間分布マトリクスが得られ、これは、各タイプの視線で消費された、すべての状態またはタスクおよび対象にわたる合計時間のパーセンテージを示す。
・持続時間重要性マスク(594):持続時間重要性マスクは、特定の動きのタイプに割り当てられた大量の時間が、わずかな、長い持続時間の視線の、または多くの短い持続時間の視線の結果であるかどうかを強調する。持続時間重要性マトリクスは、すべての持続時間カウント値をグローバルに正規化することによって、これを達成する。持続時間重要性マスクは、推移重要性マスクと同様に、しかし、推移カウントではなく持続時間カウントを用いて、機能する。
・持続時間有意性(596):持続時間重要性マスクマトリクス594は、要素ごとの乗算を用いて、推移重要性マスクマトリクス584と組み合わせられて、高強度の値が、やはりしばしばデータに表れる長い持続時間の視線に対応する、持続時間有意性マップを得る。いくつかの実施形態では、持続時間重要性マスクマトリクス594は、高強度から低強度への切り替えが、まれな長い持続時間の視線を示す;および低強度から高強度への切り替えが、頻繁な短い持続時間の視線を示唆する、パターンなど、追加パターンを識別し得る。
図9は、視覚配分管理システム103を含み、かつ/または本明細書に記載する視覚配分管理(例えば図5の300)を実行し得る、コントローラまたはコンピュータ900の例示的な実施形態の物理的コンポーネントのブロック図を示す。本明細書では例示的なコンピュータ900が描かれ説明されているが、これは普遍性のため、便宜上のことであると認識されるであろう。他の実施形態では、コンピュータ900は、本明細書で図示および説明するものと、構造および動作が異なり得る。コンピュータ900は、タブレット型コンピュータ、モバイルデバイス、スマートデバイス、ウェアラブルデバイス、スマートフォン、ラップトップコンピュータ、デスクトップコンピュータ、クラウドベースのコンピュータ、サーバーコンピュータ、前述したもののうち複数、などであってよい。
(1) 視覚配分を管理するシステムにおいて、
1つ以上のモデルを記憶するように動作可能な少なくとも1つのメモリであって、前記1つ以上のモデルは、
(1)複数の候補状態に対応するモデル、および、
(2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
のうちの少なくとも1つを含む、少なくとも1つのメモリと、
前記少なくとも1つのメモリに通信可能に連結された少なくとも1つのプロセッサと、を含み、前記少なくとも1つのプロセッサは、
連続した期間中に活動に関与している人に対応する視覚的データを受信すること、
前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、こと、
前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域のうちの1つの空間領域に分類すること、
前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別すること、ならびに
フィードバックを、識別された前記1つ以上の状態に基づいて出力すること、
を行うように動作可能である、システム。
(2) 実施態様1に記載のシステムにおいて、
前記プロセッサは、
前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、こと、および、
前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出すること、
を行うようにさらに動作可能であり、
前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、システム。
(3) 実施態様1に記載のシステムにおいて、
前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記少なくとも1つのプロセッサは、
前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出すること、および、
前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択すること、
を行うようにさらに動作可能である、システム。
(4) 実施態様3に記載のシステムにおいて、
出力された前記フィードバックは、
(1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率、
(2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態、および、
(3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示、
のうちの1つ以上を含む、システム。
(5) 実施態様2に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別するようにさらに動作可能であり、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、システム。
前記少なくとも1つのプロセッサは、前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別するようにさらに動作可能であり、
前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、システム。
(7) 実施態様1に記載のシステムにおいて、
前記1つ以上のモデルは、隠れマルコフモデルである、システム。
(8) 実施態様1に記載のシステムにおいて、
前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、システム。
(9) 実施態様8に記載のシステムにおいて、
前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、システム。
(10) 実施態様1に記載のシステムにおいて、
前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、システム。
前記プロセッサは、情況データを、1つ以上の通信可能に連結されたシステムから受信するようにさらに動作可能であり、
前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、システム。
(12) 実施態様11に記載のシステムにおいて、
前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、システム。
(13) 実施態様1に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングするようにさらに動作可能である、システム。
(14) 実施態様4に記載のシステムを含む車両において、
前記活動に関与している前記人は、前記車両を動作させることに関与するドライバーであり、
出力された前記フィードバックは、識別された前記1つ以上の状態に基づいた前記指示を含み、
前記指示は、
(1)前記車両の前記ドライバーの空間的注意力または認識を管理する指示、
(2)前記車両の制御に影響をもたらす指示、ならびに、
(3)前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす指示、
のうちの1つ以上を含む、車両。
(15) 実施態様14に記載の車両において、
前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす前記指示は、前記車両への、および前記車両からの情報交換を抑制する指示を含む、車両。
1つ以上のモデルを記憶することであって、前記1つ以上のモデルは、
(1)複数の候補状態に対応するモデル、および、
(2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
のうちの少なくとも1つを含む、ことと、
連続した期間中に活動に関与している人に対応する視覚的データを受信することと、
前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、ことと、
前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域から選択される1つの空間領域に分類することと、
前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別することと、
フィードバックを、識別された前記1つ以上の状態に基づいて出力することと、
を含む、方法。
(17) 実施態様16に記載の方法において、
前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、ことと、
前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出することと、
をさらに含み、
前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、方法。
(18) 実施態様16に記載の方法において、
前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記方法は、
前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出することと、
前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択することと、
をさらに含む、方法。
(19) 実施態様18に記載の方法において、
前記フィードバックを出力することは、
(1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率を決定すること、
(2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態を決定すること、および、
(3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示を提供すること、
のうちの1つ以上を含む、方法。
(20) 実施態様17に記載の方法において、
前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別することをさらに含み、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、方法。
前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別することをさらに含み、
前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、方法。
(22) 実施態様16に記載の方法において、
前記1つ以上のモデルは、隠れマルコフモデルである、方法。
(23) 実施態様16に記載の方法において、
前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、方法。
(24) 実施態様23に記載の方法において、
前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、方法。
(25) 実施態様16に記載の方法において、
前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、方法。
情況データを、1つ以上の通信可能に連結されたシステムから受信することをさらに含み、
前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、方法。
(27) 実施態様26に記載の方法において、
前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、方法。
(28) 実施態様16に記載の方法において、
(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングすることをさらに含む、方法。
Claims (28)
- 視覚配分を管理するシステムにおいて、
1つ以上のモデルを記憶するように動作可能な少なくとも1つのメモリであって、前記1つ以上のモデルは、
(1)複数の候補状態に対応するモデル、および、
(2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
のうちの少なくとも1つを含む、少なくとも1つのメモリと、
前記少なくとも1つのメモリに通信可能に連結された少なくとも1つのプロセッサと、を含み、前記少なくとも1つのプロセッサは、
連続した期間中に活動に関与している人に対応する視覚的データを受信すること、
前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、こと、
前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域のうちの1つの空間領域に分類すること、
前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別すること、ならびに
フィードバックを、識別された前記1つ以上の状態に基づいて出力すること、
を行うように動作可能である、システム。 - 請求項1に記載のシステムにおいて、
前記プロセッサは、
前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、こと、および、
前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出すること、
を行うようにさらに動作可能であり、
前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、システム。 - 請求項1に記載のシステムにおいて、
前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記少なくとも1つのプロセッサは、
前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出すること、および、
前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択すること、
を行うようにさらに動作可能である、システム。 - 請求項3に記載のシステムにおいて、
出力された前記フィードバックは、
(1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率、
(2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態、および、
(3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示、
のうちの1つ以上を含む、システム。 - 請求項2に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別するようにさらに動作可能であり、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、システム。 - 請求項5に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別するようにさらに動作可能であり、
前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、システム。 - 請求項1に記載のシステムにおいて、
前記1つ以上のモデルは、隠れマルコフモデルである、システム。 - 請求項1に記載のシステムにおいて、
前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、システム。 - 請求項8に記載のシステムにおいて、
前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、システム。 - 請求項1に記載のシステムにおいて、
前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、システム。 - 請求項1に記載のシステムにおいて、
前記プロセッサは、情況データを、1つ以上の通信可能に連結されたシステムから受信するようにさらに動作可能であり、
前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、システム。 - 請求項11に記載のシステムにおいて、
前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、システム。 - 請求項1に記載のシステムにおいて、
前記少なくとも1つのプロセッサは、(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングするようにさらに動作可能である、システム。 - 請求項4に記載のシステムを含む車両において、
前記活動に関与している前記人は、前記車両を動作させることに関与するドライバーであり、
出力された前記フィードバックは、識別された前記1つ以上の状態に基づいた前記指示を含み、
前記指示は、
(1)前記車両の前記ドライバーの空間的注意力または認識を管理する指示、
(2)前記車両の制御に影響をもたらす指示、ならびに、
(3)前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす指示、
のうちの1つ以上を含む、車両。 - 請求項14に記載の車両において、
前記車両および前記車両の前記ドライバーのうちの少なくとも1つとの情報交換を増やす前記指示は、前記車両への、および前記車両からの情報交換を抑制する指示を含む、車両。 - 視覚配分を管理する方法において、
1つ以上のモデルを記憶することであって、前記1つ以上のモデルは、
(1)複数の候補状態に対応するモデル、および、
(2)各モデルが前記複数の候補状態のうちの1つに対応する、複数のモデル、
のうちの少なくとも1つを含む、ことと、
連続した期間中に活動に関与している人に対応する視覚的データを受信することと、
前記視覚的データから一連の視線を識別し、前記一連の視線の各視線について、対応する視線情報を識別することであって、前記視線情報は視線方向を含む、ことと、
前記一連の視線における前記視線のそれぞれを、それぞれの視線情報に基づいて、1組の所定の空間領域から選択される1つの空間領域に分類することと、
前記1つ以上のモデルに基づいて、前記連続した期間中に前記活動に関与している間の前記人の1つ以上の状態の存在を、記憶された前記1つ以上のモデルのそれぞれに、(1)前記一連の視線における前記視線の分類、および(2)前記一連の視線における前記視線の前記視線情報、のうちの1つ以上を含むモデル入力データを入力することによって識別することと、
フィードバックを、識別された前記1つ以上の状態に基づいて出力することと、
を含む、方法。 - 請求項16に記載の方法において、
前記視覚的データにおいて1つ以上の眼球画像シーケンスを識別することであって、前記1つ以上の眼球画像シーケンスは、前記連続した期間中に前記活動に関与している前記人の眼球領域の画像を含む、ことと、
前記1つ以上の眼球画像シーケンスの前記画像それぞれから視覚的特徴を抽出することと、
をさらに含み、
前記一連の視線および対応する視線情報は、抽出された前記視覚的特徴に基づいて前記1つ以上の眼球画像シーケンスから識別される、方法。 - 請求項16に記載の方法において、
前記連続した期間中の所与の段階における1つ以上の状態の存在を識別するために、前記方法は、
前記1つ以上のモデルによって、モデル入力データに基づいて、前記複数の候補状態それぞれが存在するそれぞれの確率を算出することと、
前記連続した期間中の前記所与の段階における存在の最も高いそれぞれの算出された確率を有する前記複数の候補状態のうちの1つ以上を、識別された前記1つ以上の状態として、選択することと、
をさらに含む、方法。 - 請求項18に記載の方法において、
前記フィードバックを出力することは、
(1)前記連続した期間中における前記複数の候補状態それぞれの存在の確率を決定すること、
(2)前記連続した期間中における存在の最も高いそれぞれの算出された確率を有する識別された前記1つ以上の状態を決定すること、および、
(3)前記連続した期間中に前記活動に関与している間の前記人の前記識別された1つ以上の状態に基づく指示を提供すること、
のうちの1つ以上を含む、方法。 - 請求項17に記載の方法において、
前記一連の視線それぞれについて、視線持続時間および視線推移のうちの1つ以上を識別することをさらに含み、前記視線推移は、前記一連の視線のうちの次の視線の視線方向を示し、
前記一連の視線それぞれの前記視線情報は、それぞれの前記視線持続時間および視線推移のうちの前記1つ以上をさらに含み、
前記1つ以上の状態を識別することは、前記一連の視線それぞれの前記視線持続時間および前記視線推移のうちの前記1つ以上にさらに基づく、方法。 - 請求項20に記載の方法において、
前記一連の視線それぞれの分類および/または前記一連の視線それぞれの前記視線推移に基づいて、前記一連の視線の中から1つ以上の視線パターンを識別することをさらに含み、
前記1つ以上の状態の存在を識別することは、前記1つ以上のモデルのそれぞれに入力された視線推移パターンにさらに基づく、方法。 - 請求項16に記載の方法において、
前記1つ以上のモデルは、隠れマルコフモデルである、方法。 - 請求項16に記載の方法において、
前記1つ以上の眼球画像シーケンスのそれぞれは、一人の個人に対応する、方法。 - 請求項23に記載の方法において、
前記視覚的データにおける前記1つ以上の眼球画像シーケンスは、1つ以上のカメラを用いて取り込まれる、方法。 - 請求項16に記載の方法において、
前記視覚的データを受信し、結果を出力することは、リアルタイムで実行される、方法。 - 請求項16に記載の方法において、
情況データを、1つ以上の通信可能に連結されたシステムから受信することをさらに含み、
前記1つ以上の状態の存在を識別することは、前記情況データにさらに基づく、方法。 - 請求項26に記載の方法において、
前記情況データは、環境データ、周辺データ、およびユーザデータのうちの少なくとも1つを含む、方法。 - 請求項16に記載の方法において、
(1)連続した期間中に前記活動に関与している複数の人々に対応する視覚的データ、および(2)前記活動に関与している間に前記複数の人々に存在する1つ以上の状態を含む状態データ、を用いて、前記1つ以上のモデルをトレーニングすることをさらに含む、方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662377213P | 2016-08-19 | 2016-08-19 | |
US62/377,213 | 2016-08-19 | ||
PCT/US2017/047837 WO2018035531A1 (en) | 2016-08-19 | 2017-08-21 | Systems and methods for providing visual allocation management |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019535089A true JP2019535089A (ja) | 2019-12-05 |
Family
ID=59812096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019530378A Pending JP2019535089A (ja) | 2016-08-19 | 2017-08-21 | 視覚配分管理を提供するシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10902331B2 (ja) |
EP (1) | EP3500975A1 (ja) |
JP (1) | JP2019535089A (ja) |
WO (1) | WO2018035531A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019146123A1 (ja) * | 2018-01-29 | 2021-01-14 | 日本電気株式会社 | 覚醒度推定装置、覚醒度推定方法、及びプログラム |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3229183A1 (de) * | 2016-04-08 | 2017-10-11 | MOBA - Mobile Automation AG | Vorrichtung und verfahren zur überwachung von prozessdaten bei der strassenfertigung |
JP6759743B2 (ja) * | 2016-06-17 | 2020-09-23 | アイシン精機株式会社 | 視認方向推定装置 |
US10525984B2 (en) | 2016-08-19 | 2020-01-07 | Massachusetts Institute Of Technology | Systems and methods for using an attention buffer to improve resource allocation management |
US10902331B2 (en) | 2016-08-19 | 2021-01-26 | Massachusetts Institute Of Technology | Systems and methods for providing visual allocation management |
DE202017105761U1 (de) | 2016-10-20 | 2018-03-19 | Google LLC (n.d.Ges.d. Staates Delaware) | Automatische Schrittsteuerung der Interaktion eines Fahrers mit Inhalten |
CN109177877B (zh) * | 2017-09-03 | 2021-04-30 | 创艺设计股份有限公司 | 显示装置 |
US11315415B2 (en) * | 2017-09-03 | 2022-04-26 | Innovart Design Inc. | Information sharing system and information sharing method for vehicle |
CN108229376B (zh) * | 2017-12-29 | 2022-06-03 | 百度在线网络技术(北京)有限公司 | 用于检测眨眼的方法及装置 |
US11449764B2 (en) * | 2018-06-27 | 2022-09-20 | Microsoft Technology Licensing, Llc | AI-synthesized application for presenting activity-specific UI of activity-specific content |
US10990421B2 (en) | 2018-06-27 | 2021-04-27 | Microsoft Technology Licensing, Llc | AI-driven human-computer interface for associating low-level content with high-level activities using topics as an abstraction |
US11354581B2 (en) | 2018-06-27 | 2022-06-07 | Microsoft Technology Licensing, Llc | AI-driven human-computer interface for presenting activity-specific views of activity-specific content for multiple activities |
US11040714B2 (en) * | 2018-09-28 | 2021-06-22 | Intel Corporation | Vehicle controller and method for controlling a vehicle |
US11260872B2 (en) * | 2018-10-12 | 2022-03-01 | Honda Motor Co., Ltd. | System and method for utilizing a temporal recurrent network for online action detection |
US10894542B2 (en) * | 2018-10-30 | 2021-01-19 | International Business Machines Corporation | Driving feedback based safety system |
US10977767B2 (en) * | 2018-11-28 | 2021-04-13 | Adobe Inc. | Propagation of spot healing edits from one image to multiple images |
US11200438B2 (en) | 2018-12-07 | 2021-12-14 | Dus Operating Inc. | Sequential training method for heterogeneous convolutional neural network |
US11068069B2 (en) * | 2019-02-04 | 2021-07-20 | Dus Operating Inc. | Vehicle control with facial and gesture recognition using a convolutional neural network |
CN109871907B (zh) * | 2019-03-19 | 2023-04-18 | 山东大学 | 基于sae-hmm模型的雷达目标高分辨率距离像识别方法 |
EP3719745A1 (en) * | 2019-04-01 | 2020-10-07 | Siemens Healthcare GmbH | Processing a medical image |
CN110177147A (zh) * | 2019-05-28 | 2019-08-27 | 西安邮电大学 | 一种基于物联网的多终端资源联合系统 |
US11064030B2 (en) * | 2019-10-17 | 2021-07-13 | Cisco Technology, Inc. | Automatic on-boarding agent for IOT edge routers in connected vehicles |
CN111178706A (zh) * | 2019-12-18 | 2020-05-19 | 南京航空航天大学 | 一种基于眼动数据的管制员注意力分配评估方法 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US11538259B2 (en) * | 2020-02-06 | 2022-12-27 | Honda Motor Co., Ltd. | Toward real-time estimation of driver situation awareness: an eye tracking approach based on moving objects of interest |
US11611587B2 (en) | 2020-04-10 | 2023-03-21 | Honda Motor Co., Ltd. | Systems and methods for data privacy and security |
CN111540217B (zh) * | 2020-04-16 | 2022-03-01 | 成都旸谷信息技术有限公司 | 基于mask矩阵的平均车速智能监测方法、系统 |
US11861916B2 (en) * | 2021-10-05 | 2024-01-02 | Yazaki Corporation | Driver alertness monitoring system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002331850A (ja) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | 運転行動意図検出装置 |
JP2006048171A (ja) * | 2004-07-30 | 2006-02-16 | Toyota Motor Corp | 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法 |
JP2008210239A (ja) * | 2007-02-27 | 2008-09-11 | Nissan Motor Co Ltd | 視線推定装置 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5465079A (en) | 1992-08-14 | 1995-11-07 | Vorad Safety Systems, Inc. | Method and apparatus for determining driver fitness in real time |
US7098891B1 (en) * | 1992-09-18 | 2006-08-29 | Pryor Timothy R | Method for providing human input to a computer |
US7363233B1 (en) * | 2000-04-17 | 2008-04-22 | Levine Richard C | System and method of network addressing and translation in a transportation system |
US7375728B2 (en) * | 2001-10-01 | 2008-05-20 | University Of Minnesota | Virtual mirror |
US6724920B1 (en) * | 2000-07-21 | 2004-04-20 | Trw Inc. | Application of human facial features recognition to automobile safety |
US6950027B2 (en) | 2000-08-23 | 2005-09-27 | Siemens Vdo Automotive Corporation | Method to alert drowsy driver |
JP2002143136A (ja) * | 2000-08-31 | 2002-05-21 | Fuji Photo Film Co Ltd | 異常陰影候補検出方法および検出処理システム |
US6879969B2 (en) | 2001-01-21 | 2005-04-12 | Volvo Technological Development Corporation | System and method for real-time recognition of driving patterns |
US6974414B2 (en) | 2002-02-19 | 2005-12-13 | Volvo Technology Corporation | System and method for monitoring and managing driver attention loads |
JP4551766B2 (ja) * | 2002-10-15 | 2010-09-29 | ボルボ テクノロジー コーポレイション | 被験者の頭及び目の動きを分析する方法及び装置 |
US6882906B2 (en) | 2002-10-31 | 2005-04-19 | General Motors Corporation | Vehicle information and interaction management |
US6998972B2 (en) | 2002-10-31 | 2006-02-14 | General Motors Corporation | Driving workload estimation |
US6906619B2 (en) * | 2003-02-27 | 2005-06-14 | Motorola, Inc. | Visual attention influenced condition indicia apparatus and method |
EP1638801A1 (en) | 2003-06-06 | 2006-03-29 | Volvo Technology Corporation | Method and arrangement for controlling vehicular subsystems based on interpreted driver activity |
EP1512584B9 (en) | 2003-09-03 | 2008-03-05 | Ford Global Technologies, LLC | Method and device for estimating workload for a driver of a vehicle |
EP1695310B1 (en) | 2003-11-30 | 2008-09-03 | Volvo Technology Corporation | Method and system for recognizing driver impairment |
AU2003300514A1 (en) | 2003-12-01 | 2005-06-24 | Volvo Technology Corporation | Perceptual enhancement displays based on knowledge of head and/or eye and/or gaze position |
WO2005098777A1 (en) | 2004-03-22 | 2005-10-20 | Volvo Technology Corporation | Method and system for perceptual suitability test of a driver |
WO2006064073A1 (es) | 2004-12-16 | 2006-06-22 | Martin Alvarez, Juan Carlos | Dispositivo para prevenir accidentes en caso de adormecimiento o desatencion del conductor de un vehículo |
US7532958B2 (en) | 2005-06-24 | 2009-05-12 | General Motors Corporation | Method for real-time assessment of driver workload by a navigation or telematics device |
US7463961B2 (en) | 2005-06-30 | 2008-12-09 | General Motors Corporation | Method for adapting lockout of navigation and audio system functions while driving |
US7394393B2 (en) | 2005-08-02 | 2008-07-01 | Gm Global Technology Operations, Inc. | Adaptive driver workload estimator |
US7423540B2 (en) | 2005-12-23 | 2008-09-09 | Delphi Technologies, Inc. | Method of detecting vehicle-operator state |
US7428449B2 (en) | 2006-03-14 | 2008-09-23 | Temic Automotive Of North America, Inc. | System and method for determining a workload level of a driver |
US7751960B2 (en) | 2006-04-13 | 2010-07-06 | Gm Global Technology Operations, Inc. | Driver workload-based vehicle stability enhancement control |
JP5036814B2 (ja) * | 2006-06-11 | 2012-09-26 | ボルボ テクノロジー コーポレイション | 視覚的関心場所の決定および分析のための方法および装置 |
US7468673B2 (en) | 2006-06-23 | 2008-12-23 | Delphi Technologies, Inc. | System and method for determining whether a vehicle operator has an impaired cognitive state |
US7639699B2 (en) | 2006-08-04 | 2009-12-29 | Cisco Technology, Inc. | Technique for sharing a physical port among a plurality of virtual bridges on a switch in a computer network |
US7880621B2 (en) | 2006-12-22 | 2011-02-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Distraction estimator |
US7777619B2 (en) | 2007-04-11 | 2010-08-17 | Ford Global Technologies, Llc | System and method for implementing active safety counter measures for an impaired driver |
US7894953B2 (en) | 2007-04-13 | 2011-02-22 | Gm Global Technology Operations, Llc | Interior component management of a vehicle via occupant monitoring |
CN101722852A (zh) | 2008-10-28 | 2010-06-09 | 深圳富泰宏精密工业有限公司 | 行车安全监控装置及方法 |
US9376018B2 (en) | 2009-05-13 | 2016-06-28 | GM Global Technology Operations LLC | System and method for determining when a task may be performed on a vehicle |
US9213522B2 (en) | 2010-07-29 | 2015-12-15 | Ford Global Technologies, Llc | Systems and methods for scheduling driver interface tasks based on driver workload |
US8749350B2 (en) | 2010-12-10 | 2014-06-10 | General Motors Llc | Method of processing vehicle crash data |
US8994522B2 (en) | 2011-05-26 | 2015-03-31 | General Motors Llc | Human-machine interface (HMI) auto-steer based upon-likelihood to exceed eye glance guidelines |
EP2564765B1 (en) | 2011-09-02 | 2017-12-13 | Volvo Car Corporation | System and method for improving a performance estimation of an operator of a vehicle |
US9251704B2 (en) | 2012-05-29 | 2016-02-02 | GM Global Technology Operations LLC | Reducing driver distraction in spoken dialogue |
CN104756173B (zh) | 2012-09-17 | 2018-02-06 | 沃尔沃拉斯特瓦格纳公司 | 用于将基于背景的指导消息提供给汽车驾驶员的方法 |
CN104641406B (zh) | 2012-09-17 | 2017-07-14 | 沃尔沃卡车集团 | 用于向车辆驾驶员提供指导消息的方法和系统 |
US20140347458A1 (en) | 2013-05-23 | 2014-11-27 | Ford Global Technologies, Llc | Cellular phone camera for driver state estimation |
US10311694B2 (en) * | 2014-02-06 | 2019-06-04 | Empoweryu, Inc. | System and method for adaptive indirect monitoring of subject for well-being in unattended setting |
US10902331B2 (en) | 2016-08-19 | 2021-01-26 | Massachusetts Institute Of Technology | Systems and methods for providing visual allocation management |
US10525984B2 (en) | 2016-08-19 | 2020-01-07 | Massachusetts Institute Of Technology | Systems and methods for using an attention buffer to improve resource allocation management |
-
2017
- 2017-08-21 US US15/682,108 patent/US10902331B2/en active Active
- 2017-08-21 EP EP17764478.8A patent/EP3500975A1/en active Pending
- 2017-08-21 JP JP2019530378A patent/JP2019535089A/ja active Pending
- 2017-08-21 WO PCT/US2017/047837 patent/WO2018035531A1/en unknown
-
2020
- 2020-12-11 US US17/120,009 patent/US11688203B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002331850A (ja) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | 運転行動意図検出装置 |
JP2006048171A (ja) * | 2004-07-30 | 2006-02-16 | Toyota Motor Corp | 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法 |
JP2008210239A (ja) * | 2007-02-27 | 2008-09-11 | Nissan Motor Co Ltd | 視線推定装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019146123A1 (ja) * | 2018-01-29 | 2021-01-14 | 日本電気株式会社 | 覚醒度推定装置、覚醒度推定方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210150390A1 (en) | 2021-05-20 |
US11688203B2 (en) | 2023-06-27 |
EP3500975A1 (en) | 2019-06-26 |
WO2018035531A1 (en) | 2018-02-22 |
US20180053103A1 (en) | 2018-02-22 |
US10902331B2 (en) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11688203B2 (en) | Systems and methods for providing visual allocation management | |
US10525984B2 (en) | Systems and methods for using an attention buffer to improve resource allocation management | |
US11249544B2 (en) | Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness | |
US10268909B2 (en) | Systems and methods for near-crash determination | |
CN107415938B (zh) | 基于乘员位置和注意力控制自主车辆功能和输出 | |
WO2019151266A1 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
JP2022512114A (ja) | 運転手の疲労を検出し、動的に緩和するためのシステムおよび方法 | |
CN114340970A (zh) | 信息处理设备、移动设备、信息处理系统、方法和程序 | |
Rezaei et al. | Simultaneous analysis of driver behaviour and road condition for driver distraction detection | |
EP4042322A1 (en) | Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness | |
JP2020035437A (ja) | 車両システム、車両システムで実行される方法、および運転者支援システム | |
Sharara et al. | A real-time automotive safety system based on advanced ai facial detection algorithms | |
Altaf et al. | A survey on autonomous vehicles in the field of intelligent transport system | |
Bhagat et al. | Driver gaze fixation and pattern analysis in safety critical events | |
RU2703341C1 (ru) | Способ определения опасных состояний на дорогах общего пользования на основе мониторинга ситуации в кабине транспортного средства | |
WO2021241261A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、学習方法 | |
Bulygin et al. | Methodology for in-the-Wild Driver Monitoring Dataset Formation | |
Alomari | Human-centric detection and mitigation approach for various levels of cell phone-based driver distractions | |
Ledezma Espino et al. | Implementing a Gaze Tracking Algorithm for Improving Advanced Driver Assistance Systems | |
Sarson | An Investigation Into Time Gazed At Traffic Objects By Drivers | |
Balcero-Posada et al. | A practical approach based on IoT, Video, Audio, and ITS for Micro-Sleep detection in public transportation systems | |
Kowsari | Vehicular Instrumentation and Data Processing for the Study of Driver Intent |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220513 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220728 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221115 |