JP2022519895A - ユーザの注目方向および外観を相関させるシステムおよび方法 - Google Patents
ユーザの注目方向および外観を相関させるシステムおよび方法 Download PDFInfo
- Publication number
- JP2022519895A JP2022519895A JP2021547205A JP2021547205A JP2022519895A JP 2022519895 A JP2022519895 A JP 2022519895A JP 2021547205 A JP2021547205 A JP 2021547205A JP 2021547205 A JP2021547205 A JP 2021547205A JP 2022519895 A JP2022519895 A JP 2022519895A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- vehicle
- content
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 79
- 210000003128 head Anatomy 0.000 claims description 117
- 238000004458 analytical method Methods 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 6
- 230000001953 sensory effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 51
- 238000004891 communication Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 9
- 241000282994 Cervidae Species 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- B60K35/85—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B60K2360/149—
-
- B60K2360/1868—
-
- B60K2360/21—
-
- B60K2360/592—
-
- B60K35/29—
-
- B60K35/654—
-
- B60K35/81—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Abstract
実施形態は、自動車のユーザが見ているものに基づいて、カスタマイズされたコンテンツを自動車のユーザに提示するシステムを提供することを対象とする。第1のカメラは、自動車の車内のユーザの画像をキャプチャし、第2のカメラは、ユーザが見ているシーンの画像をキャプチャする。画像は、ユーザがシーン内の物体を見ているかどうかを判定するために分析される。ユーザがそのような物体を見ている場合、その物体に関連するコンテンツが選択され、ユーザに提示される。【選択図】図1
Description
本開示は、一般に、自動車に乗っている人が見ているものに基づいて、その人に動的でリアルタイムにコンテンツを選択および提示することに関する。
関連技術の説明
自動車は、ますますユーザフレンドリーでインタラクティブになっている。現在、多くの新たな車は、自動車の様々な態様を制御して様々なコンテンツやアプリケーションにアクセスするためにユーザが使用することができるヘッドユニットと呼ばれるユーザインターフェースを備えて製造されている。例えば、ユーザは、ヘッドユニットを使用して、ラジオ局を変更したり、車内の温度を変更したり、地図や全地球測位システムにアクセスしたり、インターネットにアクセスしたり、他のヘッドユニットアプリケーションにアクセスしたり、または自動車の他のアクセサリにアクセスもしくは制御したりすることができる。ヘッドユニットはまた、例をいくつか挙げると、自動車のオイル交換時期やタイヤローテーションが行われるべき時期など、様々な情報やコンテンツをユーザに提供することができる。しかしながら、この情報のほとんどは、自動車の操作のコンテキストに基づく根拠なしにユーザに提供される。
自動車は、ますますユーザフレンドリーでインタラクティブになっている。現在、多くの新たな車は、自動車の様々な態様を制御して様々なコンテンツやアプリケーションにアクセスするためにユーザが使用することができるヘッドユニットと呼ばれるユーザインターフェースを備えて製造されている。例えば、ユーザは、ヘッドユニットを使用して、ラジオ局を変更したり、車内の温度を変更したり、地図や全地球測位システムにアクセスしたり、インターネットにアクセスしたり、他のヘッドユニットアプリケーションにアクセスしたり、または自動車の他のアクセサリにアクセスもしくは制御したりすることができる。ヘッドユニットはまた、例をいくつか挙げると、自動車のオイル交換時期やタイヤローテーションが行われるべき時期など、様々な情報やコンテンツをユーザに提供することができる。しかしながら、この情報のほとんどは、自動車の操作のコンテキストに基づく根拠なしにユーザに提供される。
簡単に言えば、実施形態は、自動車のユーザが見ているものに基づいて、カスタマイズされたコンテンツを自動車のユーザに提示するシステムおよび方法を対象とする。第1のカメラは、自動車のユーザの画像をキャプチャし、第2のカメラは、ユーザが見ているシーンの画像をキャプチャする。画像は、分析されて、ユーザがシーン内の物体を見ているかどうかを判定する。ユーザが関心物体を見ている場合、その物体に関連付けられたコンテンツが選択され、ユーザに提示される。例えば、関心物体がレストランの看板である場合、ヘッドユニットは、自動車の現在位置からレストランへの道順を提示することができる。
また、危険物体や情報標識など、ユーザが注目を払う必要がある物体についてユーザに警告することもできる。例えば、第1および第2のカメラによってキャプチャされた画像は、道路に停止した動物または車などの危険物体が存在するかどうか、また存在する場合、ユーザが危険物体を見ているかどうかを判定するために分析されることができる。同様に、第1および第2のカメラによってキャプチャされた画像は、交通方向、迂回、または速度制限標識などの情報標識が存在するかどうか、また存在する場合、ユーザが情報標識を見ているかどうかを判定するために分析されることができる。ユーザが運転者であり、危険物体や情報標識を見ていない場合は、警報または警告が運転者に提示されて、運転者の注目を危険物体や情報標識に向けることができる。
したがって、コンテンツは、ユーザがそのようなコンテンツを要求するために追加のコマンドを実行したりまたは入力したりする必要なく、ユーザが見ているもの、または見るべきであるが見ていないアイテムに基づいて、ユーザ向けに特別にカスタマイズされることができる。
非限定的且つ非網羅的な実施形態が以下の図面を参照して説明される。図面において、特に明記しない限り、同様の参照符号は、様々な図を通して同様の部品を指す。
よりよく理解するために、以下の詳細な説明が参照されるが、これは、添付の図面と併せて読まれるべきである。
以下の説明は、添付の図面とともに、開示された様々な実施形態の完全な理解を提供するために、特定の詳細を説明する。しかしながら、当業者は、開示された実施形態が、これらの特定の詳細の1つ以上なしで、または他の方法、構成要素、デバイス、材料などを用いて、様々な組み合わせで実施されることができることを認識するであろう。他の例では、実施形態の説明が不必要に不明瞭になるのを避けるために、通信システムおよびネットワークおよび自動車環境を含むがこれらに限定されない、本開示の環境に関連する周知の構造または構成要素は、図示または説明されていない。さらに、様々な実施形態は、方法、システム、媒体、またはデバイスとすることができる。したがって、様々な実施形態は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、またはソフトウェアとハードウェアとの態様を組み合わせた実施形態とすることができる。
明細書、特許請求の範囲、および図面全体を通じて、以下の用語は、文脈上明確に別段の指示がない限り、本明細書に明示的に関連付けられた意味をとる。「本明細書に」という用語は、本出願に関連する明細書、特許請求の範囲、および図面を指す。「一実施形態では」、「別の実施形態では」、「様々な実施形態では」、「いくつかの実施形態では」、「他の実施形態では」という句、およびそれらの他の変形は、本開示の1つ以上の特徴、構造、機能、制限、または特徴を指し、文脈上明らかに別段の指示がない限り、同一または異なる実施形態に限定されない。本明細書で使用される場合、「または」という用語は、包括的な「または」演算子であり、「AもしくはB、または双方」または「AもしくはBもしくはC、またはそれらの任意の組み合わせ」という句と同等であり、追加の要素を有するリストは同様に扱われる。「に基づく」という用語は、排他的なものではなく、文脈上明らかに別段の定めがない限り、説明されていない追加の特徴、機能、態様、または制限に基づくことを可能にする。さらに、本明細書全体を通じて、「a」、「an」、および「the」の意味は、単数および複数の言及を含む。
「ユーザ」という用語は、車両に乗っている、または車両によって輸送されている、または車両を制御している人物または乗員として定義される。ユーザは、自動車の運転者または乗員である。「物体」は、ユーザが知覚することができ、1つ以上のデジタル画像にキャプチャまたは記録されることができる現実世界のものとして定義される。「画像」は、カメラによって生成または提供されるデジタルデータの集合セットとして定義される。「カメラ」は、光に敏感で、画像を形成するための信号を生成するセンサとして定義される。カメラは、可視光または非可視光(またはその双方)に敏感とすることができる。
「コンテンツ」という用語は、車両のユーザに提示可能な物体に関する情報である。コンテンツは、視覚的コンテンツ、音声コンテンツ、触覚的コンテンツ、またはそれらの組み合わせを含むことができる。ビジュアルコンテンツは、テキスト、グラフィック、シンボル、ビデオ、またはディスプレイデバイスでユーザに表示されるその他の情報を含むことができる。オーディオコンテンツは、歌、ボーカル、音楽、チャイム、またはスピーカを介してユーザに提供されるその他の種類のサウンドを含むことができる。触覚的コンテンツは、触覚インターフェースを介してユーザに提供される振動、パルス、またはその他のタイプのタッチベースの感覚を含むことができる。一般的なタイプのコンテンツは、これらに限定されるものではないが、広告、スポーツの試合結果や情報、道順、レストランのメニュー、クーポン、説明情報、緊急時の指示などを含むことができる。
「車両」という用語は、人や物(またはその双方)を輸送するために使用されるデバイスとして定義され、例としては、自動車、バス、航空機、ボート、電車を含む。以下の文章の大部分は自動車に焦点を当てているが、本明細書で説明する概念の適用は、そのような自動車に限定されるものではない。「プロセッサ」は、少なくとも何らかの回路または命令を実行することができる他のハードウェアを備えた構成要素として定義される。「ヘッドユニット」は、単一のユニットの一部またはユニットの集合の一部であるかどうかにかかわらず、その少なくとも一部が画像処理または画像処理から生じる現在のコンテンツ(またはその双方)に関連する計算を実行するように構成された回路を含む1つ以上の構成要素として定義される。「基準システム」は、ポイント、角度、位置、物体、または車両、車両のユーザ、もしくは車両に関連するいくつかの構成要素に対する物体の位置を判定するために使用される他のマーカーのシステムとして定義される。
「注目方向」という用語は、特定の瞬間におけるユーザの視線、または焦点または注目の主な点(または領域)として定義される。「注目位置」という用語は、ユーザの視線、ユーザの1つ以上の身体部分(またはその双方)の位置など、ユーザの注目方向を判定するために使用されるユーザに関連するデータとして定義される。「関心物体」または「対象物体」は、ユーザの注目方向と一致するか、さもなければ対象となる物体として定義される。「危険物体」は、車両やユーザに損傷(潜在的な損傷を含む)を与える物体として定義される。「情報標識」という用語は、車両の操作または道路もしくはその他の経路の使用に関連する情報を提示する物理的な媒体として定義される。
本明細書に記載の実施形態は、一般に、ユーザが物体を見ているか否か、物体に向かっているかを判定するものとして説明される。しかしながら、これらの実施形態は、ユーザが物体を見ている方法の複数の分類を利用または採用することができる。これらの分類は、ユーザが物体に向けている焦点の量または注目の量に基づくことができる。いくつかの実施形態では、分類は、注目レベルと呼ばれることがある。注目レベルは、いくつかの要因によって測定されることができる。1つの要因は、ユーザが物体を見ている時間量である。別の要因は、ユーザが物体を見ている回数である。さらに別の要因は、ビューの回数のタイミングと各ビューの異なる時間シーケンスである。1つの非限定的な第1の例では、ユーザが物体を見ている時間量に基づいて、以下の4つの注目レベルが存在することができる:垣間見る、一瞥する、注視する、凝視する。連続する各レベルは、ユーザの注目の増加に関連付けられる。ユーザが見ている方向は、ユーザの注目方向と呼ばれることがあり、注目方向を生じさせる、またはそうでなければ注目方向に寄与する態様は、注目位置と呼ばれることがある。
垣間見ることは、ユーザが一時停止せずに物体全体に目を向けたときである。一実施形態では、垣間見ることは、第1の閾値よりも短い時間、物体を見るように配置されるユーザの眼によって識別されることができる。逆に、一瞥すること、注視すること、および凝視することのそれぞれの場合、ユーザは、第1の閾値以上の時間、物体に対する自己の視認位置を維持する。したがって、一瞥することは、第1の閾値以上且つ第2の閾値未満の時間、物体を見るように配置されたユーザの眼によって識別されることができる。注視することは、第2の閾値以上且つ第3の閾値未満の時間、物体を見るように配置されたユーザの眼によって識別されることができる。そして、凝視することは、第3の閾値以上の時間、物体を見るように配置されたユーザの眼によって識別されることができる。様々な実施形態では、第1の閾値は、一瞥閾値と呼ばれ、第2の閾値は、注視閾値と呼ばれ、第3の閾値は、凝視閾値と呼ばれる。
別の実施形態では、注目レベルは、主に異なるビューまたは個別ビューの回数に基づく。運転者が物体を一瞥した後、異なる場所を見て、それらの長さに関係なく、物体においてより多くのビューを有する場合、このアクションのシーケンスは、物体における関心レベルが高いことを示すことができる。ユーザが物体を垣間見て、その最初の行動に続いて、道路や別の物体を一瞥することでその注視が互いに離れている場合、これらのイベントは、その物体に関してより高い注目レベルを示すことができる。ユーザが道路を見るために2回の一瞥を挟んで物体を3回注視する場合、このシーケンスは、ユーザが2回の一瞥と、一瞥間に別の方向の注視で物体を垣間見る場合よりも、物体に対してより高い注目レベルを示すことができる。したがって、ユーザによる物体の繰り返しビュー、および繰り返しビューのシーケンスを検出することは、物体におけるユーザによる関心レベルの指標とすることができる。
いくつかの実施形態では、ユーザが物体を見ている時間は、選択された期間中に物体を見ている複数回にわたって加算されてもよい。そして、所定の期間にわたるこれらの視認時間の累積合計は、閾値(または他の分類)のスペクトルと比較されることができ、合計が閾値を超える場合、合計は、対応する注目レベルの検出をもたらすことができる。例えば、ユーザが選択期間(例えば、2秒)内に物体を複数回一瞥し、全ての一瞥の合計時間が注視閾値を超えている場合、ユーザは、物体を注視していると判定される。同様に、全ての一瞥からの合計時間が所定の期間、凝視閾値を超えている場合、ユーザは、物体を凝視していると判定される。同様の時間の集合はまた、垣間見ると注視、および垣間見る、一瞥、および注視の異なる組み合わせに使用されることができる。例えば、ユーザが最初に物体を垣間見てから物体を注視した場合、および一瞥および注視からの合計時間が凝視閾値を超えている場合、ユーザは、物体を凝視していると判定される。しかしながら、合計時間がまだ凝視閾値を下回っている場合、ユーザは、物体を注視していると判定される。
前述は、ユーザが物体を見ている時間の観点からユーザの注目を説明しているが、時間の代わりに、またはそれに加えて、追加の要因も使用されてユーザの注目レベルを判定することもできる。いくつかの実施形態では、視認の異なる回数および組み合わせは、物体に対するより高い量のユーザの注目を示すことができる。例えば、ユーザが、一瞥閾値よりも長く且つ注視閾値未満の時間によって定義されるように、物体を一瞥した後、第2の一瞥を行った場合、2回の一瞥は、合計の視認時間に関係なく、ユーザが物体に高いレベルの関心を有していることを示すことができ、注視としてまとめて定義されることができる。同様に、垣間見た後に2回一瞥することは、凝視と同等とすることができる。したがって、垣間見ること、一瞥すること、および注視することの合計回数が異なると、物体を見ているユーザの注目レベルが増加することができる。様々な実施形態では、見ること、視認時間、および結果として生じる注目レベルの異なる組み合わせのデータベースが記憶されることができる。
追加の実施形態は、ユーザの注目レベルまたはユーザの視認方向を判定するために、ユーザによるジェスチャの分析を含むことができる。例えば、ユーザが物体を指差した場合、そのユーザの注目レベルは、ユーザが物体を見た時間に起因する注目レベルよりも高くなることができる。システムはまた、ポインティングジェスチャのみを通じてユーザの視認方向を判定することもでき、または、この情報を使用して、ユーザの焦点の最初の発見を確認または補足することもできる。別の例として、第1のユーザが物体を見て、第2のユーザと話し始め(これは、口の動きについて顔を分析する顔認識技術、または音声キャプチャおよび分析を通じて判定されることができる)、その後に第2のユーザが物体を見た場合、第1のユーザの注目レベルは、第1のユーザが物体を見た時間のみに起因する注目レベルよりも高くなることができる。したがって、ユーザが1つ以上の検出された動作を通じて物体に注目を集中させるほど、ユーザが物体に与えている注目が高くなる。
上記の例では、一般に、自動車内の各ユーザの注目レベルの判定について説明している。しかしながら、いくつかの実施形態では、自動車内の全てのユーザについて、集約された注目レベルが判定されてもよい。少なくとも1つのそのような例では、自動車内の各ユーザが同じ物体を見た合計時間が組み合わされて、一瞥閾値、注視閾値、または凝視閾値を超えているかどうかを判定する。別の例では、第1のユーザが物体を見て他のユーザと話し始め、他のユーザが応答せずに物体を見た場合、その物体の集約された注目レベルは、第1のユーザがかなり長い間(例えば、凝視閾値を超えて)物体を見ていたとしても、集合単位としてのユーザについて比較的低くなることができる(例えば、一瞥として識別される)。
物体は、車両の1つ以上のカメラによってキャプチャされた1つ以上の画像内の物理的なものとして定義される。物体は、人、動物、人工建造物、および自然の物品を含むことができる。一部の物体は、ユーザに情報を提示する物体、またはユーザが関心を持つ可能性のある情報に関連する物体である、関心物体と見なされることができる。関心物体の例は、これらに限定されるものではないが、看板、店舗看板、広告、ポスター、他のタイプのコンテンツ提示物体、またはランドマークを含む。一部の物体は、危険物体と見なされることができ、これは、現在、自動車またはその運転者または乗員の安全に脅威を与える、または脅威を与える可能性のある物体である。危険物体の例は、これらに限定されるものではないが、歩行者、道路内またはその隣の動物、道路で停止している車、くぼみ、または自動車またはその乗員の安全を脅かすその他の物体を含む。車道または運転者の指示もしくは要求に関する情報をユーザに提示する情報標識も物体とすることができる。情報標識の例は、これらに限定されるものではないが、制限速度、道路標識、迂回路標識、ナビゲーション標識、もしくは一時停止標識、または交通信号灯、信号機、またはその他の運転関連のエンブレムを含む。
図1は、本明細書に記載の実施形態にかかる、複数のカメラ(または他の撮像デバイス)を利用してユーザを監視し、コンテンツを提供するためにユーザが何を見ているかを判定するのに役立つ自動車環境のコンテキスト図を示している。
システム100は、ヘッドユニット104、内部カメラ110、外部カメラ112、および出力インターフェース116を有する自動車102を含む。様々な実施形態では、自動車102はまた、1つ以上のアクセサリ108a~108cも含み、出力インターフェース116は、自動車102のユーザにコンテンツを提供する。本明細書に記載される例示的な例では、自動車102のコンピューティングデバイスは、ヘッドユニット104であるが、他のタイプのコンピューティングデバイスが使用されてもよい。さらに、この説明は、主に自動車に言及しているが、同様の実施形態はまた、航空機、船舶、鉄道車両、および他の輸送手段にも採用されることができる。
ヘッドユニット104は、自動車102のユーザにコンテンツ、インタラクティブコントロール、ユーザインターフェース、または他の情報を提供するコンピューティングデバイスである。実例として、ヘッドユニット104は、ナビゲーションインターフェース、オーディオおよびラジオコントロール、環境コントロール、自動車の性能または保守情報、または他のタイプのコンテンツを提供することができる。
内部カメラ110は、自動車102に搭載または埋め込まれたカメラであり、自動車102のユーザの顔をキャプチャするために、自動車102の正面からなど自動車102の内部の画像をキャプチャするように構成される。このように、内部カメラ110は、自動車102内の1人以上のユーザの眼および頭の画像をキャプチャして、ユーザの注目および彼らがどこを見ているかを判定するように配置および配向される。前述のように、ユーザは、自動車102の運転者または自動車102の運転者以外の乗員とすることができる。したがって、内部カメラ110は、運転者、特定の乗員もしくはシート、またはそれらの組み合わせの画像をキャプチャするように配置されることができる。例えば、図2Bは、内部カメラ110からキャプチャされた画像の使用例を示している。一構成では、自動車102は、複数の内部カメラ110を装備することができる。
外部カメラ112は、自動車102に搭載または組み込まれたカメラであり、自動車の外の風景または領域の画像をキャプチャするように構成される。シーンまたは領域の全てまたは一部は、自動車102の1人以上のユーザが見ることができるが、それらのいくつかは、ユーザに見えない場合がある。このようにして、外部カメラ112は、各ユーザが見ているもの、見ている可能性があるもの、または見るべきものをキャプチャするような方法で配置および配向される。内部カメラ110のように、自動車は、複数の外部カメラ112を装備することができる。
一例として、外部カメラ112は、道路および道路上または道路脇に位置するあらゆる物体を含む自動車102の前方のシーンをキャプチャするように構成されることができる。本明細書に記載され、図2Aに示されるように、そのような物体は、看板210(または他の関心物体)、鹿218(または他の危険物体)、または速度標識217(または他の情報標識)を含むことができる。これらの物体は、画像認識および画像処理技術によって、外部カメラ112によってキャプチャされた画像内で識別されることができる。
内部カメラ110は、自動車102のユーザの対応する画像をキャプチャして、外部カメラ112によってキャプチャされた画像において識別された物体を見ているユーザが1人以上いるかどうかを判定する。ユーザが物体を見ている、または見るべきであるとシステムが判定した場合、システムは、その物体に関連付けられたコンテンツをユーザに提供する。このプロセスに関する追加情報は、以下に提供される。
看板(すなわち、関心物体)を見ているユーザに応答してユーザに提供されることができるコンテンツの一例は、看板に記載されたレストランへの道順またはそれに関する広告とすることができる。このように、ユーザは、看板にメッセージや情報を書き留めたり、記憶したりする必要がない。代わりに、看板メッセージの詳細は、分析され、テキストメッセージまたは電子メールなどを介して、出力インターフェース116、ヘッドユニット104、またはユーザのモバイルデバイス114を介して運転者に提供される。ユーザが鹿218を見ないことに応答してユーザに提供されることができるコンテンツの別の例は、物体が道路にあるという可聴警告とすることができる。ユーザが速度標識を見ていないことに応答してユーザに提供されることができるコンテンツのさらに別の例は、制限速度に変更があるという光または視覚的警告とすることができる。ユーザが危険物体または情報標識を見ている場合、システムは、ユーザに警報または警告を提供する必要がない場合がある。警報または警告は、聴覚的、視覚的、または触覚的な性質のもの、またはこれら3つのタイプの任意の組み合わせとすることができる。
別の構成では、ユーザが応答しない場合、自動車102の任意の数の安全機能が作動されることができる。例えば、自動車102の安全システム(図示せず)は、物体への衝突を防止するために、自動車102のブレーキを自動的にかけたり、ステアリングを指令したりすることができる。
したがって、本明細書に記載の実施形態は、外部カメラ112および内部カメラ110からキャプチャされた画像を分析して、ユーザが関心物体、危険物体、または情報標識を含む物体を見ているかどうかを判定するために利用されることができる。
様々な実施形態では、ヘッドユニット104は、モバイルデバイス114またはリモートサーバ124などの他のコンピューティングデバイスと通信するように構成されることができる。例えば、ヘッドユニット104は、通信ネットワーク122を介してリモートサーバ124から、ヘッドユニット104が出力インターフェース116を介して出力することができるコンテンツを受信することができる。そのようなコンテンツは、本明細書で説明するように、ユーザが見ていると特定される物体に関連付けられることができる。
様々な実施形態では、ヘッドユニット104または他の何らかのコンピュータなどの車載コンピュータは、内部カメラ110および外部カメラ112を介してキャプチャされた画像の処理を実行する。少なくとも1つの実施形態では、画像処理は、自動車102上の別のコンピューティングデバイスによって、またはモバイルデバイス114またはリモートサーバ124などの自動車102から分離されたリモートコンピューティングデバイスによって実行されることができる。同様に、いくつかの実施形態では、ヘッドユニット104などの車載コンピュータは、本明細書に記載のコンテンツ選択を実行する。他の実施形態では、モバイルデバイス114、リモートサーバ124、またはいくつかの他のコンピューティングデバイスは、コンテンツ選択を実行することができる。したがって、画像処理およびコンテンツ選択に関して本明細書で説明する機能は、ヘッドユニット104、リモートサーバ124、モバイルデバイス114、または他のコンピューティングデバイスまたはそれらの何らかの組み合わせによって実行されることができる。
例えば、ヘッドユニット104などの車載コンピュータは、画像を分析し、ユーザがどの物体を見ているかを判定し、その物体に関連するコンテンツの要求をリモートサーバ124に送信することができる。それに応じて、リモートサーバ124は、コンテンツをヘッドユニット104に返すことができる。次に、ヘッドユニット104は、本明細書で説明するように、出力インターフェース116を介してコンテンツを出力することができる。デジタル画像処理の効率を最大化するために、車載コンピュータ(ヘッドユニット104など)は、1つ以上のグラフィック処理ユニット(「GPU」)を含むことができる。
別の例として、ヘッドユニット104などの車載コンピュータは、コンテンツの要求とともに画像をモバイルデバイス114またはリモートサーバ124に送信することができる。それに応じて、モバイルデバイス114またはリモートサーバ124は、画像を分析し、ユーザが見ている物体に基づいてコンテンツを選択することができる。次に、モバイルデバイス114またはリモートサーバ124は、出力インターフェース116を介して出力するために、選択されたコンテンツをヘッドユニット104に送信することができる。自動車102の一部であるか遠隔であるかにかかわらず、他のデバイスまたはシステムは、画像を処理し、画像内の物体を識別し、識別された物体に関連するコンテンツを検索または生成するように構成されることができる。
一構成では、このアクティビティに関与するデバイスまたはシステムは、物体の識別を支援するために、1つ以上の機械学習(「ML」)モデル(深層学習モデルを含むことができる)によってプログラムされることができる。例えば、ヘッドユニット104またはヘッドユニット104と通信可能に結合された自動車102の別の車載コンピュータに、これらのMLモデルの1つ以上がロードされることができる。さらに、クラウドベースのソリューションの一部であるリモートサーバ124または他のシステムには、自動車102および他の車両からの画像も処理することができる1つ以上のMLモデルがロードされることができる。リモートサーバ124(または他のシステム)のMLモデルの改善は、自動車102のヘッドユニット104または車載コンピュータ上の任意のMLモデルに供給され、これらのローカルモデルがそのようなリモート処理の恩恵を受けることを可能にする。MLモデルのこれらの機能強化は、他の車両にローカルに記憶されたMLモデルにも提供されることができる。
出力インターフェース116は、自動車102のユーザにコンテンツを出力するように構成されたインターフェースである。出力インターフェース116は、ディスプレイデバイスなどの視覚インターフェース、スピーカなどの音声出力インターフェース、または触覚出力デバイスなどの触覚インターフェース、またはそれらの組み合わせを含むことができる。したがって、出力インターフェース116は、視覚、音声、または触覚的コンテンツ、またはそれらの何らかの組み合わせを出力するように構成される。いくつかの実施形態では、出力インターフェース116またはその一部は、ヘッドユニット104から分離されるか、またはその一部であってもよい。例えば、ヘッドユニット104は、出力インターフェース116の1つの構成要素として内蔵ディスプレイデバイスを含み、出力インターフェース116の別の構成要素としてヘッドユニット104の外部にある別個のスピーカを含むことができる。
少なくとも1つの実施形態では、モバイルデバイス114は、ヘッドユニット104とリモートサーバ124との間の中間デバイスとして機能する。このようにして、モバイルデバイス114は、画像またはコンテンツ要求をヘッドユニット104からリモートサーバ124(または他のシステム)に転送して処理するか、または選択されたコンテンツをリモートサーバ124からヘッドユニット104に転送することができる。いくつかの他の実施形態では、モバイルデバイス114は、選択されたコンテンツをモバイルデバイス114のディスプレイデバイス上でユーザに表示するか、またはヘッドユニット104を通して提示するためにヘッドユニット104にそれを投影することができる。別のオプションとして、ヘッドユニット104は、長距離通信を交換するためのデータ通信モジュール(「DCM」)を含むことができる。この場合、リモートサーバ124(または他のシステム)は、モバイルデバイス114のような中間デバイスの支援なしに、関連コンテンツをヘッドユニット104に送信することができる。
いくつかの実施形態では、リモートサーバ124、ヘッドユニット104、およびモバイルデバイス114は、通信ネットワーク122を介して互いに通信する。通信ネットワーク122は、1つ以上のデバイスから1つ以上の他のデバイスにデータを送信するために、様々なコンピューティングデバイスを結合するように構成される。通信ネットワーク122は、セルラーネットワーク、メッシュネットワークなどの様々な形態の通信技術およびトポロジーを使用して採用されることができる様々な無線ネットワークを含む。モバイルデバイス通信ネットワーク120、通信ネットワーク122、およびアクセサリ通信ネットワーク106は、図示されるように、別個の通信ネットワークとすることができるか、またはそれらのいくつかは、同じ通信ネットワークの一部であるか、またはネットワークコンポーネントを共有することができる。
様々な実施形態では、ヘッドユニット104は、モバイルデバイス通信ネットワーク120を介してモバイルデバイス114と通信する。モバイルデバイス通信ネットワーク120は、モバイルデバイス114をヘッドユニット104と結合して、モバイルデバイス114とヘッドユニット104との間でコンテンツ/データを送信するように構成される。デバイス間で通信される情報は、現在のアクセサリのステータスまたはデータ、アクセサリデータへのアクセス要求、アクセサリの制御または変更の要求、ビデオデータ、音声データ、画像データ、テキストデータ、または他のタイプのコンテンツ、データ、または情報を含むことができる。通信ネットワーク120は、モバイルデバイス114とヘッドユニット104との間の通信を可能にするために、古典的なブルートゥース(登録商標)またはブルートゥース低エネルギープロトコルを利用するパーソナルエリアネットワーク、またはIR光ネットワークなどの様々な短距離無線通信ネットワークを含むことができる。
リモートサーバ124は、1つ以上のサーバまたは他のクラウドリソースなどのコンピューティングデバイスの任意の組み合わせであり、自動車102から離れており、コンテンツまたは他の情報をヘッドユニット104またはモバイルデバイス114に提供することができる。リモートサーバ124は、単一のデバイスとして示されているが、実施形態はそれに限定されるものではない。むしろ、リモートサーバ124は、1つ以上の機能を実行する1つ以上のコンピュータデバイスとすることができる。
モバイルデバイス114は、自動車102またはリモートサーバ124のヘッドユニット104と通信可能な任意のデバイスを含む。モバイルデバイス114は、ヘッドユニット104またはリモートサーバ124との間で情報、コンテンツ、またはコントロールを送受信するように構成および構造化される。モバイルデバイス114の例は、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、ウェアラブルコンピューティングデバイス、他のスマートデバイス、または他のハンドヘルドコンピューティングデバイスを含む。
いくつかの実施形態では、ヘッドユニット104は、1つ以上のアクセサリ108a~108cの情報にアクセスまたは受信するか、またはその使用を制御するように構成されることができる。アクセサリ108a~108cは、ユーザが制御可能な任意の自動車ユーティリティまたはデバイスを含むことができる。これらのアクセサリの例は、調整可能なシート、サンルーフ、サイドミラー、バックミラー、エアコン、パワーウィンドウ、または自動車102の他の制御可能な機能を含む。アクセサリ108a~108cはまた、情報またはデータをユーザに提供する事実上あらゆる自動車ユーティリティまたはデバイスを含むことができる。これらのアクセサリの例は、これらに限定されるものではないが、速度計、走行距離計、油圧計、温度計、または自動車のユーザに情報を提供する他の自動車センサを含む。アクセサリ108a~108cは、さらに、ユーザと双方向の対話を行うヘッドユニット104上で実行されるアプリケーションを含むことができる。これらのアクセサリの例は、これらに限定されるものではないが、ナビゲーション、オーディオおよびラジオコントロール、テレビまたは音楽アプリケーション、環境コントロールアプリケーション、自動車の性能または保守アプリケーション、またはその他のアプリケーションを含む。一部のアクセサリは、データのみを出力することができ、一部のアクセサリは、アクセサリを操作するためのコントロールのみを受信することができ、一部のアクセサリは、データの入出力を行うことができることに留意されたい。例えば、速度計は、自動車の現在の速度のみを出力することができる。パワーウィンドウは、ウィンドウを上下に移動するためのコントロールのみを受信することができるが、ヘッドユニットに情報を返すことはできない。ナビゲーションシステムは、目的地に関するコントロールを受信し、目的地までの提案された旅行ルートを返すこともできる。これらの例は、網羅的ではなく、他のタイプのアクセサリも使用されることができることにさらに留意されたい。
ヘッドユニット104は、アクセサリ通信ネットワーク106を介してアクセサリ108a~108cと通信することができる。アクセサリ通信ネットワーク106は、アクセサリ108a~108cをヘッドユニット104と結合して、アクセサリ108a~108cとヘッドユニット104との間でコンテンツ/データを送信するように構成される。デバイス間で通信される情報は、現在のアクセサリの状態またはデータ、アクセサリ制御データ、ビデオデータ、音声データ、画像データ、テキストデータ、または他のタイプのコンテンツ、データ、または情報を含むことができる。アクセサリ通信ネットワーク106は、1つ以上の物理ネットワーク、1つ以上の無線通信ネットワーク、1つ以上のアプリケーションプログラムインターフェース、または、1つのアクセサリから別のアクセサリへ、アクセサリからヘッドユニット104へ、またはヘッドユニットからアクセサリへデータを送信することができる1つ以上の他のネットワーク、または、ヘッドユニット104と通信するアクセサリのタイプに応じてそれらのいくつかの組み合わせを含むことができる。例えば、アクセサリ通信ネットワーク106は、有線コントローラエリアネットワーク、ブルートゥース低エネルギープロトコルを利用するパーソナルエリアネットワークなどの短距離無線通信ネットワーク、または任意の他のタイプのネットワークなどの車体通信ネットワークを含むことができる。
いくつかの実施形態では、アクセサリデータは、ユーザが注意散漫であるか、または危険物体などの物体の存在に気付いていないかどうかを判定するのに役立つことができる。例えば、外部カメラ112は、多くの場合、道路上の他の自動車の画像をキャプチャすることができる。別の自動車が自動車102と同じ方向および速度で走行している場合、それは自動車102に脅威を与えず、危険物体として識別されなくてもよい。しかしながら、他の自動車が自動車102の前方で急ブレーキをかけた場合、その自動車は、自動車102にとって危険物体になることができる。また、運転者がブレーキをかけている自動車を見ていなかったり、その後にブレーキをかけていなかったりする場合、ユーザに警告が提供されることができる。これらの例では、自動車102の速度計およびブレーキ状態(アクセサリ108a~108cに含まれる)が利用されて、自動車102の運転者が自動車のブレーキに反応したかどうかを判定する。このアクセサリデータは、単独で、またはユーザの画像分析と組み合わせて、MLモデルによって分析されたデータの一部を形成するなど、システムの精度をさらに向上させるために使用されることができる。
いくつかの他の実施形態では、ヘッドユニット104は、モバイルデバイス通信ネットワーク120を介してモバイルデバイス114と通信し、モバイルデバイス114とアクセサリ108a~108cとの間の通信を容易にする中間デバイスとして機能することができる。ヘッドユニット104は、モバイルデバイス114とアクセサリ108a~108cとの間のゲートウェイとして機能し、アクセサリ108a~108cの制御およびアクセサリデータの転送を許可または制限するための認証および許可を提供することができる。このようにして、ユーザは、モバイルデバイス114を介してアクセサリ108a~108cからの情報にアクセスしたり、制御したりすることができる。
図2A~図2Cは、本明細書に記載の実施形態にかかる、自動車の内部および外部の様々なビューの使用事例を示している。図2Aは、自動車102の運転者の視点からなど、自動車102のほぼ前方のシーン204を見ている自動車102の内部からの例200Aを示している。自動車102は、フロントガラス206、バックミラー208、サイドミラー212aおよび212b、ダッシュボード214、ヘッドユニット104、内部カメラ110、および外部カメラ112を含む。
この例では、内部カメラ110は、自動車102の客室の画像をキャプチャするために自動車102上に配置されている。したがって、自動車102のユーザは、通常、これらの画像の一部を形成する。また、この例では、外部カメラ112が自動車102に配置され、外部環境の画像をキャプチャする。ここで、外部環境は、自動車102のユーザに少なくとも部分的に見えるシーン204を含むことができるが、ユーザの視覚的範囲を超えた他の領域は、画像の主題とすることができる。一構成では、内部カメラ110は、自動車102のダッシュボード214に組み込まれ、外部カメラ112は、フロントガラス206に取り付けられる。実施形態は、内部カメラ110および外部カメラ112のこれらの位置に限定されるものではない。むしろ、内部カメラ110および外部カメラ112は、自動車102の他の態様に配置または搭載されるか、またはその中に組み込まれることができる。例えば、内部カメラ110は、バックミラー208やヘッドユニット104に内蔵され、外部カメラ112は、自動車102のバックミラー208やフロントバンパー(図示せず)に内蔵されることができる。
図示されていないが、いくつかの実施形態では、自動車102は、異なる角度から、または他のユーザを含むユーザの画像をキャプチャするために、複数の内部カメラを含むことができる。同様に、いくつかの実施形態では、自動車102は、自動車の外部の異なる領域の画像をキャプチャするために複数の外部カメラを含むことができる。1つの内部カメラおよび1つの外部カメラからの画像を較正および処理するための本明細書で説明する機能は、複数の内部または外部カメラに対して同様に実行されることができる。
図示の例では、外部カメラ112によってキャプチャされたシーン204は、3つの視認可能領域シーン204a~204cを含み、204aは、フロントガラス206を通して視認可能な領域であり、シーン204bおよび204cは、それぞれ、サイドミラー212aおよび212bに隣接するサイドウィンドウを通して視認可能な領域である。外部カメラ112は、自動車102の実質的に前方のシーン204をキャプチャするように配置および構成されているが、外部カメラ112は、自動車102の左または右、または上、下、または後方までユーザが視認可能な領域をキャプチャするように配置および構成されることができる。
自動車102が運転されているとき、内部カメラ110は、自動車102内のユーザの画像をキャプチャする一方で、外部カメラ112は、シーン204の対応する画像をキャプチャしている。内部カメラ110および外部カメラ112の動作は同期していてもよく、すなわち、カメラは、同じフレームレートで動作し、カメラによって生成された画像は、時間的に一致または整列される。このステップを通じて、外部カメラ112からの写真に対する内部カメラ110によって生成された写真の比較分析の精度を高めることができる。オプションとして、内部カメラ110および外部カメラ112の双方によって生成された画像は、下流処理中または下流処理のために同期性を維持するように、タイムスタンプを付けられるか、または時系列に配列されてもよい。
一実施形態では、内部カメラ110および外部カメラ112のフレームレートは、毎秒30フレームなどの標準速度に設定されることができる。あるいは、カメラのフレームレートは、調整可能とすることができる。フレームレートは、状況やイベントによって変更されることができる。例えば、フレームレートは、自動車が遅い速度で運転されている場合はレートを下げるなど、自動車102の速度に基づいて調整されてもよい。自動車102がスピードアップすると、それに応じてフレームレートを上げることができる。別の例として、自動車102の近くの交通量または自動車が動作している設定の密度を考慮して、フレームレートが調整されてもよい。具体的には、自動車102が遠く離れた、往来が少ないエリアで運転されている場合、物体に遭遇する可能性が低下するため、フレームレートは低減されてもよい。逆に、都市部では、フレームレートを上げることができる。フレームレートを下げることは、物体を識別するために分析される画像の数を減らすことができる。
一構成では、内部カメラ110および外部カメラ112は、双方とも、人間の眼に見える電磁スペクトルの部分である可視スペクトルで動作するように構成されることができる。さらに、カメラの一方または双方は、人間には見えない電磁スペクトルの残りの範囲である非可視スペクトルで動作するように構成されることができる。この特徴は、いずれかのカメラが夜間または暗い場所で動作することを可能にすることができる。カメラはまた、赤緑青(「RGB」)カメラとすることができ、必要に応じて、近赤外線などの他のスペクトルバンドからの光がイメージセンサ回路に到達することができるように、1つ以上のバンドパスフィルタを装備することができる。
内部カメラ110および外部カメラ112は、かなりの量のデータを生成することができるため、それを制御するために1つ以上の特徴が実装されることができる。例えば、画像内の物体の一部は、画像が分析される前にフィルタリングされることができ、このプロセスは、背景のクラッタを低減し、送信および処理されるデータの量を削減することができる。この前処理ステップは、物体を識別する必要なく行うことができる。具体例として、カメラによって生成された現在のフレームが参照フレームとして設定されることができ、以前に生成されたフレームが参照フレームから差し引かれて、重要でない物体に関連付けられたデータを削除することができる。重要でない物体は、背景が雑然としていて、ユーザまたは自動車102に危険、懸念、または関心を示さない物体である。
以下の例を考える。自動車102の内部は、いくつかの重要でない物体を含むことがある。これらの物体は、通常、インテリアに関して静止しており、例としては、シート、ダッシュボード、ハンドル、ギアシフタ、および客室内の他の固定構造を含む。そのような物体に関連するデータを画像から削除すると、それらの分析に必要な時間が短縮されるが、物体は、ユーザの視線の判定に寄与しないため、プロセスの全体的な有効性を損なうことはない。場合によっては、同じ原理が外部カメラ112に適用されることができる。例えば、一部の外部物体は、カメラ112の視野内にある場合があるが、ボンネット(またはエンジンカバー)、サイドミラー212aおよび212b、またはバンパーのような自動車102の一部であるため、重要な物体ではない。
前述のように、自動車102は、複数の内部カメラ110および外部カメラ112を含むことができる。内部カメラ110または外部カメラ112の1つ以上によって生成された画像が、一定期間など、重要でない物体のみを明らかにする場合、これらの内部カメラ110または外部カメラ112は、オフにされることができる(または、それらのフレームレートは実質的にスロットルされることができる)か、またはそれらの画像は、それらの処理(または前処理)が行われる前にダンプされることができる。一例として、この手順は、自動車102の空いている助手席に焦点を合わせた内部カメラ110、または自動車102が停止している、または駐車ギアに置かれているときの外部カメラ112に適用されることができる。カメラの非アクティブ化または画像の破棄は、重要でない物体(ユーザなど)が出現したかどうかを判定するために周期的に行われることができる。それらが有する場合、非アクティブ化または画像ダンプは、停止されてもよく、そうでなければ、影響を受けるカメラは、次のサイクルまでこれらの状態に戻る場合がある。上記の例と同様に、この技術はまた、分析されるデータのレベルを下げることができる。
さらに、特定の条件またはイベントに基づいて内部カメラ110または外部カメラ112の解像度を選択的に調整することは、画像を分析するプロセス全体の効率を向上させることができる。例えば、フレームレートのように、自動車102の速度または自動車が動作する設定の特性が変化する場合、内部カメラ110または外部カメラ112の解像度は、それに応じて変更されることができる。特に、カメラの解像度は、低速または田舎の設定では低減され、高速または人口密度の高い場所では増加されることができる。さらに、カメラが助手席の空席など、重要でない物体のみを含む画像をキャプチャしている場合は、解像度が低減されることができる。
外部カメラ112からの画像は、道路216の側面にある看板210などのユーザにとっての関心物体、道路216に立っている鹿218などの危険物体、または速度制限標識217などの情報標識を含む物体について分析される。内部カメラ110からの画像は、ユーザがこれらの物体のいずれかを見ているかどうかを判定するために分析される。内部カメラ110からキャプチャされる室内画像の例が図2Bに示されている。ヘッドユニット104、車載コンピュータ、リモートサーバ124、または別のシステム、またはそれらの任意の組み合わせは、画像の分析を担当することができる。
以下により詳細に説明するように、ユーザの注目位置が使用されて、内部カメラ110によってキャプチャされたユーザの注目方向を判定することができる。判定されると、注目方向は、外部カメラ112によってキャプチャされたシーン204と比較されることができる。このプロセスの一部として、ユーザの注目は、前述の注目レベルの1つに分類されることができ、これは、ユーザの注目方向がシーン204内の物体に焦点を合わされていることを示すことができる。
例として、比較は、ユーザが看板210を見ていることを示すことができる。それに応じて、ヘッドユニット104(またはいくつかの他の構成要素)は、広告、道順、クーポン、営業時間など、看板210に関連するコンテンツを表示することができる。ヘッドユニット104は、それ自体にこのコンテンツを生成することができるか、またはそのための要求をサーバ124(または他のシステム)に送信することができる。他のいくつかの実施形態では、内部カメラ110および外部カメラ112によってキャプチャされた画像が分析されて、ユーザが自動車102に対する危険を見逃す可能性のある方向に注目を払っているか、見ているかを判定することができる。例えば、ユーザが看板210を見ているが、道路216に鹿218が立っている場合、ヘッドユニット104は、音声トーン、ハンドルの振動、またはダッシュボード214上の可視光など、鹿218に関する警告をユーザに提示することができる。自動車102は、自動的にブレーキをかける、または自動車102を鹿218から遠ざけるように操縦するなどのさらなる行動をとることができる。同様に、内部カメラ110および外部カメラ112によってキャプチャされた画像が分析されて、ユーザが注目を払っているか、または情報標識を見落とす可能性のある方向に沿って見ているかを判定することができる。例えば、ユーザが看板210を見ているが、速度制限標識217を見ていない場合、ヘッドユニット104は、速度制限標識217に関して、速度制限標識217についての速度の可聴音声または視覚的表示などの警告をユーザに提示することができる。
図2Bは、自動車102の実質的に前方のシーン204を見ている自動車102の内部のユーザ220をキャプチャした画像の例200Bを示している。本明細書で説明するように、ユーザ220の頭222と眼224の位置は、ユーザが図2Aに示すバックミラー208、看板210、鹿218、または速度制限標識217を見ているかどうかを判定するために画像内で分析される。以下に説明するように、ユーザ220の注目位置を判定するための分析の一部として、様々な技術を採用することができる。
図2Cは、図2Aおよび図2Bに示される自動車102の上方から見た図の例200Cを示している。図2Cは、図2Aおよび図2Bと組み合わせて説明される。上述したように、外部カメラ112は、ユーザ220に視認可能な領域を含むシーン204をキャプチャし、内部カメラ112は、ユーザ220の画像をキャプチャして、ユーザ220がどこを見ているかを判定する。ユーザ220の注目位置を判定するための分析の一部として、1つ以上の技術を採用することができる。これらの技術のいくつかは、頭222の位置を判定し、ユーザ220の眼224を追跡するためのプロセスを含むことができる。
例えば、内部カメラ110からの画像は、瞳孔の中心と角膜からの反射との間のベクトルを判定するために使用されることができる、眼224の瞳孔およびそれらの角膜からの光の反射に関連するデータを含むことができる。これらのベクトルが使用されて、ユーザ220の視線を計算することができる。プロセスを支援するために、内部カメラ110または他の光源は、ユーザ220の眼224に向かって不可視光を投影することができる。眼224を追跡するための他の技術が使用されてもよい。
さらに、内部カメラ110からの画像のデータに基づいて、ユーザ220の頭222の位置または姿勢が推定されることができる。例えば、ユーザ220の頭222を表す身体の部分検出は、人間の皮膚または形態学的推定(または双方)に関連するピクセルの識別などを通じて、データから生成されることができる。頭222が検出されると、顔のランドマークを識別し、人間の顔の幾何学的対称性に依存する幾何学的方法など、様々な方法が使用されてその向きを判定することができる。このプロセスは、首や胴体など、他の体の部分にも拡張することができる。これらの位置判定のいずれかに、精度の指標として信頼係数が割り当てられることもできる。さらに、頭222を検出し、その向きを推定するための他の多くの技術がここに適用されることができる。
一構成では、眼224の位置および頭222の姿勢を判定することによって生成された情報がマージされることができ、これは、ユーザ220の注目位置のより正確な推定を生成することができる。しかしながら、この推定にはいずれか一方しかその判定に使用されることができないため、双方の技術は必要ない。注目位置から、特定の点や領域に基づいて、ユーザの注目方向が推定されることができる。例えば、システムは、ユーザの視線または焦点領域の方向を推定することができ、この推定値を外部環境に関連する画像データと関連付けて、ユーザが関心物体またはユーザが気付いていない物体を識別することができる。注目方向を計算するために、ユーザの注目位置に関連する多くのタイプのデータが考慮されることができる。しかしながら、オプションとして、このデータの一部には、注目方向を判定する一環として、より多くの(またはより少ない)重みが与えられてもよい。一例として、ユーザの胴体のような別の身体部分の向きと比較して、より重い重みを眼224の位置に適用することができる。別の例として、ユーザの注目位置を形成する推定値に付随された信頼係数は、信頼係数が低い要素をあまり重視しないなど、注目方向の分析に影響を与えることができる。
いくつかの実施形態では、頭222および眼224の位置の判定を支援するために、1つ以上の基準ポイントまたは角度を含むことができる基準システムが確立されることができる。例えば、較正中に、ユーザ220の顔の中心に頂点を確立し、様々な光線を定義して、ユーザ220に関連付けられた位置を判定するためのベースとして使用されることができる参照角度を設定することができる。場合によっては、サイドミラー212aおよびサイドミラー212bに対してそれぞれ光線230および光線232が定義されることができる。別の例として、内部カメラ110および外部カメラ112にそれぞれ光線234および光線236が設定されることができる。自動車102の形状は既知であるため、この目的のために他の多くの基準ポイントまたは角度が使用されることができる。
物体の位置を判定するために、自動車102の外部に対して基準システムが定義されることもできる。具体的には、自動車102の正面外部に対して、任意の数の基準ポイントまたは角度が設定されることができる。一例として、外部カメラ112または自動車102の他の構成要素に頂点が設定されることができ、外部カメラ112に基づく角度が定義されることができる。この角度は、ユーザ220が例えば運転席の視点から物体を見ることができる可能性に基づいて測定される反射角度とすることができる。この測定は、この座席に座ったときにユーザ220が自分の頭222を左または右に回転させる能力も考慮に入れることができる。もちろん、他の有利な点が考慮されてもよい。(このソリューションは、自動車102の外部の他の部分についても繰り返される。)この基準システムが確立されると、それは、ユーザ220の頭222、眼224、または他の部品の位置を判定するために形成された基準システムにマッピングされることができ、その結果は、将来の検索のためにテーブルまたはデータベースの一部とすることができる。したがって、内部カメラ110および外部カメラ112からの画像データを比較するとき、このマッピングが使用されて、ユーザ220の注目方向をシーン204の識別された物体と相関させることができる。
上記の例は、主に自動車102の運転席に座っているユーザに焦点を当てている。しかしながら、特に、1つ以上の乗員用シートを含む、自動車102の他のセクションに対して基準システムが確立されることができる。例えば、ユーザは、助手席に座っている可能性があり、頭と眼の向きの正確な推定を保証するために、この座席に対して基準システムが定義されることができる。必要に応じて、自動車102の外部に関する新たな基準システムが形成されるか、既存のシステムに調整を加えることができる。
別の構成では、ユーザの注目位置および注目方向のそれぞれ、および外部の一部である物体の相対位置を判定するために、単一の基準システムが生成されることができる。このシステムを形成する基準ポイントまたは角度は、内部カメラ110、外部カメラ112、サイドミラー212aおよび212b、またはユーザなど、前述の1つ以上のものに関連付けられることができる。
上に示したように、形態学的検出および分析に依存する技術は、自動車102の車内の分析に値する物体が人間に限定される可能性があるため、内部カメラ110によって生成された画像を分析するために有用とすることができる。対照的に、シーン204内の物体の数とタイプの固有の予測不可能性を考えると、より包括的なソリューションが必要になる場合がある。一実施形態では、ヘッドユニット104または車載コンピュータは、自動車102の外部にある1つ以上の物体を識別するために物体認識アルゴリズムによってプログラムされることができる。これらのアルゴリズムの例は、深層学習モデルを含む1つ以上のMLモデルを含む。
画像内の物体が識別されると、それらにラベルを付け、特定の精度の確率を示す信頼係数を物体に割り当てることができる。少なくともその特定の画像については、特定の閾値未満の信頼係数でタグ付けされた物体は破棄されることができる。他の場合では、信頼係数が閾値を下回る物体、または識別できない物体は、ユーザの注目方向との相関の一部と見なされることができる。例えば、システムは、道路の真ん中にある物体を正確に識別できない場合があり、危険な状態を示す場合がある。そのため、システムは、ユーザがそれを認識していることを確認するために、未確認の物体を破棄することを避けることができる。(信頼係数が閾値を下回る場合、物体は、未確認物体としてラベル付けされる。)関連する基準システムが使用されて、1つ以上の物体(識別済みまたは未確認)の相対位置を推定することができる。
前述のように、物体認識はまた、リモートサーバ124のような自動車102から離れたシステムによって実行されることもできる。経時的に、これらのモデルの精度が向上し、それらの更新がリモートシステムから受信されることができる。さらに、画像において識別された物体は、ヘッドユニット104または別の車載コンピュータなどによってローカルでラベル付けされ、それらのトレーニングを支援するために、このデータが1つ以上のクラウドベースのMLモデル(ディープラーニングモデルを含む)に提供される。同様に構成された他の車両も同じ手順を実行し、モデルの大量のデータを確保することができる。
物体を特定するプロセスの一部として、物体認識モデルは、物体のコンテキスト、または物体を他の類似の物体から区別するいくつかの他の特徴を判定することができる。例えば、モデルは、物体が看板であると判定し、看板によって提示される広告に関連するエンティティをさらに識別することができる。エンティティは、小売店、レストランチェーン、またはその他の商業施設とすることができる。このステップを支援するために、モデルは、様々な文字または記号を認識し、それらをそれらに関連付けられた施設と照合するように構成されることができる。これらの文字または記号の例は、ブランド名または商標記号の文字を含む。この粒度での認識により、車載コンピュータは、特定のビジネスまたは組織に関連するコンテンツを生成または要求することができる。このデータは、建物や他の車両、その他の商業看板の表面にある広告やその他のビジネス関連情報など、他のソースから収集されることができる。
当該技術分野で知られているように、一部の自動車102には、自動運転システムが装備されている。これらのシステムは、単に警告を発して車の運転に一時的に介入するものから、人間の制御をまったく必要としないものまで様々とすることができる。自動運転システムは、通常、様々な技術に依拠して、歩行者、一時停止標識、その他の車など、車両の制御に関連する路面やその他のものを検出するためのセンサデータを分析する。この検出は、自動車の進路内に直接ある物体、または交通管制に関連する物体に限定されているが、ここで提示されるシステムは、このデータにアクセスすることにより、計算要件を削減することができる。例えば、現在の配置は、前方の道路、交通管制の標識または信号、および道路内または近くの物体を検出するために自動運転システムに依拠することができ、必要に応じてそのような物体を具体的に識別し、さらに分析するためにそれらの相対位置を判定することによってこの検出を補足することができる。
一構成では、画像を比較するステップは、時間T1で内部カメラ110によってキャプチャされた画像からのユーザの注目方向に関するデータを、同じく外部カメラ112によって時間T1でキャプチャされた画像からの識別された物体に関するデータに対してマッピングすることを含むことができる。同時に生成された画像を使用すると、GPUによって生成される結果の精度を向上させることができるが、ある程度の時間的オフセットが許容される場合があるため、そのような同期性は必須ではない。互いに比較される内部カメラ110および外部カメラ112からの画像は、対応する画像と呼ばれることがある。この手順はまた、前述のように、内部および外部基準システム(または単一の基準システム)を相関させた結果を含むテーブルまたはデータベースの参照も含むことができる。
例として、GPUは、対応するT1画像の物体のマッチングスコアを生成することができる。マッチングスコアは、ユーザの注目方向が物体と一致する確率の指標として機能することができる。一実施形態では、マッチングスコアが最も高い物体が、対応するT1画像に対するユーザの焦点として選択されることができる。別のオプションとして、マッチングスコアが最も高い2つ以上の物体が、対応するT1画像に対するユーザの注目のターゲット(または潜在的なターゲット)として識別されることができる。ユーザの注目の焦点であると判定された物体は、関心物体と呼ばれることがある。
別の例では、マッチングスコアに閾値が設定されることができ、対応するT1画像に関連する物体に対して生成されたマッチングスコアがこの閾値を下回る場合、物体のいずれもユーザの焦点として選択されなくてもよい。そのようなイベントは、ユーザが単に前方の道路を見ていて、そのエリアに物体がないか、少なくともユーザの注目の対象ではないことを示すことができる。
この手順は、特定の時間またはいくつかの対応する画像にわたって繰り返されることができる。例えば、GPUは、内部カメラ110および外部カメラ112からの対応する画像のいくつかのセットについてマッチングスコアを生成し、この間隔にわたって検出された物体の全て(または少なくともいくつか)の平均マッチングスコアを生成することができる。(この間隔は、時間または対応する画像のいくつかのセットに基づくことができる。)これらの物体は、物体が間隔の後半にカメラ112の視界から外れた場合など、この間隔の外部カメラ112からの画像の一部にのみ存在する物体を含むことができる。
このように、前述の分類が適用されることができる。例えば、間隔は、最大の注目レベルの閾値である凝視閾値に実質的に(または正確に)一致するように設定されることができる。この構成は、GPUが注目レベル(垣間見ること、一瞥すること、注視すること、凝視すること)の存在を識別し、平均マッチングスコアの判定の一部としてそれらを適用することを可能にすることができる。例えば、ある間隔にわたって1つ以上の注視の焦点である物体の平均マッチングスコアは、ユーザ側のこの高い関心を反映するために増加されることができる。
上記のように、自動車102は、1つ以上の関心物体に関連するコンテンツを検索することができる。特に、最も高いマッチングスコアまたは平均マッチングスコアを有する1つ以上の識別された物体に関連するコンテンツが、ユーザに提示されることができる。一例として、分析は、ユーザがレストランの看板広告に注目しており、広告されたビジネスのブランド名または商標が認識されていることを判定することができる。これに応答して、ヘッドユニット104は、レストランのメニューを選択するためのオプション、そのレストランの連絡先情報、またはレストランへのナビゲーションルートを開始するための選択を提示することができる。
別の例として、物体が同一またはほぼ同一の平均マッチングスコアを有する場合など、複数の物体のどの物体がユーザの関心を引いているかをシステムが確信することができない場合、ヘッドユニット104は、双方に関連するコンテンツを検索し、ユーザがそれらの1つ以上に関連するコンテンツを選択するためのオプションを提示することができる。別の実施形態では、1つ以上の識別された物体に関連するコンテンツは、平均マッチングスコアに関係なく、ユーザに提示されることができる。
前にも述べたように、一部の物体は、自動車102の前方の道路の近くまたは道路にある物体など、ユーザまたは自動車102に何らかの危険(潜在的な危険を含む)をもたらす可能性があるため、危険物体と見なされることができる。これらの検出された物体は、識別された物体または未確認の物体である場合がある。一実施形態では、システムは、速度、自動車102への物体の近接性、照明または気象条件、および運転者の運転能力などの要因に基づいて、衝突または他の危険の可能性を判定することができる。(このデータの少なくとも一部は、自動車102の1つ以上のアクセサリ108a、108b、108cによって提供されることができる。)物体が識別された場合、特に高い信頼度で識別された場合、この情報はまた、そのような確率を判定する際に考慮されることができる。例えば、問題の物体が子供や高齢の歩行者であると識別された場合、大人は子供や高齢者よりも潜在的な危険に迅速に反応することができるため、衝突の確率は、大人の歩行者の場合よりも高くなる。
危険物体の平均マッチングスコアは、影響または危険の確率を判定する一部と見なされることができる。例えば、平均マッチングスコアが、ユーザが危険物体を認識していないことを明らかにする場合、警告の形態でコンテンツがユーザに提示されることができる。これらの警告の例は、上述および後述されている。このシナリオでは、ユーザにコンテンツを提示するかどうかを判定する際に、平均マッチングスコアが低いほど重要とすることができる。ユーザが危険物体を認識しているとシステムが判定した場合、警告は生成されない。それにもかかわらず、他の要因(過度の速度や雨天など)が、危険物体に関連付けられた平均マッチングスコアの増加を上回り、警告が発せられる場合がある。
情報標識はまた、特にそれらに関連付けられた平均マッチングスコアが低い場合に、コンテンツの提示をもたらすこともできる。例えば、システムは、一時停止標識を識別し、ユーザがその標識を認識していないと判定することができる。この物体は、必ずしも衝突の可能性を高めるとは限らないが、危険の可能性を高める場合がある。ここで、一時停止標識が近付いていることをユーザに知らせる警告が提示されてもよい。情報標識が識別された場合、警告は、速度制限標識に掲示されている制限速度を通知または表示するなど、それらに関連する情報を組み込むことができる。これらの警告はまた、ユーザが情報標識に気付いている場合であっても、そのようなイベントを正当化する可能性のある他の状況(速度の上昇や気象条件など)が与えられた場合にも発せられることができる。
ここで、本開示の特定の態様の動作が図3および図4に関して説明される。様々な実施形態の少なくとも1つでは、図3および図4に関連してそれぞれ説明されたプロセス300および400は、ヘッドユニット104、モバイルデバイス114、リモートサーバ124などの1つ以上のコンピューティングデバイス、または他の車載またはクラウドベースのシステムによって実装または実行されることができる。
図3は、本明細書に記載の実施形態にかかる、自動車ユーザおよび自動車の前方のシーンを監視して、コンテンツを選択してユーザに提供するための概要プロセスの一実施形態を一般に示す論理フロー図を示している。このプロセスは、必ずしもここに示されている時系列に限定されるものではなく、ここで説明されている全てのステップに固執せずに、またはこの図に示されているもの以外のステップによって実行されることができる。明確にするために、プロセス300は、上記の原理に適用可能または採用されることができるフローの一例に過ぎない。
プロセス300は、開始ブロックの後、ブロック302で始まり、自動車内のユーザの位置が自動車の内部に対して較正される。そのような較正のプロセスの一例が、図4に関して以下により詳細に説明される。
プロセス300は、ブロック304に進み、第1の画像および第2の画像がキャプチャされる。第1の画像は、図1の内部カメラ110などの車内向きカメラによってキャプチャされ、自動車のユーザのものである。第2の画像は、図1の外部カメラ112などの車外向きカメラによってキャプチャされ、ユーザが視認可能なシーンのものである。一例として、第2の画像にキャプチャされたシーンは、自動車のユーザが見ることができる自動車の前方の領域である。シーンは、自動車の前方の領域として説明されることが多いが、実施形態は、これに限定されるものではない。むしろ、いくつかの実施形態では、シーンは、自動車の左側または右側の領域、または自動車の後方の領域であってもよい。これらの例では、内部カメラおよび外部カメラが取り付けられ、望ましい方向に対してユーザおよびシーンの画像をそれぞれキャプチャするように配置される。
プロセス300は、ブロック306に続き、ここで第1の画像が分析されて、ユーザの注目位置を判定する。様々な実施形態では、この分析は、ユーザの頭と眼の位置を判定することを含む。ユーザの頭と眼の位置がわかると、ユーザの注目位置が判定され、そこからユーザの注目方向が、双方とも基準システムに関連して判定される。
プロセス300は、次にブロック308に進み、第2の画像が分析されて、自動車の前方のシーン内のもう1つの物体を識別する。これらの識別された物体は、看板、道路標識、店舗標識、広告、ポスター、その他の自動車、歩行者、動物、またはその他の物体を含むことができる。
プロセス300は、ブロック310に続き、シーン内の各物体の相対位置が判定される。このステップの例は、上に示されている。プロセス300は、判定ブロック312に進み、ユーザの注目方向がシーン内の物体の相対位置に対応するかどうかの判定が行われる。いくつかの実施形態では、この判定は、上でより詳細に説明された、内部および外部カメラによってキャプチャされた複数の第1および第2の画像の分析に対して行われる。
ユーザの注目方向が物体の相対位置に対応する場合、ユーザはその物体を見ていると判定され、プロセス300は、ブロック314に流れる。そうでない場合、プロセス300は、判定ブロック318に流れる。
判定ブロック318では、ユーザによって見られていない物体が危険物体または情報標識であるかどうかの判定が行われる。例えば、ユーザがサイドミラーを見ているが、自動車の真正面に歩行者がいる場合、その物体(すなわち、歩行者)は、自動車にとって脅威であり、したがって危険物体であると判定されることができる。自動車が速度制限標識に近付いているときに、ユーザが自動車の後部座席で何かを見ている場合、その物体(すなわち、速度制限標識)は、危険物体であってもなくてもよい情報標識であると判定されることができる。
いくつかの実施形態では、この判定は、上でより詳細に説明された、内部および外部カメラによってキャプチャされた複数の第1および第2の画像の分析に対して行われる。他の実施形態では、この分析は、自動車に関連する他の情報に基づいてもよい。例えば、ヘッドユニットはまた、自動車の他のアクセサリと通信して、自動車の速度および制動状態を取得することもできる。このようにして、ヘッドユニットは、自動車に対する物体の相対位置、自動車の速度、ユーザが現在ブレーキをかけているかどうかなどに基づいて、物体が実際に危険物体であるかどうかを判定することができる。
物体が危険物体または情報標識である場合、プロセス300は、ブロック314に流れる。そうでない場合、プロセス300は、ブロック304に戻って、内部カメラおよび外部カメラからそれぞれ追加の第1および第2の画像をキャプチャすることができる。
ブロック314では、物体に関連するコンテンツが選択される。選択されたコンテンツのタイプは、判定ブロック312において判定されたように、ユーザが物体を見ていたかどうかに基づいて、または判定ブロック318において判定されたように、ユーザが物体を見ていないが、物体が危険物体または情報標識であるかどうかに基づいて、部分的に判定されることができる。例えば、ユーザが物体を見ているため、その物体がユーザにとって関心物体である場合、その物体に関連付けられたポジティブなコンテンツが選択されることができる。しかしながら、ユーザが物体を見ていない場合、物体に関連付けられた警報コンテンツまたは警告が選択されることができる。
上記の例に加えて、他の実施形態では、識別された物体の位置が特定のコンテンツにマッピングされることができる。第2の画像のシーンにおいて物体が識別されると、自動車の現在のGPS座標が使用されて、物体が既知の住所、ランドマーク、またはいくつかの他の区別可能な特性であるかどうかにかかわらず、物体の位置に関連するコンテンツを検索することができる。そのようなコンテンツのいくつかの例は、レストランの広告またはクーポン、レストランの場所または電話番号、レストランへの地図、対応するメニュー、または営業時間を含むことができる。
別の例として、物体は、歩行者または他の危険物体とすることができる。関連するコンテンツは、歩行者が自動車に近付きすぎているか、自動車が歩行者との衝突コース上にあるという警告とすることができる。さらに別の例では、物体が情報標識である場合、関連するコンテンツは、標識に関する情報の可聴音声などの警告とすることができる。
プロセス300は、ブロック316に進み、選択されたコンテンツがユーザに提示されるか、または提供される。本明細書に記載されるように、コンテンツは、視覚的コンテンツ、音声コンテンツ、触覚的コンテンツ、またはそれらの何らかの組み合わせとすることができる。例えば、ユーザが物体を見ていて、その物体がレストランの看板である場合、選択されたコンテンツは、レストランへの住所またはルートとすることができる。その結果、ヘッドユニットは、現在表示されているコンテンツを削除または変更し、自動車の現在地からレストランまでの経路のグラフィック画像を備えたナビゲーションインターフェースを表示することができる。いくつかの実施形態では、ヘッドユニットは、レストランがどれくらい離れているか、またはレストランの営業時間を示す音声トーンまたはメッセージを出力することもできる。
別の例として、ユーザが自動車にとって脅威となる物体を見ていない場合、ヘッドユニットは、ハンドルの触覚インターフェースに信号を送信して振動させ、ユーザの注目を引くことができる。同様に、危険の可能性がある物体を示すために、警告灯または音声トーンまたはメッセージがユーザに提供されてもよい。ブロック316の後、プロセス300は、ブロック304に戻って、内部カメラおよび外部カメラからそれぞれ追加の第1および第2の画像をキャプチャすることができる。
プロセス300は、自動車の単一のユーザがどこを見ているかを判定することに関して説明されているが、プロセス300は、自動車の複数のユーザに対して同様の機能を実行するように拡張されることができる。例えば、このシステムは、自動車の運転者が安全のために物体を見ているかどうか、また乗員が広告目的で関心物体を見ているかどうかを判定するために使用されることができる。
さらに、プロセス300は、内部カメラおよび外部カメラの双方からの単一の画像を分析するものとして説明されているが、実施形態は、それに限定されるものではない。例えば、プロセス300の機能が拡張されて、複数の画像フレームを分析して、ユーザの注目方向またはシーン内の物体の相対位置を判定することができる。
少なくとも1つの実施形態では、ユーザが選択された時間量の間、特定の物体を見ている場合、ユーザは物体を見ていると見なされることができる。例えば、プロセス300のブロック304、306、308、310、および312は、内部カメラからの複数の第1の画像および外部カメラからの複数の第2の画像に対して実行されることができる。これらのブロックのプロセス300の機能は、特にユーザがシーン内の同じ物体を見ている場合、第2の画像での相対位置と第1の画像での注目方向を考慮して、個別の画像ごとに実行され、時間とともに変化する場合がある。このようにして、ユーザの注目方向は、シーン内の物体の追跡位置に関して経時的に追跡され、ユーザが同じ物体を一定時間または選択した数の画像フレームにわたって見ている場合、ユーザはその物体を見ているか、他の方法でその物体に焦点を合わせている。次に、ブロック314において、その物体に基づいてコンテンツが選択されることができる。このように、ユーザが単に物体を見たり、サイドミラーで確認するなどして、周囲を見ながらユーザの眼が物体を一瞥したりする場合、システムは、ユーザのコンテンツを選択することはない。むしろ、コンテンツは、ユーザが物体を長時間見ることによって関心を示す物体に対して選択される。
同様に、複数の画像が分析されて、ユーザが選択した時間、物体を見逃しているか、または見ていないかどうかを判定することができる。繰り返すが、ユーザの注目方向は、シーン内の物体の追跡位置に関して経時的に追跡され、ユーザが所定の時間または選択した数の画像フレームにわたって危険物体または情報標識を見ていない場合、ユーザは、危険物体または情報標識を見逃していると判定される。その後、その物体に基づいてコンテンツが選択されることができる。このように、サイドミラーや死角を確認するなど、ユーザが危険物体や情報標識から単に目をそらして何か他のものを見る場合、システムは、ユーザのコンテンツを選択することはない。むしろ、コンテンツは、ユーザが長期間見逃しており、警告する必要がある危険物体または情報標識のために選択される。
上で説明したように、複数の注目レベルが利用されて、ユーザが物体に注目を向けているかどうか、およびどれだけ注目を向けているかを判定することができる。いくつかの実施形態では、ユーザまたは管理者は、対応するコンテンツが選択されてユーザに提示されるように、ユーザが物体を見ているか、または見逃しているという指標を引き起こす注目レベルを選択する。そのようなユーザまたは管理者の選択は、ヘッドユニットの初期化段階で、またはヘッドユニット設定の変更を介して動的に実行されることができる。
いくつかの実施形態では、ユーザまたは管理者は、異なるタイプの物体に対して異なる閾値を選択することができる。例えば、ユーザが物体を凝視した場合には、識別された関心物体に関連付けられたコンテンツが選択されるが、垣間見たり、一瞥したり、または注視したりした場合には選択されないように、ユーザは、関心物体に利用される凝視閾値を選択することができる。逆に、ユーザが物体を垣間見たり一瞥した場合には危険物体に関連付けられたコンテンツが選択されるが、物体を注視したり凝視したりした場合には選択されないように、管理者は、ユーザが危険物体を見ているかどうかを判定するために利用される注視閾値を選択することができる。
他の実施形態では、ユーザまたは管理者は、特定のタイプの物体に対して1つ以上の異なる閾値を選択することができ、これは、ユーザに提示されるコンテンツの量またはタイプを示すことができる。例えば、凝視閾値は、ヘッドユニットが物体によって宣伝されている店舗への地図を表示するようにマッピングコンテンツを選択するために利用されることができる。対照的に、一瞥閾値が利用されて、店舗の名称とともにテキストメッセージをユーザのモバイルデバイスに送信することができる。したがって、異なる注目レベルが使用されて、コンテンツの異なるレベルまたはタイプ、およびそれらをユーザに提示する方法を選択することができる。
さらにまた、プロセス300は、コンテンツをユーザに提示するものとして説明されているが、プロセス300を通じて収集、分析、および判定された情報は、追加の目的に利用されることができる。例えば、本明細書に記載の実施形態は、運転者がサイドミラーをチェックする回数、ラジオを見ている時間、または運転者が携帯電話/スマートフォンを見ているかどうかを追跡することができるように拡張されることができる。したがって、運転者が自動車の周囲の物体にどの程度注目を払っているかを示す通知表が生成されることができ、これは、車隊または十代の運転者の運転の監視を提供することができる。
いくつかの実施形態では、ブロック306において判定されたユーザの注目方向は、自動車内の物体(例えば、サイドミラーまたはラジオ)の既知の位置と比較されて、ユーザが既知の物体を見ているかどうか、およびどれくらいの時間見ているかを判定することができる。他の実施形態では、他の内部カメラからの第1の画像または他の画像は、禁止された物体または注意散漫な運転者について分析されることができる(例えば、スマートフォンと一致するユーザの注目方向である)。この追加情報は、運転者通知表にさらに追加されたり、保険会社、レンタカー会社、警察当局などの第三者機関に提供されたりすることができる。
ユーザが道路を見ているのか、電話を見ているのか、または安全物体(例えば、自動車のバックミラー、自動車の速度計、自動車のフロントガラス)を見ているのかを判定することにより、運転者の行動指紋が経時的に生成されることができる。第三者エンティティは、運転者の行動指紋に基づいて、カバレッジまたはサービスを提供または調整することができる。ユーザがスマートフォンを見ずに日常的にミラーを見ている場合、保険会社やレンタカー会社は、運転者の安全評価を上げ、保険料を下げたり、運転者に良いインセンティブを提供したりすることができる。逆に、運転者がサイドミラーを見ていないか、運転以外のことに集中している場合、保険会社やレンタカー会社は、運転者の安全評価を下げ、保険料を引き上げることができる。このようにして、選択された時間間隔で自動車の安全物体を見る人々にインセンティブが生成されて提供されることができ、これにより、自動車の運転者の全体的な動作を改善することができる。
同様の実施形態が利用されて、特定の運転イベントに対する運転者の反応を検出することができる。例えば、別の自動車がその自動車の行く手を遮る様子を示す複数の外部画像がキャプチャされることができる。運転者が怒っている様子、または武器を掴んでいる様子を示す複数の車内画像が同時にキャプチャされることができる。このシナリオ例では、運転者を落ち着かせるために、あおり運転警告が運転者に提供されるか、または警察に交通事故の可能性を通知することができる。
図4は、本明細書に記載の実施形態にかかる、自動車内の既知の点に対してユーザの注目を較正するプロセスの一実施形態を一般に示す論理フロー図を示している。このプロセスの下で提示される説明は、注目位置または注目方向を判定するための基準システムの設定を支援するか、または上で既に提供された例の代替として機能することができる。このプロセスは、必ずしもここに示されている時系列に限定されるものではなく、ここで説明されている全てのステップに固執せずに、またはこの図に示されているもの以外のステップによって実行されることができる。明確にするために、プロセス400は、上記の原理に適用可能または採用されることができるフローの一例に過ぎない。
プロセス400は、開始ブロックの後、自動車の形状が取得されるブロック402で始まる。いくつかの実施形態では、自動車の形状は、リモートサーバなどを介して自動車メーカーから取得される。他の実施形態では、自動車の形状は、ヘッドユニットに事前にプログラムされることができる。自動車の形状は、様々な寸法、角度、または自動車上の固定位置または恒久的な位置を有する物体の配置を含む。例としては、サイドミラー間の距離、サイドミラーに対するヘッドユニットの位置、運転者とサイドミラーの間の推定距離および角度、運転者とヘッドユニットとの間の推定距離および角度などを含む。
プロセス400は、ブロック404に進み、そこで、内部カメラ110などの内部カメラの位置および向きが取得される。自動車の形状と同様に、内部カメラの位置および向きは、リモートサーバを介して自動車メーカーから取得されるか、ヘッドユニットに事前にプログラムされることができる。いくつかの他の実施形態では、システムが自動車へのアフターマーケット設備である場合のように、ユーザは、内部カメラの位置および向きをヘッドユニットに入力することができる。さらに他の実施形態では、内部カメラは、チルトセンサおよび1つ以上の距離センサなど、自動車内のその位置および向きを検出する1つ以上のセンサを含むことができる。他のいくつかの実施形態では、内部カメラからの画像がキャプチャされ、分析されて、運転席のヘッドレストの側面や位置など、自動車内の既知の物体の位置および向きを識別することができる。そのような情報は、自動車の形状とともに、内部カメラの相対位置を計算するために使用されることができる。
プロセス400は、ブロック406に続き、ここで、自動車の1つ以上の既知の点までのユーザからの相対角度が判定される。自動車の形状に対する内部カメラの位置に基づいて、ユーザから自動車内の対応する既知のポイントまでの各相対角度を判定するために、様々な既知の形状および数学的アルゴリズムが使用されることができる。いくつかの実施形態では、内部カメラに対するユーザのおおよその位置を判定するために、内部カメラを介してユーザの初期ユーザ位置画像がキャプチャされることができる。
プロセス400は、次にブロック408に進み、ユーザは、自動車内の既知のポイントを見るように指示される。様々な実施形態では、ヘッドユニットは、「右サイドミラーを見てください」など、ユーザが従うべき視覚的または音声指示を出力することができる。
プロセス400は、次にブロック410に続き、ユーザの画像が内部カメラによってキャプチャされる。様々な実施形態では、ユーザの画像は、既知のポイントを見るという指示がユーザに提示された後、選択された時間量だけキャプチャされることができる。このようにして、ユーザは、指示に反応し、画像がキャプチャされる前に既知のポイントを見る時間を有する。
プロセス400は、ブロック412に進み、キャプチャされた画像におけるユーザの眼と頭の位置に基づいて、ユーザの注目角度が判定される。様々な実施形態では、ブロック412は、ブロック306の実施形態を使用して、ユーザの注目角度を判定することができる。
プロセス400は、ブロック414に進み、ユーザが見ている既知のポイント間の相対角度が、ユーザの注目角度に基づいて更新される。例えば、自動車の形状に基づくユーザと既知のポイントとの間の相対角度が右14度、下5度である場合、ユーザの注目角度は、右13度、下7度であり、次に、相対角度が更新されて、注目角度と同じかまたは平均などのそれらのいくつかの組み合わせとすることができる。このようにして、システムは、内部カメラに対するユーザの頭と眼の動きを較正する。ブロック414の後、プロセス400は、終了するか、さもなければ呼び出しプロセスに戻って他のアクションを実行する。
図示されていないが、いくつかの実施形態では、システムは、内部カメラと外部カメラとの間で追加の較正を実行することができる。少なくとも1つの実施形態では、内部カメラの位置および向きは、外部カメラの既知の位置を有する内部カメラの既知の位置に基づくなど、外部カメラの位置および向きに相関させることができる。このようにして、ブロック414において判定された相対角度は、さらに精密化され、外部カメラの方向点に合わせて較正されることができ、これは、ユーザの注目方向およびユーザに対する視認可能領域のキャプチャされたシーンとの位置合わせを助ける。
図5は、本明細書に記載の実施形態を実装するためのコンピューティングシステムの一実装形態を説明するシステム図を示している。システム500は、ヘッドユニット104、および必要に応じて1つ以上の他のコンピューティングデバイス550を含む。
本明細書に記載されるように、ヘッドユニット104は、ユーザがどこを見ているかを判定し、ユーザに提示する関連コンテンツを選択するための本明細書に記載の機能を実行することができるコンピューティングデバイスである。1つ以上の専用コンピューティングシステムが使用されてヘッドユニット104を実装することができる。したがって、本明細書に記載の様々な実施形態は、ソフトウェア、ハードウェア、ファームウェア、またはそれらのいくつかの組み合わせで実装されることができる。ヘッドユニット104は、メモリ504、1つ以上のプロセッサ522、ディスプレイ524、入力/出力(I/O)インターフェース526、他のコンピュータ可読媒体528、ネットワークインターフェース530、および他の構成要素532を含む。ヘッドユニット104はまた、ヘッドユニット104とは別個であっても外部であってもよい、内部カメラ110、外部カメラ112、および出力インターフェース116とも通信する。いくつかの実施形態では、内部カメラ110、外部カメラ112、出力インターフェース116、またはそれらのいくつかの組み合わせは、他の構成要素532などのヘッドユニット104に埋め込まれるか、または他の方法で組み込まれてもよい。
プロセッサ522は、本明細書に記載の少なくともいくつかの実施形態を含む、アクションを実行するためのコンピュータ命令を実行する1つ以上の処理デバイスを含む。様々な実施形態では、プロセッサ522は、1つ以上の中央処理装置(「CPU」)、プログラマブルロジック、または他の処理回路を含むことができる。
メモリ504は、1つ以上の様々なタイプの不揮発性および/または揮発性記憶技術を含むことができる。メモリ504の例は、これらに限定されるものではないが、フラッシュメモリ、ハードディスクドライブ、光学ドライブ、ソリッドステートドライブ、様々なタイプのランダムアクセスメモリ(「RAM」)、様々なタイプの読み取り専用メモリ(「ROM」)、他のコンピュータ可読記憶媒体(プロセッサ可読記憶媒体とも呼ばれる)、または他のメモリ技術、またはそれらの任意の組み合わせを含むことができる。メモリ504は、本明細書に記載される少なくともいくつかの実施形態を含む、アクションを実行するためにプロセッサ522によって利用されるコンピュータ可読命令を含む情報を記憶するために利用されることができる。
メモリ504は、較正モジュール508およびコンテンツ提示モジュール510などの様々なモジュールを記憶することができる。較正モジュール508は、自動車のユーザ、内部カメラ110、および外部カメラ112の間の位置および角度を較正する機能を提供する。コンテンツ提示モジュール510は、ユーザの注目位置および注目方向、ならびにユーザの視認可能領域におけるシーン内の物体の位置を検出する機能を提供する。いくつかの実施形態では、コンテンツ提示モジュール510は、図1のリモートサーバ124を含むことができる他のコンピューティングデバイス550などの別のコンピューティングデバイスに関連するコンテンツを要求する。他の実施形態では、コンテンツ提示モジュール510自体が関連コンテンツを選択する。選択または受信されると、コンテンツ提示モジュール510は、ディスプレイ524、他の構成要素532、または出力インターフェース116などを介して、コンテンツをユーザに提供する。
メモリ504は、他のプログラム518および他のコンテンツ520も記憶することができる。他のプログラム518は、オペレーティングシステム、ユーザアプリケーション、または他のコンピュータプログラムを含むことができる。コンテンツ520は、本明細書で説明するように、ユーザに提供する視覚的、音声、または触覚的コンテンツを含むことができる。
ディスプレイ524は、コンテンツをユーザにレンダリングすることができるディスプレイデバイスである。様々な実施形態では、コンテンツ提示モジュール510によって選択されたコンテンツは、ディスプレイ524を介してユーザに提示される。ディスプレイ524は、液晶ディスプレイ、発光ダイオード、または他のタイプのディスプレイデバイスとすることができ、ユーザの手、スタイラス、または他の物体からの入力を受信することができるタッチセンシティブスクリーンを含むことができる。
I/Oインターフェース526は、オーディオインターフェース、他のビデオインターフェース、USBインターフェース、物理ボタン、キーボードなどの様々な他の入力または出力デバイス用のインターフェースを含むことができる。いくつかの実施形態では、I/Oインターフェース526は、ヘッドユニット104が内部カメラ110、外部カメラ112、または出力インターフェース116と通信する機能を提供する。
内部カメラ110は、ヘッドユニット104に関連付けられた自動車の車内の画像を撮像するように配置および構成されたカメラである。外部カメラ112は、ユーザの視認可能領域が画像内にキャプチャされるように、ヘッドユニット104に関連付けられた自動車の外部の画像をキャプチャするように配置および構成されたカメラである。出力インターフェース116は、自動車のユーザに視覚的、聴覚的、または触覚的コンテンツをそれぞれ提供するためのディスプレイデバイス、音声出力デバイス、または触覚インターフェースデバイスを含むことができる。
他のコンピュータ可読媒体528は、リムーバブルフラッシュドライブ、外部ハードドライブなどの他のタイプの固定またはリムーバブルコンピュータ可読媒体を含むことができる。
ネットワークインターフェース530は、通信ネットワーク534を介して、他のコンピューティングデバイス550などの他のコンピューティングデバイスと通信するように構成される。ネットワークインターフェース530は、本明細書で説明するようにデータを送受信する送信機および受信機(図示せず)を含む。通信ネットワーク534は、図1の通信ネットワーク122またはモバイルデバイス通信ネットワーク120を含むことができる。
他のコンピューティングデバイス550は、ヘッドユニット104から離れたコンピューティングデバイスであり、いくつかの実施形態では、ユーザがどこを見ているかを判定し、ユーザに提示する関連コンテンツを選択するための本明細書に記載の機能を実行することができる。他のコンピューティングデバイス550は、図1のリモートサーバ124またはモバイルデバイス114を含むことができる。
1つ以上の専用コンピューティングシステムが使用されて他のコンピューティングデバイス550を実装することができる。したがって、本明細書に記載の様々な実施形態は、ソフトウェア、ハードウェア、ファームウェア、またはそれらのいくつかの組み合わせで実装されることができる。
他のコンピューティングデバイス550は、メモリ554、1つ以上のプロセッサ562、ディスプレイ564、I/Oインターフェース566、およびネットワークインターフェース570を含み、これらは、それぞれ、ヘッドユニット104のメモリ504、プロセッサ522、ディスプレイ564、I/Oインターフェース526およびネットワークインターフェース570の実施形態に類似するか、またはそれらを組み込んでもよい。したがって、プロセッサ562は、本明細書に記載される少なくともいくつかの実施形態を含む、アクションを実行するためのコンピュータ命令を実行する1つ以上の処理デバイスを含む。様々な実施形態では、プロセッサ522は、1つ以上のCPU、プログラマブルロジック、または他の処理回路を含むことができる。メモリ554は、1つ以上の様々なタイプの不揮発性および/または揮発性記憶技術を含むことができる。メモリ554は、本明細書に記載の少なくともいくつかの実施形態を含む、アクションを実行するためにプロセッサ562によって利用されるコンピュータ可読命令を含む情報を記憶するために利用されることができる。メモリ554はまた、プログラム556およびコンテンツ558も記憶することができる。プログラム556は、ヘッドユニット104から受信した情報に基づいてコンテンツを選択してヘッドユニット104に提供するコンテンツ提示モジュール510と同様のコンテンツ選択モジュール(図示せず)を含むことができる。
上記の様々な実施形態を組み合わせて、さらなる実施形態を提供することができる。上記の詳細な説明に照らして、これらおよび他の変更を実施形態に加えることができる。一般に、以下の特許請求の範囲において使用される用語は、特許請求の範囲を明細書および特許請求の範囲に開示された特定の実施形態に限定すると解釈されるべきではなく、全ての可能な実施形態と、そのような権利がある特許請求の範囲と同等の完全な範囲を含むと解釈されるべきである。したがって、特許請求の範囲は、本開示によって限定されない。
本出願は、2019年2月13日に出願された非仮特許出願第16/275,294号に対する優先権の利益を主張し、その出願は参照によりその全体が本明細書に組み込まれる。
Claims (10)
- システムであって、
コンピュータ命令を記憶するように構成されたメモリと、
自動車の運転者に感覚的コンテンツを提示するように構成された出力インターフェースと、
前記自動車の一部であり、前記自動車の前記運転者の画像をキャプチャするように構成された第1のカメラと、
前記自動車の一部であり、前記運転者が前記自動車の前方を見ているシーンの画像をキャプチャするように構成された第2のカメラと、
前記コンピュータ命令を実行するように構成されたプロセッサであって、
前記第1のカメラによってキャプチャされた前記運転者の第1の画像を取得し、
前記第1の画像における前記運転者の眼または頭の少なくとも一方の位置に基づいて、前記運転者の注目方向を判定し、
前記第1の画像と同じ期間中に前記第2のカメラによってキャプチャされた前記自動車の前方の前記シーンの第2の画像を取得し、
前記第2の画像の分析に基づいて、前記シーン内の少なくとも1つの物体を識別し、
前記シーン内の前記少なくとも1つの物体の相対位置を判定し、
前記運転者の前記注目方向と前記シーン内の関心物体の相対位置との間の相関関係に基づいて、前記運転者が見ている前記少なくとも1つの物体から前記関心物体を識別し、
前記運転者が見ている前記関心物体に基づいて、前記運転者に提供するコンテンツのアイテムを選択し、
前記出力インターフェースを介して、前記選択されたコンテンツのアイテムを前記運転者に提示する、プロセッサと、
を備える、システム。 - 前記出力インターフェースが、視覚的コンテンツを前記運転者に表示するように構成されたディスプレイデバイス、音声コンテンツを出力するように構成されたスピーカ、または触覚的コンテンツを前記運転者に提供するように構成された触覚インターフェースである、請求項1に記載のシステム。
- 自動車のヘッドユニットを介して前記自動車内の人にコンテンツを提供する方法であって、
前記人の第1の画像と、前記人が第1の時間に視認可能な領域の第2の画像とを有する第1の画像対をキャプチャすることと、
前記第1の画像対の前記第1および第2の画像を分析して、前記人の第1の注目方向および前記視認可能な領域内の1つ以上の第1の物体の相対位置を判定することと、
前記人の前記第1の注目方向と前記第1の物体の前記相対位置との比較に基づいて、前記人が前記1つ以上の第1の物体のうちの第1の対象物体を見ていることを判定することと、
前記人の第1の画像と、前記人が第2の時間に視認可能な領域の第2の画像とを有する第2の画像対をキャプチャすることであって、前記第2の時間が第1の時間よりも後である、キャプチャすることと、
前記第2の画像対の前記第1および第2の画像を分析して、前記人の第2の注目方向および前記視認可能な領域内の1つ以上の第2の物体の相対位置を判定することと、
前記人の前記第2の注目方向と前記第2の物体の前記相対位置との比較に基づいて、前記人が前記1つ以上の第2の物体のうちの第2の対象物体を見ていることを判定することと、
前記第1の対象物体および前記第2の対象物体が同じ物体であるという判定に応答して、前記人に提供する前記第1の対象物体に関連付けられたコンテンツを選択することと、
前記人に前記コンテンツを提供することと、
を含む、方法。 - 前記第1の対象物体および前記第2の対象物体に対する前記人の注目レベルを、前記第1の画像対の前記キャプチャと前記第2の画像対の前記キャプチャとの間の時間量に基づいて判定することと、
選択された閾値レベルを超える前記注目レベルに応答して、前記第1の対象物体に関連する前記コンテンツを選択することと、
をさらに含む、請求項3に記載の方法。 - 前記人の前記注目レベルを判定することが、垣間見ること、一瞥すること、注視すること、および凝視することから前記注目レベルを選択することを含み、前記コンテンツを選択することが、前記選択された注目レベルに基づいて前記コンテンツを選択することを含む、請求項4に記載の方法。
- 前記人の前記注目方向と既知の前記自動車の安全物体の位置とに基づいて、前記人が前記自動車の安全物体を見ていることを判定することと、
前記人が前記安全物体を見ているという前記判定に基づいて、前記人にインセンティブを生成することと、
をさらに含む、請求項3に記載の方法。 - 前記安全物体が、前記自動車のサイドミラー、前記自動車のバックミラー、前記自動車の速度計、または前記自動車のフロントガラスである、請求項6に記載の方法。
- 前記コンテンツを前記人に提供することが、前記コンテンツを前記人のモバイルコンピューティングデバイスに送信することを含む、請求項3に記載の方法。
- 自動車のヘッドユニットであって、
視覚的コンテンツを表示するように構成されたディスプレイデバイスと、
コンピュータ命令を記憶するように構成されたメモリと、
前記コンピュータ命令を実行するように構成されたプロセッサであって、
前記自動車の車内向きカメラから第1の画像を受信し、
前記自動車の車外向きカメラから第2の画像を受信し、
前記第1の画像から検出された前記ユーザの注目方向に基づいて、前記自動車内のユーザの焦点領域を判定し、
前記第2の画像の分析に基づいて、前記ユーザの注目に関連する物体を識別し、
前記識別された物体に基づいて、前記ディスプレイデバイスに表示する視覚的コンテンツを選択し、
前記選択された視覚的コンテンツを前記ディスプレイデバイスに提供して、前記ユーザに表示する、プロセッサと、
を備える、ヘッドユニット。 - 前記プロセッサが、さらなるコンピュータ命令を実行するように構成され、
前記第1の画像における前記ユーザの眼と頭の位置に基づいて前記ユーザの注目方向を判定するための前記第1の画像の分析を含む前記ユーザの前記焦点領域を判定し、
前記第2の画像内の前記物体の位置に基づいて、前記ユーザに対する前記物体の位置を判定するために、前記第2の画像の分析を通じて、前記ユーザの注目に関連する前記物体を識別する、請求項9に記載のヘッドユニット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/275,294 US10882398B2 (en) | 2019-02-13 | 2019-02-13 | System and method for correlating user attention direction and outside view |
US16/275,294 | 2019-02-13 | ||
PCT/US2020/017962 WO2020167974A1 (en) | 2019-02-13 | 2020-02-12 | System and method for correlating user attention direction and outside view |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022519895A true JP2022519895A (ja) | 2022-03-25 |
Family
ID=71946574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021547205A Pending JP2022519895A (ja) | 2019-02-13 | 2020-02-12 | ユーザの注目方向および外観を相関させるシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10882398B2 (ja) |
EP (1) | EP3924207A4 (ja) |
JP (1) | JP2022519895A (ja) |
AU (1) | AU2020221243A1 (ja) |
CA (1) | CA3127247A1 (ja) |
WO (1) | WO2020167974A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10962780B2 (en) * | 2015-10-26 | 2021-03-30 | Microsoft Technology Licensing, Llc | Remote rendering for virtual images |
CN111527013B (zh) * | 2017-12-27 | 2024-02-23 | 宝马股份公司 | 车辆变道预测 |
EP3849865A4 (en) * | 2018-09-11 | 2022-06-29 | Netradyne, Inc. | Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements |
JP7263734B2 (ja) * | 2018-10-29 | 2023-04-25 | 株式会社アイシン | 視認対象判定装置 |
CN111661059B (zh) * | 2019-03-08 | 2022-07-08 | 虹软科技股份有限公司 | 分心驾驶监测方法、系统及电子设备 |
EP3744568B1 (en) * | 2019-05-29 | 2022-01-19 | Ningbo Geely Automobile Research & Development Co. Ltd. | A system and method for providing a desired view for a vehicle occupant |
JP7226104B2 (ja) * | 2019-05-30 | 2023-02-21 | 株式会社デンソー | 情報提示装置、情報提示方法および情報提示プログラム |
CN114424025A (zh) * | 2019-09-16 | 2022-04-29 | 日产自动车株式会社 | 车辆用信息处理装置及方法 |
KR20210034843A (ko) * | 2019-09-23 | 2021-03-31 | 삼성전자주식회사 | 차량의 제어 장치 및 방법 |
US11222213B2 (en) * | 2019-09-30 | 2022-01-11 | Verizon Patent And Licensing Inc. | Vehicle behavior detection system |
KR20190134554A (ko) * | 2019-11-15 | 2019-12-04 | 엘지전자 주식회사 | 동적 장애물을 식별하는 방법 및 이를 구현한 로봇 |
US11541813B2 (en) * | 2019-12-10 | 2023-01-03 | Zf Friedrichshafen Ag | Apparatus and method for assisting a driver of a vehicle with visualization of an ambient environment |
JP7331728B2 (ja) * | 2020-02-19 | 2023-08-23 | マツダ株式会社 | 運転者状態推定装置 |
JP7331729B2 (ja) * | 2020-02-19 | 2023-08-23 | マツダ株式会社 | 運転者状態推定装置 |
WO2021171699A1 (ja) * | 2020-02-27 | 2021-09-02 | 株式会社Jvcケンウッド | 車両用投影制御装置、車両用投影システム、車両用投影制御方法およびプログラム |
US11115482B1 (en) * | 2020-03-31 | 2021-09-07 | Xevo Inc. | System and method for correlating keep-alive connection communications with unary connection communications |
SE544806C2 (en) * | 2020-04-09 | 2022-11-22 | Tobii Ab | Driver alertness detection method, device and system |
JP7467220B2 (ja) * | 2020-04-28 | 2024-04-15 | 株式会社ジャパンディスプレイ | 表示システム及び車両 |
US11535253B2 (en) * | 2020-09-18 | 2022-12-27 | GM Global Technology Operations LLC | Lane change maneuver intention detection systems and methods |
CN112270304A (zh) * | 2020-11-17 | 2021-01-26 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备及存储介质 |
Family Cites Families (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070135982A1 (en) | 1995-06-07 | 2007-06-14 | Automotive Technologies International, Inc. | Methods for Sensing Weight of an Occupying Item in a Vehicular Seat |
US7852462B2 (en) | 2000-05-08 | 2010-12-14 | Automotive Technologies International, Inc. | Vehicular component control methods based on blind spot monitoring |
JP3790680B2 (ja) * | 2001-05-25 | 2006-06-28 | 株式会社東芝 | 画像処理システム及びこれを用いた運転支援システム |
US7119832B2 (en) | 2001-07-23 | 2006-10-10 | L-3 Communications Mobile-Vision, Inc. | Wireless microphone for use with an in-car video system |
CN101317763B (zh) * | 2002-10-15 | 2013-04-03 | 沃尔沃技术公司 | 解释对象的头部和眼睛活动的方法和装置 |
US6859144B2 (en) * | 2003-02-05 | 2005-02-22 | Delphi Technologies, Inc. | Vehicle situation alert system with eye gaze controlled alert signal generation |
US6906619B2 (en) * | 2003-02-27 | 2005-06-14 | Motorola, Inc. | Visual attention influenced condition indicia apparatus and method |
JP4879189B2 (ja) * | 2005-12-12 | 2012-02-22 | パナソニック株式会社 | 安全走行支援装置 |
JP2008039596A (ja) * | 2006-08-07 | 2008-02-21 | Pioneer Electronic Corp | 情報提供装置、情報提供方法、情報提供プログラム、および記録媒体 |
CN101512617B (zh) * | 2006-09-04 | 2012-02-01 | 松下电器产业株式会社 | 行驶信息提供装置 |
JP4231884B2 (ja) * | 2006-09-27 | 2009-03-04 | 株式会社デンソーアイティーラボラトリ | 注視対象物検出装置および注視対象物検出方法 |
TW200834040A (en) | 2007-02-02 | 2008-08-16 | Mitac Int Corp | Dioramic navigation apparatus |
EP1974998B1 (en) | 2007-03-26 | 2011-05-25 | Aisin AW Co., Ltd. | Driving support method and driving support apparatus |
CN102607573B (zh) | 2007-07-04 | 2015-05-06 | 三菱电机株式会社 | 导航系统 |
JP5050735B2 (ja) * | 2007-08-27 | 2012-10-17 | マツダ株式会社 | 車両用運転支援装置 |
DE102007045932B4 (de) * | 2007-09-26 | 2013-10-02 | Daimler Ag | Verfahren und Vorrichtung zur Warnung eines Fahrers eines Fahrzeuges |
JP5018444B2 (ja) | 2007-12-13 | 2012-09-05 | 株式会社豊田中央研究所 | 車両故障診断予測装置 |
US20090315766A1 (en) * | 2008-06-19 | 2009-12-24 | Microsoft Corporation | Source switching for devices supporting dynamic direction information |
US8391554B2 (en) | 2008-10-01 | 2013-03-05 | GM Global Technology Operations LLC | Eye detection system using a single camera |
US10019634B2 (en) * | 2010-06-04 | 2018-07-10 | Masoud Vaziri | Method and apparatus for an eye tracking wearable computer |
CA2734436C (en) | 2010-04-27 | 2016-06-14 | Timothy Newman | Method and system for transmitting a warning message to a driver of a vehicle |
US20110313593A1 (en) | 2010-06-21 | 2011-12-22 | Cohen Meir S | Vehicle On Board Diagnostic Port Device with GPS Tracking, Auto-Upload, and Remote Manipulation |
US8098170B1 (en) * | 2010-10-08 | 2012-01-17 | GM Global Technology Operations LLC | Full-windshield head-up display interface for social networking |
US9057874B2 (en) * | 2010-12-30 | 2015-06-16 | GM Global Technology Operations LLC | Virtual cursor for road scene object selection on full windshield head-up display |
US20120224060A1 (en) * | 2011-02-10 | 2012-09-06 | Integrated Night Vision Systems Inc. | Reducing Driver Distraction Using a Heads-Up Display |
KR20130005035A (ko) | 2011-07-05 | 2013-01-15 | 가온미디어 주식회사 | 클라우드 컴퓨팅 방식의 네비게이션 시스템 및 그 운용방법 |
US20130030811A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | Natural query interface for connected car |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
EP2564766B1 (en) * | 2011-09-02 | 2018-03-21 | Volvo Car Corporation | Visual input of vehicle operator |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
US8847771B2 (en) * | 2013-01-25 | 2014-09-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and apparatus for early detection of dynamic attentive states for providing an inattentive warning |
US9975483B1 (en) * | 2013-02-08 | 2018-05-22 | Amazon Technologies, Inc. | Driver assist using smart mobile devices |
DE102014109079A1 (de) * | 2013-06-28 | 2014-12-31 | Harman International Industries, Inc. | Vorrichtung und verfahren zur erfassung des interesses eines fahrers an einer werbeanzeige durch die verfolgung der blickrichtung des fahrers |
WO2015015919A1 (ja) * | 2013-08-01 | 2015-02-05 | 本田技研工業株式会社 | 車両周辺監視装置 |
GB2518187A (en) | 2013-09-12 | 2015-03-18 | Ford Global Tech Llc | Collision warning for a driver controlled vehicle |
US10210761B2 (en) | 2013-09-30 | 2019-02-19 | Sackett Solutions & Innovations, LLC | Driving assistance systems and methods |
JP6292054B2 (ja) * | 2013-11-29 | 2018-03-14 | 富士通株式会社 | 運転支援装置、方法、及びプログラム |
US9354073B2 (en) * | 2013-12-09 | 2016-05-31 | Harman International Industries, Inc. | Eye gaze enabled navigation system |
US9613459B2 (en) * | 2013-12-19 | 2017-04-04 | Honda Motor Co., Ltd. | System and method for in-vehicle interaction |
JP6264037B2 (ja) * | 2013-12-27 | 2018-01-24 | トヨタ自動車株式会社 | 車両用情報表示装置及び車両用情報表示方法 |
JP6176541B2 (ja) * | 2014-03-28 | 2017-08-09 | パナソニックIpマネジメント株式会社 | 情報表示装置、情報表示方法及びプログラム |
KR102209511B1 (ko) * | 2014-05-12 | 2021-01-29 | 엘지전자 주식회사 | 안경형 단말기와 그 안경형 단말기의 제어 방법 |
US9476729B2 (en) * | 2014-05-29 | 2016-10-25 | GM Global Technology Operations LLC | Adaptive navigation and location-based services based on user behavior patterns |
KR102179579B1 (ko) | 2014-05-29 | 2020-11-17 | 한국자동차연구원 | 차량 운전대 일체형 스마트 내비게이션 |
WO2016029939A1 (en) | 2014-08-27 | 2016-03-03 | Metaio Gmbh | Method and system for determining at least one image feature in at least one image |
JP6184923B2 (ja) | 2014-09-11 | 2017-08-23 | 日立オートモティブシステムズ株式会社 | 車両の移動体衝突回避装置 |
US9747812B2 (en) * | 2014-10-22 | 2017-08-29 | Honda Motor Co., Ltd. | Saliency based awareness modeling |
KR101714515B1 (ko) * | 2015-01-21 | 2017-03-22 | 현대자동차주식회사 | 웨어러블 기기를 이용한 안전운전 알림 시스템 및 그 방법 |
US9505413B2 (en) * | 2015-03-20 | 2016-11-29 | Harman International Industries, Incorporated | Systems and methods for prioritized driver alerts |
DE102015206200A1 (de) * | 2015-04-08 | 2016-10-13 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers |
US20160362111A1 (en) * | 2015-06-12 | 2016-12-15 | Jaguar Land Rover Limited | Driver awareness sensing and indicator control |
US9845097B2 (en) * | 2015-08-12 | 2017-12-19 | Ford Global Technologies, Llc | Driver attention evaluation |
JP6684559B2 (ja) * | 2015-09-16 | 2020-04-22 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
DE102015220398A1 (de) * | 2015-10-20 | 2017-04-20 | Robert Bosch Gmbh | Verfahren zur Übermittlung von Informationen an einen Fahrer eines Kraftfahrzeuges und adaptives Fahrerassistenzsystem |
KR101916993B1 (ko) * | 2015-12-24 | 2018-11-08 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 그 제어방법 |
JP2017122640A (ja) * | 2016-01-07 | 2017-07-13 | トヨタ自動車株式会社 | 情報制御装置 |
CN109069073B (zh) | 2016-05-02 | 2022-06-28 | 德克斯康公司 | 用于提供针对用户优化的告警的系统和方法 |
US10216269B2 (en) * | 2016-06-21 | 2019-02-26 | GM Global Technology Operations LLC | Apparatus and method for determining intent of user based on gaze information |
CN110167823B (zh) * | 2016-07-01 | 2022-08-12 | 视力移动技术有限公司 | 用于驾驶员监测的系统和方法 |
US9760827B1 (en) | 2016-07-22 | 2017-09-12 | Alpine Electronics of Silicon Valley, Inc. | Neural network applications in resource constrained environments |
US10832031B2 (en) * | 2016-08-15 | 2020-11-10 | Apple Inc. | Command processing using multimodal signal analysis |
US11305766B2 (en) * | 2016-09-26 | 2022-04-19 | Iprd Group, Llc | Combining driver alertness with advanced driver assistance systems (ADAS) |
EP3299241B1 (en) * | 2016-09-26 | 2021-11-10 | Volvo Car Corporation | Method, system and vehicle for use of an object displaying device in a vehicle |
KR101896790B1 (ko) * | 2016-11-08 | 2018-10-18 | 현대자동차주식회사 | 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법 |
US10688911B2 (en) * | 2016-11-24 | 2020-06-23 | Maxell, Ltd. | Illumination apparatus |
JP2018149941A (ja) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム |
US11587419B2 (en) * | 2017-08-04 | 2023-02-21 | Toyota Research Institute, Inc. | Methods and systems providing an intelligent camera system |
TWI653170B (zh) * | 2017-11-01 | 2019-03-11 | 宏碁股份有限公司 | 駕駛提示方法與系統 |
KR102014261B1 (ko) * | 2017-12-12 | 2019-08-26 | 엘지전자 주식회사 | 차량에 구비된 차량 제어 장치 및 차량의 제어방법 |
JP7077616B2 (ja) * | 2017-12-28 | 2022-05-31 | トヨタ自動車株式会社 | 表示制御装置および表示制御方法 |
US10853674B2 (en) * | 2018-01-23 | 2020-12-01 | Toyota Research Institute, Inc. | Vehicle systems and methods for determining a gaze target based on a virtual eye position |
US10597042B2 (en) * | 2018-03-27 | 2020-03-24 | Intel Corporation | User gesture directed object detection and recognition in a vehicle |
US10849543B2 (en) * | 2018-06-08 | 2020-12-01 | Ford Global Technologies, Llc | Focus-based tagging of sensor data |
US10746987B2 (en) * | 2018-07-12 | 2020-08-18 | Toyota Research Institute, Inc. | Vehicle systems and methods for redirecting a driver's gaze towards an object of interest |
WO2020023926A1 (en) * | 2018-07-26 | 2020-01-30 | Standard Cognition, Corp. | Directional impression analysis using deep learning |
US10846876B2 (en) * | 2018-11-02 | 2020-11-24 | Yu-Sian Jiang | Intended interest point detection method and system thereof |
US11150656B2 (en) * | 2018-11-19 | 2021-10-19 | Honda Motor Co., Ltd. | Autonomous vehicle decision making |
-
2019
- 2019-02-13 US US16/275,294 patent/US10882398B2/en active Active
-
2020
- 2020-02-12 AU AU2020221243A patent/AU2020221243A1/en not_active Abandoned
- 2020-02-12 CA CA3127247A patent/CA3127247A1/en active Pending
- 2020-02-12 EP EP20755721.6A patent/EP3924207A4/en not_active Withdrawn
- 2020-02-12 WO PCT/US2020/017962 patent/WO2020167974A1/en unknown
- 2020-02-12 JP JP2021547205A patent/JP2022519895A/ja active Pending
- 2020-11-30 US US17/107,620 patent/US20210078408A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3924207A1 (en) | 2021-12-22 |
US20200254876A1 (en) | 2020-08-13 |
US10882398B2 (en) | 2021-01-05 |
CA3127247A1 (en) | 2020-08-20 |
WO2020167974A1 (en) | 2020-08-20 |
AU2020221243A1 (en) | 2021-08-12 |
US20210078408A1 (en) | 2021-03-18 |
EP3924207A4 (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10882398B2 (en) | System and method for correlating user attention direction and outside view | |
US11659038B2 (en) | Smart vehicle | |
US20210357670A1 (en) | Driver Attention Detection Method | |
JP6694112B2 (ja) | Ar表示装置及びar表示方法 | |
US11562550B1 (en) | Vehicle and mobile device interface for vehicle occupant assistance | |
US11526166B2 (en) | Smart vehicle | |
WO2023060049A1 (en) | Vehicle and mobile device interface for vehicle occupant assistance | |
CN111332309B (zh) | 驾驶员监视系统及其操作方法 | |
US20170174129A1 (en) | Vehicular visual information system and method | |
Akhlaq et al. | Designing an integrated driver assistance system using image sensors | |
US8958978B2 (en) | Method and device for monitoring a vehicle occupant | |
US20180229654A1 (en) | Sensing application use while driving | |
CN109849788B (zh) | 信息提供方法、装置及系统 | |
JP2006338594A (ja) | 歩行者認識装置 | |
CN103507707A (zh) | 通过透明显示屏的监控系统及方法 | |
EP4140795A1 (en) | Handover assistant for machine to driver transitions | |
KR20200067866A (ko) | 자동차에서 디스플레이 장치를 작동하기 위한 방법 | |
JP6891926B2 (ja) | 車両システム、車両システムで実行される方法、および運転者支援システム | |
CN112954486A (zh) | 基于视线注意力的车载视频留痕处理方法 | |
JP6947873B2 (ja) | Ar表示装置、ar表示方法、およびプログラム | |
CN103581617A (zh) | 监控系统及方法 | |
CN113168643A (zh) | 用于监视车辆的乘员的方法和设备以及用于分析对于对象的感知的系统 | |
JP7301715B2 (ja) | 監視カメラ利用車両システムに適用される状態予測サーバおよび注意喚起装置 | |
JP7294483B2 (ja) | 運転支援装置、運転支援方法及びプログラム | |
CN110458610B (zh) | 一种信息处理方法、装置、交通工具及存储介质 |