JP2013068620A - 運転者が注目している外部の物体に関する情報を提供するための車両システムおよび方法 - Google Patents

運転者が注目している外部の物体に関する情報を提供するための車両システムおよび方法 Download PDF

Info

Publication number
JP2013068620A
JP2013068620A JP2012209532A JP2012209532A JP2013068620A JP 2013068620 A JP2013068620 A JP 2013068620A JP 2012209532 A JP2012209532 A JP 2012209532A JP 2012209532 A JP2012209532 A JP 2012209532A JP 2013068620 A JP2013068620 A JP 2013068620A
Authority
JP
Japan
Prior art keywords
driver
vehicle
acquired image
language
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012209532A
Other languages
English (en)
Inventor
Petre Madau Dinu
ペトレ マダウ ディヌ
Mere Shady
メレ シャディ
Morris Paul
モリス ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of JP2013068620A publication Critical patent/JP2013068620A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】車両の運転者に情報を提供するためのシステムおよび方法を提供する。
【解決手段】画像取得デバイス、頭部または視線追跡装置、少なくとも1つのプロセッサ、および出力デバイスを有する、車両の運転者に情報を提供するためのシステムおよび方法。画像取得デバイスは、車両の外部の環境の画像を取得する。頭部または視線追跡装置は、車両の運転者が視認している物体を判定する。少なくとも1つのプロセッサは、取得画像を処理する。また、少なくとも1つのプロセッサは、運転者が視認している物体の取得画像に含まれる言語を第2の言語に翻訳するか、または運転者が視認している物体の取得画像に基づいて地点情報を判定する。出力デバイスは、運転者が視認している物体の取得画像の翻訳された第2の言語を含むか、または運転者が視認している物体の取得画像に基づいて判定された地点情報を含む情報を出力する。
【選択図】図3

Description

本開示は、車両の運転者に、運転者が注目している車両の外部の物体に関する言語翻訳情報または地点情報を提供するためのシステムおよび方法に関する。
車両の運転者は、運転者が追加情報を所望する標識、道路標識、または他の種類の物体等の、車両の外部の物体に注目することが多い。多くの車両は、運転者が視認している物体に関する追加情報を得るための、使用が面倒なナビゲーションシステムを収容している。例えば、車両の運転者は、運転者が追加の地点情報を所望する道路標識に注目し、次いで、運転者が所望する地点情報の種類をナビゲーションシステムに入力しなければならないかもしれない。運転者がこの情報をシステムに入力する時までには、運転者は既に出口を逃してしまっているかもしれない。
外国を旅行する場合、運転者が注目している道路標識は、運転者が理解することが不可能な外国語である可能性が多い。このことは、外国での運転を危険なものにする場合がある。言語を翻訳するための既存のシステムの多くは、運転者が注目している物体のみに焦点を合わせるようには適合されていない。その結果、運転者は、運転者が何語に翻訳することを所望するかをシステムに伝えなければならない。これは非効率的であり、安全性に対する懸念となる可能性がある。
既存のシステムおよび方法の1つ以上の課題を解決するために、車両の運転者に情報を提供するためのシステムおよび方法が必要である。
一実施形態において、車両の運転者に情報を提供するためのシステムが開示される。システムは、画像取得デバイスと、頭部または視線追跡装置と、少なくとも1つのプロセッサと、出力デバイスとを備える。画像取得デバイスは、車両の外部の環境の画像を取得するためのものである。頭部または視線追跡装置は、車両の運転者が視認している物体を判定するためのものである。少なくとも1つのプロセッサは、取得画像を処理し、(1)運転者が視認している物体の取得画像に含まれる言語を第2の言語に翻訳すること、または、(2)運転者が視認している物体の取得画像に基づいて地点情報を判定することのうちの少なくとも1つを行うためのものである。出力デバイスは、(1)運転者が視認している物体の取得画像の翻訳された言語を含む第2の言語、または(2)運転者が視認している物体の取得画像に基づいて判定された地点情報のうちの少なくとも1つを含む情報を出力するためのものである。
別の実施形態において、車両の運転者に情報を提供するための方法が開示される。あるステップにおいて、車両の外部の環境の画像は、画像取得デバイスによって取得される。別のステップにおいて、頭部または視線追跡装置は、車両の運転者が視認している物体を判定するために使用される。さらに別のステップにおいて、少なくとも1つのプロセッサは、取得画像を処理し、(1)運転者が視認している物体の取得画像に含まれる言語を第2の言語に翻訳するか、または(2)運転者が視認している物体の取得画像に基づいて地点情報を判定するかのうちの少なくとも1つを行う。さらなるステップにおいて、出力デバイスは、(1)運転者が視認している物体の取得画像の翻訳された言語を含む第2の言語、または(2)運転者が視認している物体の取得画像に基づいて判定された地点情報うちの少なくとも1つを含む情報を出力する。
本開示のこれらおよび他の特徴、態様、および利点は、以下の図面、明細書、および特許請求の範囲を参照して、よりよく理解されるであろう。
車両の運転者に情報を提供するためのシステムのブロック図を示す。 図1のシステムを利用して車両を運転している運転者の一実施形態の側面図を示す。 車両の運転者に情報を提供するための方法の一実施形態のフローチャートを示す。
以下の詳細な説明は、現在企図される本開示を実行する最良の様式の説明である。本開示の範囲は、添付の特許請求の範囲によって最良に定義されるため、この説明は、限定的な意味に捉えられるべきではなく、本開示の一般的な原則を例示する目的でなされているに過ぎない。図は、純粋に例示目的のためであって、原寸には比例していないことに留意されたい。
図1は、車両14の運転者12に情報を提供するためのシステム10のブロック図を示す。システム10は、入力デバイス16と、画像取得デバイス18と、追跡デバイス20と、プロセッサ22と、通信デバイス24と、出力デバイス26と、ナビゲーションシステム27とを備える。システム10は、車両内に実装される。システム10の上記構成要素の全ては、有線または無線で互いに通信している。
入力デバイス16は、運転者がシステム10に情報を入力するか、またはシステム10を制御することを可能にする1つ以上の入力デバイスを備える。例示的な入力デバイス16は、運転者がシステム10に情報を入力することを可能にするマイク、コントロールパネル、または他の種類の入力デバイスを備える。運転者12は、システム10に指示を与えるために、マイクに向かってコマンドを話してもよい。運転者12は、システム10に指示を与えるために、コントロールパネルを使用してコマンドをタイプするか、触れるか、または視覚的に入力してもよい。他の実施形態において、運転者12は、多様な方法および入力デバイス16を使用してコマンドを入力してもよい。
画像取得デバイス18は、車両14の外部の環境の画像を取得するための1つ以上の画像取得デバイスを備える。取得画像は、車両14の外部の環境にある標識、道路標識、または別の種類の物体を含んでもよい。一実施形態において、画像取得デバイス18は、車両14の外部の環境のどの部分に運転者12が注目しているのかを判定するための追跡デバイス20からの入力なしに、車両14の外部の環境の画像を無差別に取得する。別の実施形態において、画像取得デバイス18は、運転者12が注目していない車両14の外部の環境の部分の画像を取得することなく、追跡デバイス20からの入力に基づいて、運転者12が注目している車両14の外部の環境の部分の正確な画像のみを取得する。取得画像は、車両14の運転者12が注目している車両の外部の環境にある標識、道路標識、または別の種類の物体を含有してもよい。
例示的な画像取得デバイス18は、車両14の外部の環境の画像を取得するためのカメラ、ビデオデバイス、または別の種類の画像取得デバイスを備える。前方画像取得デバイス、側方画像取得デバイス、後方画像取得デバイス、または別の種類の画像取得デバイスなどのような画像取得デバイス18は、車両14の外部の環境の所望の画像を取得するために、車両14周辺のどこに位置してもよい。取得画像は、デジタル形式またはアナログ形式であってもよい。取得画像がアナログである場合、画像取得デバイス18またはプロセッサ22は、画像をデジタル画像に変換するためのアナログデジタル変換機をさらに備えてもよい。一実施形態において、画像取得デバイス18は、車両14の外部の環境の画像を連続的に撮影することができる。別の実施形態において、画像取得デバイス18は、車両14の運転者12が入力デバイス16を使用してシステム10にそうするように指示を与えた場合にのみ、車両14の外部の環境の画像を撮影することができる。これは、システム10の処理およびデータ格納を効率的にする。
追跡デバイス20は、車両14の外部の環境のどの部分に運転者12が注目しているのかを判定するための1つ以上の追跡デバイスを備える。これは、運転者12が注目している標識、道路標識、または車両14の外部の別の物体を含んでもよい。例示的な追跡デバイス20は、運転者12の目の動きを追跡するための視線追跡装置、運転者12の頭部の動きを追跡するための頭部追跡装置、または車両14の外部の環境のどの部分に運転者12が注目しているのかを追跡するための別の種類の追跡デバイスを備える。例示的な追跡デバイス20は、運転者の目または頭部の画像を撮影するためのカメラ、運転者の目または頭部を追跡するための発光および光検出システム、ならびに赤外線カメラから受信されたデータに基づいて、カメラによって撮影された画像に基づいて、および運転者の目または頭部の座標を判定する際の補助となる位置座標ユニットに基づいて、運転者の目または頭部の位置を処理、判定、保存、および追跡するための追跡アルゴリズムを実装するためのプロセッサを備えてもよい。例示的な追跡デバイス20には、http://www.smarteyecorporation.com(参照により、本明細書に組み込まれる)において参照される、Smarteye Corporationによって作製される全ての追跡デバイスが含まれる。米国特許第6,578,962号および第6,758,563号(参照により、本明細書に組み込まれる)は、システム10によって使用されてもよいさらなる例示的な追跡デバイス20について記載している。さらに、http://en.wikipedia.org/wiki/Eye_trackingに記載されるような他の追跡デバイスも、本システムによって使用されてもよく、また、参照により本明細書に組み込まれる。他の実施形態において、さまざまな追跡デバイス20が、車両14の外部の環境のどの部分に運転者12が注目しているのかを判定するために利用されてもよい。
プロセッサ22は、取得画像を処理するための1つ以上のプロセッサを備える。プロセッサ22は、1つ以上のコンピュータを含んでもよい。一実施形態において、プロセッサ22は、運転者12が注目していなかった画像の部分を排除する一方で、無差別に取得された画像を車両14の運転者12が注目していた画像の部分のみに絞り込むために、追跡デバイス20を使用して、画像取得デバイス18によって取得された車両14の外部の環境の無差別に取得された画像を処理する。別の実施形態において、プロセッサ22は、追跡デバイス20から受信されたデータを使用して、車両14の外部の環境のどの部分に運転者12が注目しているのかを処理し、次いで、画像取得デバイス18に、運転者12が注目していない画像内の物体を取得することなく、運転者12が注目している車両14の外部の環境の部分の画像のみを取得するよう指示を与える。一実施形態において、プロセッサ22は、取得画像に含まれる言語を第2の言語に翻訳するように構成される。例えば、プロセッサ22は、車両14の運転者12が視認していた標識、道路標識、または他の物体の取得画像に含まれる言語を第2の言語に翻訳してもよい。別の実施形態において、プロセッサ22は、取得画像に基づいて地点情報を判定するように構成される。例えば、プロセッサ22は、車両14の運転者12が視認していた標識、道路標識、または他の物体の取得画像に基づいて地点情報を判定してもよい。地点情報は、地点の位置、地点の名称、車両14が地点から離れている距離、地点に位置する場所、製品、もしくはサービスの種類、または他の種類の地点情報を含んでもよい。
プロセッサ22は、位置判定ユニット28と、処理ユニット30と、パターン認識ユニット32と、翻訳ユニット34と、データベースユニット36と、音声ユニット38とを備える。他の実施形態において、プロセッサ22は、上記ユニットのうちの1つ以上を含まなくてもよいか、またはプロセッサ22は、さらなる種類のユニットを含んでもよい。言及したプロセッサのユニットは、プロセッサ22内に含まれてもよい。他の実施形態において、言及したプロセッサ22のユニットのうちの1つ以上が、プロセッサ22の外部に含まれてもよいが、プロセッサ22と有線または無線で通信している。
位置判定ユニット28は、車両14の位置、方向、もしくは速度を判定するため、および/または車両14の運転者12が注目している標識、道路標識、または他の種類の物体等の、取得画像に含まれる運転者12が注目している車両14の外部の物体の位置を判定するための、1つ以上の位置判定ユニットを備える。位置判定ユニット28は、車両14の運転者12が注目している取得画像に含まれる物体に対する車両14の位置を判定する。例示的な位置判定ユニット28は、グローバルポジショニングシステム、方位磁石、速度計、加速度計、ジャイロメーター、あるいは車両14の位置、方向、もしくは速度を判定するため、および/または車両14の運転者12が注目している取得画像に含まれる物体の位置を判定するための別の種類の位置判定ユニットを備える。
処理ユニット30は、取得画像を含むシステム10によって収集された情報を処理するための1つ以上の処理ユニットを備える。処理ユニット30は、システム10の算術演算、論理、または入力/出力動作を行うために、プロセッサ22のメモリ内に保存されたプロセッサプログラムの命令を実行する。
パターン認識ユニット32は、パターンを認識および判定するための1つ以上のパターン認識ユニットを備える。パターン認識ユニット32は、取得画像内のパターンを認識してもよい。パターン認識ユニット32は、車両14の運転者12が視認している標識、道路標識、または他の種類の物体等の物体を含むパターンを認識してもよい。また、パターン認識ユニット32は、車両14の運転者12が視認している文字、記号、数字、言語、または別の種類のパターンを含むパターンも認識してもよい。
翻訳ユニット34は、車両14の運転者12が視認している物体内のパターンを1つの言語から第2の言語に翻訳するための1つ以上の翻訳ユニットを備える。翻訳ユニット34は、車両14の運転者12が視認している物体の取得画像内のパターンを分析することによってこれを行う。例えば、一実施形態において、翻訳ユニット34は、車両14の運転者12が視認している標識、道路標識、または別の物体の取得画像に含まれる言語を第2の言語に翻訳してもよい。翻訳ユニット34は、車両14の運転者12が視認している物体の判定された位置に基づいて、取得画像に含まれるパターンの言語を自動的に判定するように構成されてもよい。別の実施形態において、翻訳ユニット34は、その中に何の言語があるのかを判定するために、取得画像に含まれるパターンを処理してもよい。翻訳ユニット34は、取得画像に含まれるパターンを車両14の運転者12の第2の言語に自動的に翻訳するように構成されてもよい。他の実施形態において、車両14の運転者12は、入力デバイス16を使用して、画像のパターンが何の言語であるかをシステム10に入力してもよく、かつ/または車両14の運転者12の第2の言語が何であるかをシステム10に入力してもよい。
データベースユニット36は、データを受信、格納、またはシステム10に送信するための1つ以上のデータベースユニットを備える。データベースユニット36は、車両14の運転者12が視認している物体の取得画像を格納するためのデータベースを備えてもよい。データベースユニット36は、取得画像のパターンを判定するために、パターン認識ユニット31を支援するようにパターン認識のためのデータベースを備えてもよい。データベースユニット36は、取得画像のための地点を含む地点データベースを備えてもよい。データベースユニット36は、車両14の運転者12の音声を認識するための音声認識データベースを備えてもよい。
音声ユニット38は、テキストを音声に変換するため、または音声をテキストに変換するための1つ以上の音声ユニットを備える。音声ユニット38は、翻訳されたまたは翻訳されていない取得画像のパターンを音声に変換してもよい。また、音声ユニット38は、入力デバイス16を通してシステム10に入力された車両14の運転者12の音声をテキストに変換してもよい。
通信デバイス24は、システム10またはプロセッサ22が情報を送信または受信するために、車両14の外部のデバイスと通信するための1つ以上の通信デバイスを備える。通信デバイス24は、インターネット、通信衛星、システム10もしくはプロセッサ22にまたはそれらからの情報を通信、提供、または受信するための外部通信または情報システム、システム10またはプロセッサ22がアクセスするかまたはダウンロードする情報を含む外部データベース、あるいは別の種類の外部デバイス等の、車両14の外にある外部デバイスと通信してもよい。通信デバイス24は、通信目的のあらゆる種類の信号を利用してもよい。
出力デバイス26は、車両14の運転者12に情報を出力するための1つ以上の出力デバイスを備える。一実施形態において、出力された情報は、取得画像の翻訳された言語を含む。別の実施形態において、出力された情報は、取得画像に基づいて判定された地点情報を含む。出力デバイス26は、車両14の運転者12に出力された情報を視覚的に表示するための画像表示部を備えてもよい。出力デバイス26は、出力された情報を車両14の運転者12に聴覚的に出力するためのスピーカー等の聴覚デバイスをさらに備えてもよい。
ナビゲーションシステム27は、運転者12が車両14を操縦する際に補助するためのナビゲーション情報を車両14の運転者12に提供するための1つ以上のナビゲーションシステムを備える。ナビゲーションシステム27は、プロセッサ22の一部を含んでいてもよく、またはプロセッサ22の外部にあって、プロセッサ22と有線または無線で通信していてもよい。ナビゲーションシステム27は、システム10によって出力された翻訳された第2の言語に基づいて、運転者12がある位置まで車両14を操縦する際に補助してもよい。また、ナビゲーションシステム27は、運転者12がシステム10によって識別された地点まで車両14を操縦する際にも補助してもよい。ナビゲーションシステム27は、システム10のあらゆる構成要素を使用して、車両14の運転者12にビデオまたは聴覚による命令を提供することができる。ナビゲーションシステム27は、車両14の運転者12をある位置まで誘導するためのグローバルポジショニングシステムまたは他の種類のナビゲーションシステムを備えてもよい。
図2は、図1のシステム10を利用して車両14を運転している運転者12の一実施形態の側面図を示す。追跡デバイス20は、運転者の視線42において、車両14の外部にあるどの物体40に運転者12が注目しているかを判定するために、運転者の焦点を追跡している。画像取得デバイス18は、車両14の外部の環境44の画像を無差別に取得する(運転者12が注目している物体40を取得することを含む)。システム10は、取得画像を処理しており、取得画像を運転者12が注目している物体40のみに削減している。システム10は、車両14に対してどこに物体40が位置しているかを判定している。システム10は、削減された取得画像内のパターンを認識している。システム10は、(1)認識されたパターンに含まれる言語を第2の言語に翻訳しているか、または(2)認識されたパターンに基づいて地点情報を判定しているかのいずれかである。システム10は、(1)認識されたパターンの翻訳された第2の言語、または(2)認識されたパターンに基づいて判定された地点情報のいずれかを、視覚的にまたは聴覚的に運転者12に出力している。
図3は、車両の運転者に情報を提供するための方法50の一実施形態のフローチャートを示す。ステップ52において、画像取得デバイスは、車両の外部の環境の画像を取得する。取得画像は、車両の運転者が視認または注目している物体を含む。この物体は、車両の外部の標識、道路標識、または別の種類の物体を含んでもよい。一実施形態において、ステップ52の間に、画像取得デバイスは、車両の外部の環境の画像を無差別に取得する。
ステップ54において、追跡デバイスは、運転者が視認または注目している車両の外部の物体を判定する。別の実施形態において、ステップ54は、ステップ52の前に行われ、画像取得デバイスは、運転者が視認していないかまたは注目していない環境の部分を取得することなく、追跡デバイスから受信されたデータを処理することによって、運転者が視認しているかまたは注目している車両の外部の環境の物体のみの画像を取得する。
ステップ56において、少なくとも1つのプロセッサは、取得画像を処理し、(1)運転者が視認している物体の取得画像に含まれる言語を第2の言語に翻訳するか、または(2)運転手が視認している物体の取得画像に基づいて地点情報を判定するか、のうちの少なくとも1つを行う。地点情報は、地点の位置、地点の名称、車両が地点から離れている距離、地点に位置する場所、製品、もしくはサービスの種類、または他の種類の地点情報を含んでいてもよい。ステップ56は、パターン認識ユニットを使用して、車両の運転者が視認している取得画像内の物体を認識することを含んでもよい。ステップ56は、グローバルポジショニングシステムまたは他の種類の位置判定ユニット等の位置判定ユニットを使用して、取得画像内の物体の位置または車両の位置のうちの少なくとも1つを判定することをさらに含んでもよい。一実施形態において、ステップ56の間に、少なくとも1つのプロセッサが、取得画像を運転者が視認または注目している物体のみに絞り込み、取得画像の他の部分を排除する。別の実施形態において、方法がステップ56に達する時には、画像取得デバイスが、追跡デバイスから受信したデータを処理することによって、運転者が視認または注目している車両の外部の環境の物体のみの画像を最初に取得することに起因して、取得画像は、既に運転者が視認または注目している物体のみに絞り込まれている。
ステップ58において、出力デバイスは、(1)運転者が視認している物体の取得画像の翻訳された言語を含む第2の言語、または、(2)運転者が視認している物体の取得画像に基づいて判定された地点情報のうちの少なくとも1つを出力する。ステップ58は、出力デバイスによって、画像表示部に情報を出力するか、または聴覚デバイスを使用して情報を出力することを含んでもよい。ステップ60において、ナビゲーションシステムが、車両をナビゲートするために使用される。ステップ60は、ナビゲーションシステムによって、出力された情報に基づいて車両をナビゲートすることを含んでもよい。
本開示の1つ以上の実施形態は、運転者が注目している車両の外部の物体に自動的に焦点を合わせ、物体の翻訳された言語、または物体に関する地点情報を運転者に自動的に出力することによって、既存の技術の1つ以上の課題を克服する場合がある。これは、時間および安全性における対応する利点により、結果的に車両の運転をより容易にする場合がある。
当然のことながら、上記は、本開示の例示的な実施形態に関するものであって、以下の特許請求の範囲に記載される本開示の主旨および範囲から逸脱することなく変更が行われる場合があることを理解されたい。

Claims (20)

  1. 車両の運転者に情報を提供するためのシステムであって、
    車両の外部の環境の画像を取得するための画像取得デバイスと、
    前記車両の運転者が視認している物体を判定するための頭部または視線追跡装置と、
    前記取得画像を処理し、(1)前記運転者が視認している前記物体の前記取得画像に含まれる言語を第2の言語に翻訳すること、または(2)前記運転者が視認している前記物体の前記取得画像に基づいて地点情報を判定することのうちの少なくとも1つを行うための、少なくとも1つのプロセッサと、
    (1)前記運転者が視認している前記物体の前記取得画像の前記翻訳された言語を含む前記第2の言語、または(2)前記運転者が視認している前記物体の前記取得画像に基づいて判定された前記地点情報のうちの少なくとも1つを含む情報を出力するための、出力デバイスと、を備えるシステム。
  2. 前記少なくとも1つのプロセッサは、前記取得画像を処理し、かつ前記運転者が視認している前記物体の前記取得画像に含まれる前記言語を前記第2の言語に翻訳するためのものであり、前記出力デバイスは、前記運転者が視認している前記物体の前記取得画像の前記翻訳された言語を含む前記第2の言語を出力するためのものである、請求項1に記載のシステム。
  3. 前記少なくとも1つのプロセッサは、前記取得画像を処理し、かつ前記運転者が視認している前記物体の前記取得画像に基づいて前記地点情報を判定するためのものであり、前記出力デバイスは、前記運転者が視認している前記物体の前記取得画像に基づいて前記判定された地点情報を出力するためのものである、請求項1に記載のシステム。
  4. 前記地点情報は、前記地点の位置、前記地点の名称、前記車両が前記地点から離れている距離、または前記地点に位置する場所、製品、もしくはサービスの種類のうちの少なくとも1つを含む、請求項3に記載のシステム。
  5. 前記物体の位置または前記車両の位置のうちの少なくとも1つを判定するための位置判定ユニットをさらに備える、請求項1に記載のシステム。
  6. 前記位置判定ユニットは、グローバルポジショニングシステムを備える、請求項5に記載のシステム。
  7. 前記車両の前記運転者が視認している前記物体を認識するためのパターン認識ユニットをさらに備える、請求項1に記載のシステム。
  8. 前記出力デバイスは、前記出力された情報を視覚的に表示するための表示部を備える、請求項1に記載のシステム。
  9. 前記出力デバイスは、前記出力された情報を聴覚的に出力するための聴覚デバイスを備える、請求項1に記載のシステム。
  10. 前記運転者が前記車両を操縦する際に補助するためのナビゲーションシステムをさらに備える、請求項1に記載のシステム。
  11. 車両の運転者に情報を提供するための方法であって、
    画像取得デバイスを用いて車両の外部の環境の画像を取得するステップと、
    頭部または視線追跡装置を用いて前記車両の運転者が視認している物体を判定するステップと、
    少なくとも1つのプロセッサを用いて前記取得画像を処理し、(1)前記運転者が視認している前記物体の前記取得画像に含まれる言語を第2の言語に翻訳するステップ、または(2)前記運転者が視認している前記物体の前記取得画像に基づいて地点情報を判定することのうちの少なくとも1つを行うステップと、
    出力デバイスを用いて、(1)前記運転者が視認している前記物体の前記取得画像の前記翻訳された言語を含む前記第2の言語、または(2)前記運転者が視認している前記物体の前記取得画像に基づいて前記判定された地点情報のうちの少なくとも1つを含む情報を出力するステップと、を含む方法。
  12. 前記処理するステップは、前記少なくとも1つのプロセッサが、前記取得画像を処理し、前記運転者が視認している前記物体の前記取得画像に含まれる前記言語を前記第2の言語に翻訳することを含み、前記出力するステップは、前記出力デバイスが、前記運転者が視認している前記物体の前記取得画像の前記翻訳された言語を含む前記第2の言語を出力することを含む、請求項11に記載の方法。
  13. 前記処理するステップは、前記少なくとも1つのプロセッサが、前記取得画像を処理し、前記運転者が視認している前記物体の前記取得画像に基づいて前記地点情報を判定することを含み、前記出力するステップは、前記出力デバイスが、前記運転者が視認している前記物体の前記取得画像に基づいて前記判定された地点情報を出力することを含む、請求項11に記載の方法。
  14. 前記地点情報は、前記地点の位置、前記地点の名称、前記車両が前記地点から離れている距離、または前記地点に位置する場所、製品、もしくはサービスの種類のうちの少なくとも1つを含む、請求項13に記載の方法。
  15. 位置判定ユニットを使用して、前記物体の位置または前記車両の位置のうちの少なくとも1つを判定するステップをさらに含む、請求項11に記載の方法。
  16. 前記位置判定ユニットは、グローバルポジショニングシステムを備える、請求項15に記載の方法。
  17. パターン認識ユニットを使用して、前記車両の前記運転者が視認している前記物体を認識するステップをさらに含む、請求項11に記載の方法。
  18. 前記出力デバイスは、表示部を備え、前記出力するステップは、前記出力された情報を前記表示部上に視覚的に表示することを含む、請求項11に記載の方法。
  19. 前記出力デバイスは、聴覚デバイスを備え、前記出力するステップは、前記聴覚デバイスを使用して、前記出力された情報を聴覚的に出力することを含む、請求項11に記載の方法。
  20. 前記車両をナビゲートするためにナビゲーションシステムを使用するステップをさらに含む、請求項11に記載の方法。
JP2012209532A 2011-09-23 2012-09-24 運転者が注目している外部の物体に関する情報を提供するための車両システムおよび方法 Pending JP2013068620A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/241,904 US9421866B2 (en) 2011-09-23 2011-09-23 Vehicle system and method for providing information regarding an external item a driver is focusing on
US13/241,904 2011-09-23

Publications (1)

Publication Number Publication Date
JP2013068620A true JP2013068620A (ja) 2013-04-18

Family

ID=47828048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012209532A Pending JP2013068620A (ja) 2011-09-23 2012-09-24 運転者が注目している外部の物体に関する情報を提供するための車両システムおよび方法

Country Status (3)

Country Link
US (1) US9421866B2 (ja)
JP (1) JP2013068620A (ja)
DE (1) DE102012108732A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509065A (ja) * 2014-02-21 2017-03-30 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited 異なる言語の翻訳を用いる車両用画像キャプチャーシステム
WO2021162040A1 (ja) * 2020-02-13 2021-08-19 株式会社デンソー 車両用表示制御装置、及び表示方法
JP2021179342A (ja) * 2020-05-12 2021-11-18 株式会社エイチアイ 情報処理方法、プログラム及び車載装置
US11440408B2 (en) 2017-11-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device and text providing method therefor

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2013MU02083A (ja) * 2013-06-19 2015-07-10 Tata Consultancy Services Ltd
US20150015706A1 (en) * 2013-07-09 2015-01-15 Honda Motor Co., Ltd. Vehicle exterior image capturing device
DE202013007354U1 (de) * 2013-08-14 2014-11-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Computerprogrammprodukt und Verkehrszeichen-Erkennungssystem für ein Fahrzeug
US10067341B1 (en) 2014-02-04 2018-09-04 Intelligent Technologies International, Inc. Enhanced heads-up display system
GB2523351B (en) * 2014-02-21 2017-05-10 Jaguar Land Rover Ltd Automatic recognition and prioritised output of roadside information
US9547798B2 (en) * 2014-05-20 2017-01-17 State Farm Mutual Automobile Insurance Company Gaze tracking for a vehicle operator
US9633626B2 (en) * 2015-03-12 2017-04-25 Visteon Global Technologies, Inc. Adjusting an electronic display based on gaze tracking
DE102016221983A1 (de) 2016-11-09 2018-05-24 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm und System zum Informieren zumindest eines Insassen eines Fahrzeugs über ein Objekt oder einen Bereich außerhalb des Fahrzeugs
EP3626585A1 (en) * 2018-09-21 2020-03-25 Visteon Global Technologies, Inc. Driver assistance system and method for displaying traffic information
DE102018222378A1 (de) * 2018-12-20 2020-06-25 Robert Bosch Gmbh Vorrichtung und Verfahren Steuerung der Ausgabe von Fahrerinformation und zur Aufrechterhaltung der Aufmerksamkeit eines Fahrers eines automatisierten Fahrzeugs
US11437018B2 (en) 2020-03-13 2022-09-06 Pony Ai Inc. Vehicle output based on local language/dialect

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207732A (ja) * 2001-01-10 2002-07-26 Hiroshi Ono 翻訳装置
JP2003323693A (ja) * 2002-04-30 2003-11-14 Matsushita Electric Ind Co Ltd 道端の標識およびオブジェクトを自動的に翻訳する車両ナビゲーションシステム
JP2006242859A (ja) * 2005-03-04 2006-09-14 Denso Corp 車両用情報表示装置
JP2006277376A (ja) * 2005-03-29 2006-10-12 Jfe Steel Kk 交通違反警告装置及びシステム
JP2007263931A (ja) * 2006-03-30 2007-10-11 Denso It Laboratory Inc ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム
JP2008039596A (ja) * 2006-08-07 2008-02-21 Pioneer Electronic Corp 情報提供装置、情報提供方法、情報提供プログラム、および記録媒体
JP4084550B2 (ja) * 2001-07-05 2008-04-30 アルパイン株式会社 ナビゲーション装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6758563B2 (en) 1999-12-30 2004-07-06 Nokia Corporation Eye-gaze tracking
US7031553B2 (en) 2000-09-22 2006-04-18 Sri International Method and apparatus for recognizing text in an image sequence of scene imagery
US6823084B2 (en) 2000-09-22 2004-11-23 Sri International Method and apparatus for portably recognizing text in an image sequence of scene imagery
US7738706B2 (en) 2000-09-22 2010-06-15 Sri International Method and apparatus for recognition of symbols in images of three-dimensional scenes
US6578962B1 (en) 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
ATE382848T1 (de) * 2003-08-14 2008-01-15 Harman Becker Automotive Sys Computergestütztes system und verfahren zur informationsausgabe an einen fahrer eines fahrzeuges
DE10344120A1 (de) 2003-09-24 2005-04-21 Daimler Chrysler Ag Vorrichtung und Verfahren zur Darstellung von Fahrhinweisen
EP1938249A2 (en) 2005-09-02 2008-07-02 Blindsight, Inc. A system and method for detecting text in real-world color images
US7640104B2 (en) 2006-02-27 2009-12-29 Xanavi Informatics Corporation Vehicle navigation system and method for displaying waypoint information
US9222797B2 (en) 2007-04-17 2015-12-29 Esther Abramovich Ettinger Device, system and method of contact-based routing and guidance
US8930135B2 (en) 2007-04-17 2015-01-06 Esther Abramovich Ettinger Device, system and method of landmark-based routing and guidance
US8494215B2 (en) * 2009-03-05 2013-07-23 Microsoft Corporation Augmenting a field of view in connection with vision-tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207732A (ja) * 2001-01-10 2002-07-26 Hiroshi Ono 翻訳装置
JP4084550B2 (ja) * 2001-07-05 2008-04-30 アルパイン株式会社 ナビゲーション装置
JP2003323693A (ja) * 2002-04-30 2003-11-14 Matsushita Electric Ind Co Ltd 道端の標識およびオブジェクトを自動的に翻訳する車両ナビゲーションシステム
JP2006242859A (ja) * 2005-03-04 2006-09-14 Denso Corp 車両用情報表示装置
JP2006277376A (ja) * 2005-03-29 2006-10-12 Jfe Steel Kk 交通違反警告装置及びシステム
JP2007263931A (ja) * 2006-03-30 2007-10-11 Denso It Laboratory Inc ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム
JP2008039596A (ja) * 2006-08-07 2008-02-21 Pioneer Electronic Corp 情報提供装置、情報提供方法、情報提供プログラム、および記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200600635012; 小野智久・浮田宗伯・木戸出正継: '注視点履歴と視野画像系列からの物体の領域抽出' 電子情報通信学会技術研究報告 PRMU2004-223 Vol.104 No.741, 20050310, pp.67-72, 社団法人電子情報通信学会 *
JPN6014049917; 小野智久・浮田宗伯・木戸出正継: '注視点履歴と視野画像系列からの物体の領域抽出' 電子情報通信学会技術研究報告 PRMU2004-223 Vol.104 No.741, 20050310, pp.67-72, 社団法人電子情報通信学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509065A (ja) * 2014-02-21 2017-03-30 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited 異なる言語の翻訳を用いる車両用画像キャプチャーシステム
US11440408B2 (en) 2017-11-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device and text providing method therefor
WO2021162040A1 (ja) * 2020-02-13 2021-08-19 株式会社デンソー 車両用表示制御装置、及び表示方法
JP2021179342A (ja) * 2020-05-12 2021-11-18 株式会社エイチアイ 情報処理方法、プログラム及び車載装置

Also Published As

Publication number Publication date
US20130076883A1 (en) 2013-03-28
DE102012108732A1 (de) 2013-03-28
US9421866B2 (en) 2016-08-23

Similar Documents

Publication Publication Date Title
JP2013068620A (ja) 運転者が注目している外部の物体に関する情報を提供するための車両システムおよび方法
JP6010692B2 (ja) 発話コマンド認識方法及び発話コマンド認識処理システム
CN104252229B (zh) 用于通过跟踪驾驶员眼睛视线来检测驾驶员是否对广告感兴趣的设备和方法
US10943400B2 (en) Multimodal user interface for a vehicle
US10339711B2 (en) System and method for providing augmented reality based directions based on verbal and gestural cues
US9977243B2 (en) Method for executing vehicle function using wearable device and vehicle for carrying out the same
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
US9613459B2 (en) System and method for in-vehicle interaction
US20150348550A1 (en) Speech-to-text input method and system combining gaze tracking technology
CN109791737A (zh) 行驶辅助装置以及计算机程序
US20130155237A1 (en) Interacting with a mobile device within a vehicle using gestures
US20130170710A1 (en) Method for supporting a user of a motor vehicle in operating the vehicle and portable communication device
JP7345683B2 (ja) シーン認識対話を行うためのシステム
US10885788B2 (en) Notification control apparatus and method for controlling notification
JP2017111469A (ja) 道路標識視認判定システム、道路標識視認判定方法、及びプログラム
JP2015517149A (ja) ユーザ端末装置及びその制御方法
US20180244286A1 (en) Driving assistance apparatus
US20160335051A1 (en) Speech recognition device, system and method
JP2015041197A (ja) 表示制御装置
US20200062173A1 (en) Notification control apparatus and method for controlling notification
JP2016090515A (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体
JP4771047B2 (ja) 車両用情報表示システム
JP2019010919A (ja) 走行支援装置及びコンピュータプログラム
JP6387287B2 (ja) 不明事項解消処理システム
US20200265252A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140918

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141203