JP2019109245A - 視覚強化ナビゲーション - Google Patents

視覚強化ナビゲーション Download PDF

Info

Publication number
JP2019109245A
JP2019109245A JP2019026075A JP2019026075A JP2019109245A JP 2019109245 A JP2019109245 A JP 2019109245A JP 2019026075 A JP2019026075 A JP 2019026075A JP 2019026075 A JP2019026075 A JP 2019026075A JP 2019109245 A JP2019109245 A JP 2019109245A
Authority
JP
Japan
Prior art keywords
navigation system
user
vehicle
camera
instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019026075A
Other languages
English (en)
Other versions
JP6763448B2 (ja
Inventor
シュタイン,ギデオン
Stein Gideon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobileye Vision Technologies Ltd
Original Assignee
Mobileye Vision Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobileye Vision Technologies Ltd filed Critical Mobileye Vision Technologies Ltd
Publication of JP2019109245A publication Critical patent/JP2019109245A/ja
Application granted granted Critical
Publication of JP6763448B2 publication Critical patent/JP6763448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects

Abstract

【課題】ナビゲーションシステムによって提供される指示に視覚情報を追加する。【解決手段】ナビゲーションシステムは、ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、且つ現在位置と異なる目的地を決定することを行うように構成された少なくとも1つの処理装置を含む。システムは、1つ又は複数の画像取得装置から、ナビゲーションシステムのユーザの環境を表す複数の画像を取得し、且つ複数の画像から、環境における少なくとも1つの対象物に関連する視覚情報を導き出しても良い。システムは、現在位置から目的地へナビゲートするための1つ又は複数の指示を決定しても良く、1つ又は複数の指示は、複数の画像から導き出された視覚情報への少なくとも1つの言及を含む。システムは、1つ又は複数の指示をユーザに送っても良い。【選択図】図2

Description

関連出願の相互参照
本出願は、2013年6月13日出願の米国仮出願第61/834,488号の優先権を米国特許法第119条の下で主張し、その米国仮出願は、その全体において参照により本明細書に援用される。
技術分野
本開示は、一般に、ナビゲーションシステムに関し、特に、1つ又は複数の画像取得装置から取得された画像情報に基づいて決定された視覚情報を用いて、ナビゲーション指示を強化するための装置及び技術に関する。
背景
車両用途で用いられるものを含むGPSベースのナビゲーションシステムは、有用であり一般的である。これらのタイプのナビゲーションシステムに対するユーザインターフェースは、引き続き改善され、今や、ソーシャルネットワークからの情報及び交通管制システムからのリアルタイム情報を受信することができる。しかしながら、他の改善が、これらのシステムの機能を更に向上させ、且つそれらをよりユーザフレンドリにさえすることが可能である。例えば、現在のシステムにおいて、可聴ナビゲーション指示が、地図データから導き出された情報に基づいて提供されるが、しかしこれら指示は、ナビゲーションシステムのユーザが実際に見ることができるものを考慮しない。従って、これらの種類のシステムは、限られた情報だけをユーザに提供することができる。
撮像システムによって取得された視覚情報などの他の種類の情報を含むことは、ナビゲーションシステムをよりユーザフレンドリにすることが可能である。更に、ナビゲーションシステムによって提供される指示に視覚情報を追加することは、これらのシステムが、ユーザにとってより自然な方法で機能できるようにし得る。例えば、撮像システムから導き出された視覚情報は、車両運転手へと車両乗客に方向を提供させるのに似た方法でユーザに送られるコンテキスト認識情報に翻訳されても良い。例えば、「100mで左に曲がる」又は「次の交差点で左に曲がる」などの単純な指示の代わりに、乗客は、「赤い自動車が曲がったところで左に曲がる」又は「あの黄色の日除けを越えて左に曲がる」と言っても良い。
概要
車両、ユーザ等に関連する環境に関係する画像データから導き出された視覚情報に関連する視覚キューを含むために、標準ナビゲーション指示を強化するか、補足するか、置き換えるか又はそうでなければ修正するためのシステム及び方法を含む実施形態が本明細書で開示される。
開示される実施形態と一致して、ナビゲーションシステムは、ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、且つ現在位置と異なる目的地を決定することを行うように構成された少なくとも1つの処理装置を含んでも良い。ナビゲーションシステムはまた、1つ又は複数の画像取得装置から、ナビゲーションシステムのユーザの環境を表す複数の画像を取得し、且つ複数の画像から、環境における少なくとも1つの対象物に関連する視覚情報を導き出しても良い。システムはまた、現在位置から目的地へナビゲートするための1つ又は複数の指示を決定しても良く、1つ又は複数の指示は、複数の画像から導き出された視覚情報への少なくとも1つの言及を含む。システムはまた、1つ又は複数の指示をユーザに送ることができる。
開示される実施形態と一致して、車両は、車両の位置を表す出力を提供するように構成されたGPSセンサを含んでも良い。車両はまた、車両外部の環境の複数の画像を取得するように構成された1つ又は複数の画像取得装置を含んでも良い。車両は、ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、且つ現在位置と異なる目的地を決定することを行うように構成された少なくとも1つの処理装置を含んでも良いナビゲーションシステムを含んでも良い。ナビゲーションシステムはまた、1つ又は複数の画像取得装置から、ナビゲーションシステムのユーザの環境を表す複数の画像を取得し、且つ複数の画像から、環境における少なくとも1つの対象物に関連する視覚情報を導き出しても良い。システムはまた、現在位置から目的地へナビゲートするための1つ又は複数の指示を決定しても良く、1つ又は複数の指示は、複数の画像から導き出された視覚情報への少なくとも1つの言及を含む。システムはまた、1つ又は複数の指示をユーザに送ることができる。
開示される実施形態に一致して、ナビゲーション情報を生成し送るための方法は、1つ又は複数の位置センサの出力に基づいて現在位置を決定するために、1つ又は複数の処理装置を用いることと、現在位置と異なる目的地を決定することと、1つ又は複数の画像取得装置から、個人を取り囲む環境を表す複数の画像を取得することと、環境における少なくとも1つの対象物に関連する視覚情報を複数の画像から導き出すために、1つ又は複数の処理装置を用いることと、現在位置から目的地へナビゲートするための1つ又は複数の指示を決定することであって、1つ又は複数の指示が、複数の画像から導き出された視覚情報への少なくとも1つの言及を含むことと、1つ又は複数の指示を個人に送ることと、を含んでも良い。
前述の概要及び以下の詳細な説明の両方が、単に例示的で、説明であり、請求項を限定するものでないことを理解されたい。
添付の図面は、本開示に組み込まれ、その一部を構成し、様々な開示される実施形態を示す。
開示される実施形態と一致する例示的なナビゲーションシステムの図表示である。 開示される実施形態と一致するナビゲーションシステムを含む例示的な車両の図表示である。 開示される実施形態と一致するナビゲーションシステムを含む車両の内部の図表示である。 開示される実施形態と一致するナビゲーションシステムを含む例示的なモバイル装置の図表示を提供する。 開示される実施形態と一致するナビゲーションシステムを含む例示的なモバイル装置の図表示を提供する。 開示される実施形態と一致するナビゲーションシステムを含む例示的なウェアラブル装置の図表示を提供する。 開示される実施形態と一致するナビゲーションシステムを含む例示的なウェアラブル装置の図表示を提供する。
詳細な説明
以下の詳細な説明は、添付の図面を参照する。図面及び以下の説明において、可能な限り、同じ参照番号が、同じ又は類似の部分を指すために用いられる。幾つかの実例的な実施形態が、本明細書で説明されるが、修正、適応及び他の実装形態が可能である。例えば、置き換え、追加又は修正が、図面に示されているコンポーネントに対してなされても良く、本明細書で説明される実例的な方法は、開示される方法に対してステップを置き換え、再整理し、削除し又は追加することによって、修正されても良い。従って、以下の詳細な説明は、開示される実施形態を限定するものではない。代わりに、適切な範囲は、添付の請求項によって定義される。
図1は、例示的な開示される実施形態と一致するナビゲーションシステム100のブロック図表示を提供する。ナビゲーションシステム100は、特定の実装形態の要件に依存する様々なコンポーネントを含んでも良い。幾つかの実施形態において、ナビゲーションシステム100は、処理ユニット110、画像取得ユニット120、位置センサ130、1つ又は複数のメモリユニット140、150、地図データ・データベース160、及びユーザインターフェース170を含んでも良い。処理ユニット110は、1つ又は複数の処理装置を含んでも良い。幾つかの実施形態において、処理ユニット110は、アプリケーションプロセッサ180、画像プロセッサ190、又は任意の他の適切な処理装置を含んでも良い。同様に、画像取得ユニット120は、特定のアプリケーションの要件に依存して、任意の数の画像取得装置及びコンポーネントを含んでも良い。幾つかの実施形態において、画像取得ユニット120は、カメラ122、カメラ124及びカメラ126などの1つ又は複数のカメラを含んでも良い。
アプリケーションプロセッサ180及び画像プロセッサ190の両方とも、様々なタイプの処理装置を含んでも良い。例えば、アプリケーションプロセッサ180及び画像プロセッサ190のどちらか又は両方は、マイクロプロセッサ、プリプロセッサ(画像プリプロセッサなど)、グラフィックスプロセッサ、中央処理ユニット(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又はアプリケーションを実行することに、且つ画像処理及び分析に適している任意の他のタイプの装置を含んでも良い。幾つかの実施形態において、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、任意のタイプのシングル又はマルチコアプロセッサ、モバイル装置マイクロコントローラ、中央処理ユニット等を含んでも良い。例えば、Intel(登録商標)、AMD(登録商標)などの製造業者から入手可能なプロセッサを含む様々な処理装置が、用いられても良く、且つ様々なアーキテクチャ(例えば、x86プロセッサ、ARM(登録商標)等)を含んでも良い。
幾つかの実施形態において、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、Mobileye(登録商標)から入手可能なプロセッサチップのEyeQシリーズのいずれかを含んでも良い。これらのプロセッサ設計は、それぞれ、ローカルメモリ及び指示セットを備えた複数の処理ユニットを含む。かかるプロセッサは、複数の画像センサから画像データを受信するためのビデオ入力部を含んでも良く、且つまたビデオ出力機能を含んでも良い。一例において、EyeQ2(登録商標)は、332Mhzで動作する90nm−マイクロメートル技術を用いる。EyeQ2(登録商標)アーキテクチャは、2つの浮動小数点ハイパースレッド32ビットRISC CPU(MIPS32(登録商標)34K(登録商標)コア)、5つのビジョンコンピューティングエンジン(VCE)、3つのベクトルマイクロコードプロセッサ(VMP(登録商標))、Denali64ビットモバイルDDRコントローラ、128ビット内部Sonics Interconnect、デュアル16ビットビデオ入力及び18ビットビデオ出力コントローラ、16チャネルDMA、及び幾つかの周辺装置からなる。MIPS34K CPUは、5つのVCE、3つのVMPTM及びDMA、第2のMIPS34K CPU、並びにマルチチャンネルDMAと同様に、他の周辺装置を管理する。5つのVCE、3つのVMP(登録商標)、及びMIPS34K CPUは、多機能バンドルアプリケーションによって要求される集中的な視覚計算を実行することができる。
図1は、処理ユニット110に含まれる2つの別個の処理装置を示すが、より多数又は少数の処理装置が用いられても良い。例えば、幾つかの実施形態において、アプリケーションプロセッサ180及び画像プロセッサ190のタスクを達成するために、単一の処理装置が用いられても良い。他の実施形態において、これらのタスクは、2つを超える処理装置によって実行されても良い。
各メモリ140、150は、プロセッサ(例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190)によって実行された場合に、ナビゲーションシステム100の様々な態様の動作を制御し得るソフトウェア命令を含んでも良い。これらのメモリユニットは、様々なデータベース及び画像処理ソフトウェアを含んでも良い。メモリユニットは、ランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光記憶装置、テープ記憶装置、着脱可能記憶装置、及び/又は任意の他のタイプの記憶装置を含んでも良い。幾つかの実施形態において、メモリユニット140、150は、アプリケーションプロセッサ180及び/又は画像プロセッサ190とは別個であっても良い。他の実施形態において、これらのメモリユニットは、アプリケーションプロセッサ180及び/又は画像プロセッサ190に統合されても良い。
位置センサ130は、ナビゲーションシステム100の少なくとも1つのコンポーネントに関連する位置を決定するのに適した任意のタイプの装置を含んでも良い。幾つかの実施形態において、位置センサ130は、GPS受信機を含んでも良い。かかる受信機は、全地球測位システム衛星によってブロードキャストされた信号を処理することによって、ユーザの位置及び速度を決定することができる。位置センサ130からの位置情報は、アプリケーションプロセッサ180及び/又は画像プロセッサ190にとって利用可能にされても良い。
ユーザインターフェース170は、ナビゲーションシステム100の1人又は複数のユーザに情報を提供するために、又はそれらのユーザからの入力を受信するために適した任意の装置を含んでも良い。幾つかの実施形態において、ユーザインターフェース170は、例えば、タッチスクリーン、マイクロホン、キーボード、ポインタ装置、トラックホイール、カメラ、ノブ、ボタン等を含むユーザ入力装置を含んでも良い。かかる入力装置を用いて、ユーザは、指示又は情報をタイプすること、音声コマンドを提供すること、ボタン、ポインタ若しくは視標追跡機能を用いてスクリーン上のメニューオプションを選択することによって、又はナビゲーションシステム100に情報を伝達するための任意の他の適切な技術を介して、ナビゲーションシステム100に情報入力又はコマンドを提供することができ得る。
ユーザインターフェース170は、例えば、ユーザに情報を提供するか又はユーザから情報を受信するように、且つ例えばアプリケーションプロセッサ180による使用のためにその情報を処理するように構成された1つ又は複数の処理装置を装備しても良い。幾つかの実施形態において、かかる処理装置は、眼球運動を認識し追跡すること、音声コマンドを受信し解釈すること、タッチスクリーン上でなされたタッチ及び/又はジェスチャを認識し解釈すること、キーボード入力又はメニュー選択に応答すること等のための命令を実行しても良い。幾つかの実施形態において、ユーザインターフェース170は、処理情報をユーザに提供するためにディスプレイ、スピーカ、触覚装置、及び/又は任意の他の装置を含んでも良い。
地図データベース160は、ナビゲーションシステム100にとって有用な地図データを記憶するために任意のタイプのデータベースを含んでも良い。幾つかの実施形態において、地図データベース160は、道路、水域の特徴、地理的特徴、企業、興味のある地点、レストラン、ガソリンスタンドなどを含む様々な細目の位置に関するデータを基準座標系に含んでも良い。地図データベース160は、かかる細目の位置だけでなく、例えば記憶された特徴のいずれかに関連する名称を含む、これらの細目に関係する説明もまた記憶しても良い。幾つかの実施形態において、地図データベース160は、ナビゲーションシステム100の他のコンポーネントと物理的に一緒に位置しても良い。代替又は追加として、地図データベース160又はその一部は、ナビゲーションシステム100の他のコンポーネント(例えば処理ユニット110)に対して遠隔に位置しても良い。かかる実施形態において、地図データベース160からの情報は、有線又は無線データ接続を通じて(例えば、セルラーネットワーク及び/又はインターネット等を通じて)ネットワークにダウンロードされても良い。
カメラ122、124及び126は、それぞれ、環境からの少なくとも1つの画像を捕捉するのに適した任意のタイプの装置を含んでも良い。更に、任意の数のカメラが、画像プロセッサへの入力用の画像を取得するために用いられても良い。幾つかの実施形態は、単一のカメラだけを含んでも良く、一方で他の実施形態は、2台のカメラ、3台のカメラ、又は4台以上のカメラさえ含んでも良い。
ナビゲーションシステム100又はその様々なコンポーネントは、様々な異なるプラットフォームに組み込まれても良い。幾つかの実施形態において、ナビゲーションシステム100は、図2に示されているように、車両200に含まれても良い。例えば、車両200は、図1に関連して上記で説明されたように、ナビゲーションシステム100の処理ユニット110及び他のコンポーネントのいずれかを装備しても良い。幾つかの実施形態において、車両200は、単一のカメラだけを装備しても良いが、他の実施形態において、複数のカメラが用いられても良い。例えば、図2に示されているように、車両200のカメラ122、124のどちらかは、ADAS(先進運転支援システム)カメラセットの一部であっても良い。
画像取得ユニット120の一部として車両200に含まれるカメラは、任意の適切な位置に配置しても良い。幾つかの実施形態において、図2及び図3に示されているように、カメラ122は、バックミラーの近くに位置しても良い。この位置は、車両200の運転手の視線と類似の視線を提供し得、それは、何が運転手に見え、何が見えないかを決定する際に助けとなり得る。カメラ122は、バックミラーの近くの任意の位置に配置しても良いが、しかしミラーの運転手側にカメラ122を配置することは、運転手の視野及び/又は視線を表す画像を得る際に更に助けとなり得る。
画像取得ユニット120のカメラ用の他の位置もまた用いられても良い。例えば、カメラ124は、車両200のバンパー上又はその中に位置しても良い。かかる位置は、広視野を有するカメラ用に特に適切になり得る。バンパーに位置するカメラの視線は、運転手の視線と異なる可能性があり、従って、バンパーのカメラ及び運転手は、必ずしも同じ対象物を見るとは限らない可能性がある。
カメラに加えて、車両200は、ナビゲーションシステム100の様々な他のコンポーネントを含んでも良い。例えば、処理ユニット110は、車両のエンジン制御ユニット(ECU)と統合されて又はそれと別個に車両200に含まれても良い。車両200はまた、GPS受信機などの位置センサ130を装備されても良く、且つまた地図データベース160並びにメモリユニット140及び150を含んでも良い。
車両200はまた、車両200の運転手又は乗客と対話するためのユーザインターフェース170を含んでも良い。例えば、図3に示されているように、車両用途におけるユーザインターフェース170は、タッチスクリーン320、ノブ330、ボタン340、及びマイクロホン350を含んでも良い。幾つかの実施形態において、マイクロホン350は、カメラ122と同様に、バックミラー310に隣接して配置されても良い。車両用途において、ユーザインターフェース170はまた、1つ又は複数のスピーカ(例えば、車両オーディオシステムのスピーカ)を含んでも良い。
ナビゲーションシステム100の1つ又は複数のコンポーネントがまた、他のプラットフォームに含まれても良い。例えば、図4A及び4Bに示されているように、ナビゲーションシステム100のコンポーネントはまた、モバイル装置400に含まれても良く、モバイル装置400は、スマートフォン、タブレット等を含んでも良い。かかる実施形態において、アプリケーションプロセッサ180は、モバイル装置のアプリケーションプロセッサに対応しても良く、画像プロセッサ190は、モバイル装置のアプリケーションプロセッサと一緒に統合されるか、又はそれと別個に設けられても良い。車両用途と同様に、モバイル装置400は、メモリユニット140、150、位置センサ130(例えばGPSユニット)、及び地図データベース160を含んでも良く、それらは、モバイル装置400に含まれても良く、又は無線データ接続を介してアクセス可能であっても良い。
モバイル装置400はまた、ユーザインターフェース170の1つ又は複数のコンポーネントを含んでも良い。例えば、幾つかの実施形態において、モバイル装置400は、タッチスクリーン410、スピーカ430、及び/又はマイクロホン420を含んでも良い。モバイル装置400はまた、図4Bに示されているように、カメラ122などの1つ又は複数のカメラを含んでも良い。モバイル装置400に位置するカメラに加えて、モバイル装置400に関連する画像取得ユニット120もまた、モバイル装置400から離れて位置するカメラを含んでも良い。例えば、幾つかの実施形態において、モバイル装置400は、別の装置又はプラットフォームに関連する1つ又は複数のカメラ(例えば、車両200、又はモバイル装置400が通信し得る任意の他のプラットフォームに含まれるカメラ)から画像データを受信するように構成されても良い。かかる実施形態において、モバイル装置400は、有線又は無線データ接続を介して、遠隔に位置するカメラから画像データを受信しても良い。例えば、幾つかの実施形態において、モバイル装置400は、(例えば、ダッシュボード、フロントガラス等に配置された着脱可能な取り付け台を介して)車両200に装着されても良い。モバイル装置400は、車両400に含まれるコンポーネントと通信しても良い。幾つかの実施形態において、モバイル装置400は、(Bluetooth接続、又は他の無線若しくは有線接続を介して)画像情報、ナビゲーション指示等を受信するために、車両400上の1つ又は複数の処理装置と通信しても良い。次に、モバイル装置400は、未修正のナビゲーション指示の形で、情報をユーザに伝達しても良く、又はモバイル装置400は、車両200から受信された情報に基づいて、若しくはそれ自体の搭載システム(例えばGPS受信機等)からの読み取り値に基づいて作成される新しい若しくは強化されたナビゲーション指示を作成しても良い。このように、モバイル装置400は、図3に示されているように、車両ベースのユーザインターフェース170によって提供される情報を強化しても良く、又は車両ベースのユーザインターフェースとして若しくは車両ベースのインターフェースの代用として働いても良い。
図5A及び5Bに示されているように、ナビゲーションシステム100のコンポーネントはまた、ウェアラブル装置500に含まれても良く、ウェアラブル装置500は、リストユニット、眼鏡ユニット、ヘッドマウント型ユニット等を含んでも良い。かかる実施形態において、アプリケーションプロセッサ180は、ウェアラブル装置のアプリケーションプロセッサに対応しても良く、画像プロセッサ190は、ウェアラブル装置のアプリケーションプロセッサと一緒に統合されるか、又はそれと別個に設けられても良い。車両用途及びモバイル装置プラットフォームと同様に、ウェアラブル装置500は、メモリユニット140、150、位置センサ130(例えばGPSユニット)、及び地図データベース160を含んでも良く、それらは、ウェアラブル装置500に含まれても良く、又は無線データ接続を介してアクセス可能であっても良い。
ウェアラブル装置500はまた、ユーザインターフェース170の1つ又は複数のコンポーネントを含んでも良い。例えば、幾つかの実施形態において、ウェアラブル装置500は、ディスプレイ510、スピーカ530、及び/又はマイクロホン520を含んでも良い。ウェアラブル装置500はまた、図5Bに示されているように、カメラ122などの1つ又は複数のカメラを含んでも良い。ウェアラブル装置500に位置するカメラに加えて、ウェアラブル装置500に関連する画像取得ユニット120がまた、ウェアラブル装置500と別個に位置するカメラを含んでも良い。例えば、幾つかの実施形態において、ウェアラブル装置500は、別の装置又はプラットフォームに関連する1つ又は複数のカメラ(例えば、ウェアラブル装置500が通信し得る車両200又は任意の他のプラットフォームに含まれるカメラ)から画像データを受信するように構成されても良い。かかる実施形態において、ウェアラブル装置500は、有線又は無線データ接続を介して、遠隔に位置するカメラから画像データを受信しても良い。
1つを超えるカメラが用いられる実施形態において、カメラ122、124及び126に戻ると(それらのカメラが、車両200、モバイル装置400、ウェアラブル装置500、又は任意の他のプラットフォームに含まれるかどうかにかかわらず)、それらのカメラは、例えば、類似の焦点距離、視野、画像センサ等を含む類似の特徴を有しても良い。他方で、任意の複数のカメラの1つ又は複数は、他のカメラのいずれとも異なって構成されても良い。例えば、幾つかの実施形態において、第1のカメラ(例えばカメラ122)は、第2のカメラ(例えばカメラ124)の焦点距離と異なる焦点距離で構成されても良い。ナビゲーションシステム100が、第3のカメラ(例えばカメラ126)を有する画像取得システム120を含むか又はそれと相互作用する場合に、その第3のカメラは、第1のカメラの焦点距離及び第2のカメラの焦点距離と異なる焦点距離を有しても良い。
カメラ122、124、又は126のいずれもまた、特定の用途に適した分解能で構成されても良い。ナビゲーションシステム100が、カメラ122、124、又は126から取得された画像から導き出されたユーザ用の視覚キュー情報で、ナビゲーション指示を強化し得るので、それらのカメラの1つ又は複数は、人間の目に似た特徴を示すように構成されても良い。例えば、幾つかの実施形態において、カメラの1つ又は複数は、色に敏感であっても良い(例えば、人間の目で見つかる円錐体に似た、赤色、緑色及び青色に敏感なRGBカメラ)。更に、カメラの1つ又は複数は、人間の目に似た視力を提供する画素分解能/視野の組み合わせを有しても良い。例えば、幾つかの実施形態において、カメラは、(幾つかのスマートフォン装置に現在含まれるカメラに似た)少なくとも5メガ画素の分解能及び約50度の水平視野を有しても良い。他の実施形態において、ナビゲーションシステム100におけるカメラは、約1.3メガ画素のSXGA分解能、及び30度未満(例えば約23度)の水平視野を有しても良い。ナビゲーションシステム100におけるカメラは、1度当たり少なくとも40水平画素(即ち、画像センサのX次元に沿って延びる行における画素)の比率を提供する分解能及び水平視野を示しても良い。幾つかの実施形態において、その比率は、1度当たり45水平画素を超えるか、1度当たり50水平画素か、又は1度当たり55水平画素を超えても良い。
カメラ122、124及び/又は126は、様々な光学素子を含んでも良い。幾つかの実施形態において、1つ又は複数のレンズが、例えば、カメラ用の所望の焦点距離及び視野を提供するために含まれても良い。幾つかの実施形態において、カメラ122、124及び/又は126は、6mmレンズ又は12mmレンズと関連付けられても良い。幾つかの実施形態において、カメラ122、124及び/又は126は、約46度、50度、52度、又はそれを超える視野(FOV)を有する画像を捕捉するように構成されても良い。例えば、カメラ122、124及び/又は126はまた、より狭い視野で構成されても良い。例えば、幾つかの実施形態において、カメラ122、124及び/又は126は、40度、30度、26度、23度、20度、又はそれ未満のFOVを有しても良い。幾つかの実施形態において、カメラ122、124又は126のいずれも、約180度まで(例えば、約100度〜約150度)の広角FOVを含んでも良い。
カメラ122、124及び/又は126は、例えばCCDセンサ又はCMOSセンサを含む任意の適切なタイプの画像センサを含んでも良い。一実施形態において、CMOS画像センサは、ロールシャッタと共に用いられても良く、その結果、行における各画素は、1つずつ読み取られ、行の走査は、全画像フレームが捕捉されるまで、行ごとに行われる。幾つかの実施形態において、行は、フレームに対して上端から底部まで順次的に捕捉されても良い。他の実施形態において、グローバルシャッタが用いられても良い。
カメラ122、124及び/又は126は、環境からのユーザに見える(期待される視野範囲内における)画像が取得され得るように、プラットフォーム装置(例えば、車両200、モバイル装置400、ウェアラブル装置500等)に関連して位置しても良い。例えば、図2及び3に示されているように、車両用途において、カメラ122は、バックミラー310の近くに配置されても良い。幾つかの実施形態において、カメラ122は、地面からの周知の高さ(例えば、地上約1.4m)に配置されても良く、この情報は、カメラ122によって捕捉される画像において相対的大きさを決定するために用いられても良い。
カメラ122、124及び/又は126のフレームレート(例えば、カメラが、次の画像フレームに関連する画素データの補足に移る前に、一画像フレームの画素データセットを取得するレート)は、制御可能であり得る。フレームレートは、例えば、カメラ122、124及び/又は126によって取得された画像における捕捉された対象物までの距離を決定する際に利用されても良い。カメラ122、124及び/又は126のいずれかにおけるフレームレートは、任意の他のカメラに関連するフレームレートより高いか、低いか、又はそれと同じであっても良い。
更に、カメラ122、124及び/又は126のそれぞれに関連する焦点距離は、各カメラが、プラットフォームシステム(例えば、車両200、モバイル装置400、ウェアラブル装置500等)に対する所望の距離範囲で対象物の画像を取得するように、選択可能(例えば、適切なレンズ等を含むことによって)であっても良い。例えば、幾つかの実施形態において、カメラ122、124及び/又は126は、数メートル内のクローズアップの対象物の画像を取得しても良い。カメラ122、124及び/又は126はまた、より離れた対象物の(例えば、25m、50m、100m、150m、又はそれより遠い範囲における)画像を取得するように構成されても良い。更に、カメラ122、124及び/又は126の焦点距離は、1つのカメラ(例えばカメラ124)が、(例えば10m内又は20m内の)比較的近い対象物の画像を取得することができ、一方で別のカメラ(例えばカメラ126)が、(例えば、20m、50m、100m、150m等を超える範囲における)より離れた対象物の画像を取得できるように、選択されても良い。カメラ122、124及び/又は126のそれぞれに関連する視野は、それぞれの焦点距離に依存し得る。例えば、焦点距離が増加するにつれて、対応する視野は減少する。
動作において、ナビゲーションシステム100は、ナビゲーション指示をユーザに提供しても良い。ナビゲーション指示は、地図データ(例えば、地図データベース160に記憶されたデータ)に関係するか、又はそこから導き出された情報を含んでも良く、且つ画像取得ユニット120によって取得された画像データに関係するか、又はそこから導き出された情報を含んでも良い。
ナビゲーション指示を作成するために、処理ユニット110は、ナビゲーションシステム100に関連する少なくとも1つのコンポーネントの現在位置を決定しても良い。例えば、幾つかの実施形態において、アプリケーションプロセッサ180は、位置センサ130にアクセスし、且つ位置を示す出力を検索しても良い。この位置は、車両200、モバイル装置400、ウェアラブル装置500等の位置に対応しても良い。
処理ユニットはまた、現在位置と異なる目的地を決定するように構成されても良い。目的地は、ユーザが行きたいと望む位置、第三者がユーザ用に指定する位置、又は現在位置と異なる任意の他の位置に対応しても良い。目的地は、任意の適切な方法によって処理ユニット110に提供されても良い。一実施形態において、ユーザは、ユーザインターフェース170を介して目的地を入力しても良い。例えば、住所、緯度及び経度座標等が、キーボード又はタッチスクリーンをタイプすること、1つ又は複数の音声コマンドを話すこと、ポインタ装置若しくは追跡された眼球運動を用いてメニュー項目を選択すること、又は任意の他の適切なデータ入力技術によって、処理ユニット110に導入されても良い。
現在位置及び所望の目的地情報を用いて、従来のナビゲーションシステムは、地図データにアクセスし、ルートを決定し、且つそのルートに沿ってナビゲートするための指示を生成し得る。しかしながら、現在説明されている実施形態は、画像取得ユニット120によって提供される画像に基づいて決定される追加情報を特徴とする指示を含む。
例えば、幾つかの実施形態において、処理ユニット110は、ナビゲーションシステム100のユーザの環境を表す複数の画像を1つ又は複数の画像取得装置(例えば、カメラ122、124及び/又は126)から取得するように構成されても良い。これらの複数の画像に基づいて、処理ユニット110は、環境における少なくとも1つの対象物に関連する視覚情報を導き出しても良い。例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、画像取得ユニット120によって提供された複数の画像に現れる1つ又は複数の対象物を分析し、且つ環境における対象物の少なくとも1つの特徴に関係する視覚情報を画像から導き出しても良い。幾つかの実施形態において、対象物は、車両、建物、看板、交通信号、道路の特徴、構造物又は人におけるいずれか少なくとも1つを含んでも良い。画像から導き出され得る視覚情報は、例えば、建物の色、サイズ、又は建築材料と、日除けの色と、認識されたロゴ(例えばMcDonaldの看板、金色のアーチ等)の名称と、路面における建物、道路標識又は印刷されたレタリングからの認識されたテキストと、別の車両の色と、道路に関連する分かれ道、隆起部、下り坂、スピードバンプなどの道路の特徴と、歩行者が着用する衣類の色と、フェンスの色と、等を含む観察された対象物のほぼ任意の視覚的な態様を含んでも良い。視覚情報はまた、対象物用の認識されるタイプの明示を含んでも良い。例えば、視覚情報は、認識されるフェンスのタイプ(例えば、木材、チェーンリンク、杭、防御柵等)、認識される車両のタイプ又はブランド(例えば、トラック、自動車、トラクタ、Maserati、Audi等)、橋のタイプ、建物のタイプ等を含んでも良い。
任意のタイプの視覚情報が、特定のタスクの要件に依存して用いられても良い。幾つかの実施形態において、処理ユニット110は、都市部における対象物(例えば、歩行者、交通信号、建物、自動車、企業等)に基づいた視覚キューを認識しユーザに提供するために装備されても良い。処理ユニット110はまた、農村部で見つかる対象物(例えば、生け垣、木、フェンス、農舎、田舎風の壁、動物等)に基づいた視覚キューを認識しユーザに提供するように構成されても良い。
幾つかの実施形態において、他の車両が、ユーザに提供される導き出された視覚情報及び視覚キューの基礎として働いても良い。かかる車両に関する情報は、ADASアプリケーションの副産物として決定されても良く、又はADASアプリケーションによって提供される情報を補足しても良い。例えば、前方衝突警報システムが、カメラの視界に存在する車両の全てを検出しても良く、且つ目標車両までの距離を計算しても良い。これらの目標車両及び距離のリストが、ナビゲーションシステム100に伝達されても良い。目標車両のいずれかが、興味のある距離(例えば、目的地への計算されたルートに沿った曲がり角の近く)に位置する場合に、その目標車両は、ユーザに提供される視覚キューの基礎として用いられても良い。例えば、興味のある距離における目標車両が、計算されたルートに沿って曲がる場合に、この情報は、目標車両に関連する1つ又は複数の特徴(例えば、色、タイプ等)と共に、運転手に伝達されても良い。
カメラ122、124及び/又は126の視野における対象物の色は、任意の適切な方法で決定されても良い。例えば、幾つかの実施形態において、カメラ122、124及び/又は126のいずれも、フルカラーのカメラを構成しても良い。代替として、カメラ122、124及び/又は126の1つ又は複数が、フルRGBカメラでないカメラ(例えば赤色/クリアセンサだけを備えたカメラ)を用い得るADASシステムの一部である場合に、かかるシステムは、1つ又は複数の追加のカメラで強化されても良い。かかる強化は、青色を緑色と間違えるなど、色の識別における誤りを最小化し得る。動作において、ADASカメラからの目標車両は、目標車両に関連する色情報を決定又は確認するために、カラーカメラによって提供されるパッチと照合される。
カメラ122、124及び/又は126の視野内における対象物までの距離はまた、任意の適切な方法を用いて決定されても良い。幾つかの実施形態において、デプスマップが、移動からの構造復元(SFM)を用いて決定されても良い。かかるデプスマップは、例えば、ADASシステムからの計算上の出力として利用可能であり得る。SFMデプスマップは、例えば、異なる位置からカメラによって取得された(例えば、カメラが車両200と共に移動するので)2つの画像を比較することによって決定されても良い。カメラの移動、及び取得画像の2つにおける目標対象物の結果としての外観は、少なくとも1つの距離(例えば、取得カメラと路面との間の距離)が周知で且つ相対的な尺度決定の基礎として使用され得る場合など、目標対象物までの距離の決定を可能にし得る。任意の2つの画像が比較されても良いが、幾つかの実施形態において、10m以上の距離にわたる移動後に取得された画像が、100m範囲における目標距離の決定用の適切な基礎を提供し得る(それは、ナビゲーション支援を決定するために有用であり得る)。速度計読み取り値又はGPSユニットからの出力などの追加情報もまた、目標対象物までの距離を決定するために用いられても良い。例えば、速度計又はGPSは、ホスト車両の移動に関する情報を提供しても良く、それは、SFM結果に対する地球規模の情報及び従って目標対象物までの距離を提供し得る。
かかる計算は、画像デプスマップを生成するために、一連の画像における全ての画素用に実行することができる。これらのデプスマップは、例えば、特定の目標対象物が、興味のある交差点の前又は後に位置するかどうかを決定するために用いられても良い。デプスマップは、各画素値が情景における地点までの奥行きを示す、画素の2次元アレイであっても良い。以下で更に説明されるように、この情報は、「黄色の日除けを備えた店舗の直前100mで左に曲がる」など、視覚情報を含むナビゲーション指示を提供するために用いられても良い。
デプスマップ計算は、計算上高価になり得る。従って、ADASデプスマップが既に利用可能な場合に、それらは、容易に使用され得る。しかしながら、他の実施形態において、GPSによってキューを与えられた視覚(GPS cued vision)は、計算上それほど高価でない代替を提供し得る。例えば、位置センサ130が、交差点までの距離を決定するために用いられても良い。この情報を用いれば、交差点までの目標距離用の優れた奥行きの推定を提供するために、2つの画像が、適切な離れた距離の位置(例えば、約100mの目標距離用の1m〜10m離れた、約200mの目標距離用の1m〜20m離れた、又は興味のある目標距離の約5%〜10%の)において取得されても良い。次に、2つの画像の少なくとも1つは、ワープされても良く、ワープされた画像は、任意の目標対象物が目標距離と一致するかどうかを決定するために、別の画像と比較されても良い。即ち、画像の選択された領域(例えば、潜在的な目標対象物に対応する領域)が、画像の取得間の移動量を考慮して、目標距離に位置する対象物の画像における予想される変化に対して分析されても良い。興味のある目標距離に位置する対象物の予想される移動の特性を示す画像領域は、一致すると考えられ、且つナビゲーションシステム100のユーザに提供される視覚情報用の基礎として用いられても良い。
より具体的には、システムは、第1の画像の第1の領域を第2の画像の対応する領域と相関させるように、且つ第1の画像の第1の領域と第2の画像の対応する領域との間の密なオプティカルフローを計算するように構成されても良い。密なオプティカルフローは、第1又は第2の画像の少なくとも1つをワープさせるために用いられても良い。ナビゲーションシステム100は、対応関係を確立するように第1の画像における対象物特徴を第2の画像における対象物特徴と一致させるために、取得画像を処理しても良い。システムは、各画素用の奥行き情報を含む視差マップを作成しても良い。視差マップ計算は、第1の画像及び第2の画像における対応点のx座標間の、典型的には画素における距離を表しても良い。第1及び/又は第2の画像における各画素に関し、視差マップは、像点用の視差及び奥行き情報を含んでも良い。システムは、異なる分解能で視差画像を生成しても良い。期待値の或る範囲(例えば±10%)内に入る視差を備えた画像は、一致を構成しても良く、従って、所望の目標距離に位置する対象物に対応しても良い。この技術は、GPSによってキューを与えられた視覚と呼ばれても良いが、全体画像用の密なデプスマップを計算するより効率的になり得る。
正確な移動を計算するために、道路平面に沿った地点が追跡されても良い。追跡される地点に基づいて、ホモグラフィが計算されても良く、ホモグラフィは、回転及びFOEに分解することができる。10m又は20mでもよい全体的な基線(即ち、取得画像間の移動距離)を測るために、2m〜3m離れたフレームなどの中間基線上の自己移動を計算し、且つ移動を連結することが便利になり得る。そうでなければ、路上の地点は、移動し過ぎる可能性があり、従って追跡するのが難しくなり得る。
ひとたび自己移動が分かると、2つの画像は、画像回転を除去するように回転して調整することができる。これは、純粋な平行移動の一対に帰着し得る。10mの基線で200mにおける特徴を検出するために、1つの画像は、FOEを中心に210/200の倍率でスケーリングされても良く、整列する特徴は、その距離にあると思われる。この距離を検証するために、異なる基線及び適切なスケーリングで反復される照合を備えた第3の画像を用いることができる。両方のテストにおいて優れた一致を与える特徴が、200mに位置するものと思われ得る。
複数のスケーリングが、約200mの範囲を見渡すために用いられ得る。代替として、200m用のスケーリング後の残余のフローが、残余の奥行きを提供する。このプロセスは、GPSから取得された関連する奥行きのまわりの特定の奥行き窓における特徴を除去できるようにする。
複数の取得画像に基づいて、興味のある距離に位置する1つ又は複数の目標対象物を識別した後で、それらの目標対象物のいずれかに関連する視覚情報が、現在位置から目的地へナビゲートするための1つ又は複数の指示を決定するために用いられても良い。具体的には、ナビゲーションシステム100は、複数の画像から導き出された視覚情報への少なくとも1つの言及を1つ又は複数の指示に含んでも良い。
かかる指示は、アプリケーションプロセッサ180によって、画像プロセッサ190によって、両方の組み合わせによって、又は1つ若しくは複数の他の処理装置を用いて作成されても良い。例えば、幾つかの実施形態において、画像プロセッサ190は、取得画像に存在する目標対象物及びそれらのそれぞれの距離、並びに目標対象物に関連する1つ又は複数の視覚的な特徴のリストをアプリケーションプロセッサ180に提供するように構成されても良い。アプリケーションプロセッサ180は、興味のある目標距離に位置する目標対象物をリストから識別し選択すること、及び選択された目標対象物に関連する視覚情報を1つ又は複数の指示に組み込むことによって、指示を決定しても良い。
代替として、アプリケーションプロセッサ180が、新しい指示を出す準備ができた場合に、それは、興味のある特定の目標距離に位置する目標対象物を識別するために、画像プロセッサ190に問い合わせを送信しても良い。画像プロセッサは、目標対象物の1つ又は複数の視覚的な特徴と共に目標対象物の同一性を返すことによって応答しても良い。次に、アプリケーションプロセッサ180は、この情報を、作成される指示に組み込んでも良い。
他の実施形態において、画像プロセッサ190は、視覚情報を組み込むナビゲーション指示を作成する責任を負っても良い。これら指示は、ユーザに送るためにアプリケーションプロセッサ180に提供されても良く、又は画像プロセッサ190は、これら指示を直接ユーザに送っても良い。
幾つかの実施形態において、ナビゲーションシステム100は、特定の対象物に関する視覚情報を含む指示を出す前に、特定の対象物がユーザに見えるはずかどうかをテストしても良い。例えば、例えば地図データベース160に記憶された地図データ情報に基づいて、或る対象物(例えば特定の企業)の存在及びその正確な位置が知られても良い。記憶された地図情報に表されたかかる対象物は、マップされたエンティティと呼ばれても良い。幾つかの実施形態において、処理ユニット110は、マップされたエンティティに言及するナビゲーション指示(例えば、「100mでExxonガソリンスタンドを左に曲がる」)を作成することが可能である。しかしながら、視覚情報の利用は、これらのタイプの指示を向上させるために用いることができる。例えば、幾つかの実施形態において、特定の陸標又は企業が、地図データベース160に記憶された、マップされたエンティティとして表されない可能性がある。かかる場合に、画像取得ユニット120及び画像プロセッサ190は、興味のある距離に位置するものとしてかかる対象物を識別しても良く、且つナビゲーション指示に含むように1つ又は複数の視覚的な特徴を決定しても良い(例えば、企業に関連する看板又は印の文字認識及び/又はロゴ若しくは色認識に基づいた「100mでExxonガソリンスタンドを左に曲がる」、「青い日除けを備えた建物の直後に右に曲がる」等)。
更に、ナビゲーションシステム100は、特定のマップされたエンティティが、ユーザに見えるはずかどうかを決定し、且つこの情報に基づいてナビゲーション指示を生成しても良い。例えば、ナビゲーションシステム100が、マップされたエンティティとして記憶された特定のガソリンスタンドに気づいているが、しかし画像取得ユニット120の出力に基づいて、ガソリンスタンドへの運転手の視界を遮る大きなトラックの後ろに運転手が居ることを認識している場合に、ナビゲーションシステム100は、運転手が見えないガソリンスタンドに言及する紛らわしい指示を出さなくても良い。代替として、ナビゲーションシステム100は、更に進んで不明瞭な対象物に関する指示を出しても良いが、しかしそれが現在不明瞭だという情報及び不明瞭な対象物に関連する視覚情報(例えば、「白いトラックの背後の次のExxonステーションで左に曲がる」)と共にそうしても良い。
又はナビゲーションシステム100が、マップされたエンティティとして記憶された特定の位置(例えばMcDonaldのレストラン)を知っている場合に、ナビゲーションシステム100は、マップされたエンティティが存在するかどうかをテストし、且つテストに基づいて適切なナビゲーション指示を作成するために、画像取得ユニット120の出力を用いることができる。例えば、マップされたエンティティであるMcDonaldに関連する黄色の看板が、画像取得ユニット120によって提供される画像において認識される場合に、ナビゲーションシステム100は、「黄色のMcDonaldの看板の直後に右に曲がる」と言う指示を出しても良い。他方で、取得画像に黄色の看板が見つからない場合に、ナビゲーションシステム100は、「McDonaldの直後に右に曲がる」か、又はMcDonaldが画像にない場合には、単に「100mで右に曲がる」言っても良い。
従って、幾つかの実施形態において、処理ユニット110は、少なくとも1つのマップされたエンティティを識別するために地図データを用いるように、且つ画像取得ユニット120によって提供された複数の画像に基づいて、少なくとも1つのマップされたエンティティがユーザに見えるかどうかを決定するように構成されても良い。マップされたエンティティがユーザに見える場合に、処理ユニット110は、マップされたエンティティへの少なくとも1つの言及(例えば、マップされたエンティティの少なくとも1つの視覚的な特徴を含む)を、決定された1つ又は複数の指示に含んでも良い。他方で、マップされたエンティティがユーザに見えないと決定された場合に、処理ユニット110は、マップされたエンティティへの言及を、決定された指示から省略しても良く、又は代替として、マップされたエンティティへの少なくとも1つの言及及びマップされたエンティティをユーザの視界から隠す対象物への少なくとも1つ言及を、決定された1つ又は複数の指示に含んでも良い。
幾つかの実施形態において、1つを超える目標対象物が、関連する目標距離に存在する可能性がある。かかる場合に、ナビゲーションシステム100は、ナビゲーション指示に含まれる視覚情報用の基礎としてどの目標対象物が用いられるべきかを決定するために、階層的方式を用いても良い。例えば、ひとたび目標距離(例えば、目的地へのルートに沿った次の方向転換用に決定された距離)が決定されると、地図データベース160は、いずれか適切なマップされたエンティティが目標距離に存在し得るかどうかを決定するために、アクセスされても良い。マップされたエンティティが、画像取得ユニット110によって提供された画像に基づいて視覚的に検証される場合に、それらのマップされたエンティティは、所定の階層に従ってフィルタリングされても良い。例えば、大きな物理構造物に関連するマップされたエンティティは、ナビゲーション指示を作成する際に用いるために、より小さな物理構造物に関連するマップされたエンティティに優先して選択されても良い。同様に、明るい色の看板、位置標識、ロゴ等に関連するマップされたエンティティは、かかる看板、位置標識もロゴもないマップされたエンティティに優先して選択されても良い。
幾つかの場合に、複数のマップされたエンティティが、目標距離に位置するものとして識別及び/又は検証されても良い。かかる場合に、ナビゲーションシステム100は、複数の目標のどれに依存するかを決定するために、追加の階層的順位を適用しても良い。再び、対象物の色及びサイズが、対象物を格付けする際の要因であっても良い。追加又は代替として、対象物の位置が用いられても良い。例えば、曲がる側に、且つ交差点の手前に位置する目標対象物は、曲がる側だが交差点の後に位置する目標対象物の前に格付けされても良い。階層において更により低いのは、曲がる側の反対側で交差点の手前に位置する目標対象物であっても良く、それは、曲がる側の反対側で交差点の後に位置する目標対象物より高く格付けされても良い。優先リストは、ユーザ選好によって調整することができる。
この階層に基づいて、ナビゲーションシステム100は、目標対象物及びどんな特徴が見えるかに適した方向転換指示「200mで、緑の日除けを備えたHoliday Innを過ぎて左に曲がる」を出力しても良い。
次に、地図データベースから陸標が検出も検証もされない場合に、システムは、いずれかの車両が、関連する目標距離における目標対象物として適格であるかどうかを決定しよう試みても良い。例えば、車両が、関連する交差点で曲がっているように取得画像から認識される場合に、車両は、指示用の基礎として用いられても良い。例えば、「100mの交差点で左に曲がる赤い車両に続く」。
次に、マップされたエンティティも関連する車両もない場合に、ナビゲーションシステム100は、目標距離に位置する視覚的に検出される構造物を探索しても良い。かかる構造物がある場合に、処理ユニット110は、特定のブランドのガソリンスタンド、別個のロゴを備えたファストフード店などの陸標対象物のデータベースに対し、カラーヒストグラム、テンプレートマッチング、パターン認識及び/又はOCRを用いて、構造物を分類しようと試みても良い。一致が見つかった場合に、識別された構造物に関する視覚情報を含む適切な指示が提供されても良い。
構造物が、データベースにおける特定の例と一致できない場合に、クラス型が識別され用いられても良い。幾つかの例は、(a)高さ6mを超える赤レンガ色の構造物が検出される場合に、「高いレンガ建築」を示し、(b)サイズで1mより大きなカラーの小塊が、地上から少なくとも2mのところに位置している場合に、「カラーの日除け」を示し、(c)イギリスにおいて、約1.5mの高さで0.5m幅の赤い対象物が検出される場合に、「郵便ポスト」を示すことを含んでも良い。もちろん、多くの他のクラスを定義し認識することができる。
クラスは、優先度に従ってテストされても良い。検出される第1のクラスは、選択されたクラスであっても良い。代替として、各検出されるクラスは、視覚的に強化されたナビゲーション指示用の基礎として利用するために、目標対象物を選択する際の助けとなるクラスの重み、優先度の重み、及び/又は検出スコアを割り当てられても良い。それは、クラス優先度及び検出スコアの重みとすることが可能である。
幾つかの実施形態において、決定木を用いることができる。一致が見つかった場合に、視覚的に強化されたナビゲーション指示が提供されても良い。他方で、一致が次に見つからなかった場合に、標準GPS型指示、例えば「200mで左に曲がる」が提供されても良い。
特定の目標対象物が、ルート上の特定の地点に関するナビゲーション指示のセット全体の基礎として使用される必要はない。代わりに、ナビゲーションシステムは、追加又は代替目標対象物を断続的又は連続的に追及し、新しい目標対象物(特に、以前に依存した目標対象物より高い階層的ステータスを備えた目標対象物)が検出された場合に、更新された指示を提供しても良い。例えば、陸標が方向転換の反対側で最初に検出され、その後、次に、第2の陸標が、方向変換と同じ側で検出された場合に、新しく検出された陸標に基づいて、更新された指示が提供されても良い。更に、陸標が、地図データベースに存在するが、しかし視覚的に検証されなかった場合に、システムは、陸標を視覚的に検証するように繰り返し試みても良い。ひとたび視覚的に検証されると、指示は、更新されても良い。
ひとたび視覚的に強化されたナビゲーション指示が決定されると、それらは、ナビゲーションシステム100のユーザに送られても良い。幾つかの実施形態において、指示は、(例えば、車両200に関連する1つ又は複数のスピーカを介して、モバイル装置400のスピーカ430を介して、又はウェアラブル装置500に関連するイヤホン/スピーカ530を介して)聞き取れるように送られても良い。追加又は代替として、指示は、(例えば、車両200のディスプレイ/タッチスクリーン320を介して、モバイル装置400のディスプレイ/タッチスクリーン410を介して、又はウェアラブル装置500のディスプレイ510を介して)視覚的に送られても良い。
実例的な実施形態が、本明細書で説明されたが、説明された例は、非限定的である。更に、開示されたルーチンのステップは、ステップの再整理、及び/又はステップの挿入若しくは削除によることを含む任意の方法で修正されても良い。明細及び例が、単に実例として考えられ、真の範囲及び趣旨が、以下の請求項及びそれらの均等物の完全な範囲によって示されることが意図されている。

Claims (29)

  1. 少なくとも1つの処理装置であって、
    ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、前記ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、
    前記現在位置と異なる目的地を決定すること、
    1つ又は複数の画像取得装置から、前記ナビゲーションシステムのユーザの環境を表す複数の画像を取得すること、
    前記複数の画像から、前記環境における少なくとも1つの対象物に関連する視覚情報を導き出すこと、
    前記現在位置から前記目的地へナビゲートするための1つ又は複数の指示を決定し、前記1つ又は複数の指示が、前記複数の画像から導き出された前記視覚情報への少なくとも1つの言及を含むこと、且つ
    前記1つ又は複数の指示を前記ユーザに送ること、
    を行うように構成された少なくとも1つの処理装置を含むナビゲーションシステム。
  2. 前記目的地の決定が、ユーザ入力に基づく、請求項1に記載のナビゲーションシステム。
  3. 前記ユーザ入力が、前記目的地に対応する住所の入力を含む、請求項2に記載のナビゲーションシステム。
  4. 前記1つ又は複数の画像取得装置が、第1のカメラ及び第2のカメラを含み、前記第1のカメラが、前記第2のカメラの焦点距離と異なる焦点距離を有する、請求項1に記載のナビゲーションシステム。
  5. 前記1つ又は複数の画像取得装置が、前記第1のカメラの前記焦点距離及び前記第2のカメラの前記焦点距離と異なる焦点距離を有する第3のカメラを含む、請求項4に記載のナビゲーションシステム。
  6. 前記1つ又は複数の画像取得装置が、少なくとも5メガ画素の分解能を有するカメラを含む、請求項1に記載のナビゲーションシステム。
  7. 前記視覚情報が、前記環境における前記少なくとも1つの対象物の少なくとも1つの特徴に関する、請求項1に記載のナビゲーションシステム。
  8. 前記少なくとも1つの対象物が、車両、建物、看板、交通信号、道路の特徴、構造物、又は人間の少なくとも1つを含む、請求項7に記載のナビゲーションシステム。
  9. 前記少なくとも1つの処理装置が、
    少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
    前記少なくとも1つのマップされたエンティティが前記ユーザに見えるかどうかを、前記複数の画像に基づいて決定すること、且つ
    前記マップされたエンティティが前記ユーザに見えると決定された場合に、前記マップされたエンティティへの少なくとも1つの言及を前記1つ又は複数の指示に含めること、
    を行うように構成される、請求項1に記載のナビゲーションシステム。
  10. 前記少なくとも1つの処理装置が、
    少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
    前記少なくとも1つのマップされたエンティティが前記ユーザに見えるかどうかを、前記複数の画像に基づいて決定すること、且つ
    前記マップされたエンティティが前記ユーザに見えないと決定された場合に、前記マップされたエンティティへの少なくとも1つの言及及び前記マップされたエンティティを前記ユーザの視界から隠す対象物への少なくとも1つの言及を、前記決定された1つ又は複数の指示に含めること、
    を行うように構成される、請求項1に記載のナビゲーションシステム。
  11. 前記少なくとも1つの処理装置が、
    少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
    前記少なくとも1つのマップされたエンティティが前記ユーザに見えるかどうかを、前記複数の画像に基づいて決定すること、且つ
    前記マップされたエンティティが前記ユーザに見えないと決定された場合に、前記マップされたエンティティへのどんな言及も、前記決定された1つ又は複数の指示から省略すること、
    を行うように構成される、請求項1に記載のナビゲーションシステム。
  12. 前記視覚情報が、前記環境における前記少なくとも1つの対象物に関連する色を含む、請求項1に記載のナビゲーションシステム。
  13. 前記視覚情報が、前記環境における前記少なくとも1つの対象物に関連する対象物タイプを含む、請求項1に記載のナビゲーションシステム。
  14. 前記1つ又は複数の指示が、聞き取れるように前記ユーザに送られる、請求項1に記載のナビゲーションシステム。
  15. 前記1つ又は複数の指示が、モバイル装置に関連するディスプレイ又はスピーカの少なくとも1つに送られる、請求項1に記載のナビゲーションシステム。
  16. 前記1つ又は複数の指示が、車両に関連するディスプレイ又はスピーカの少なくとも1つに送られる、請求項1に記載のナビゲーションシステム。
  17. 前記1つ又は複数の指示が、ウェアラブル装置に関連するディスプレイ又はスピーカの少なくとも1つに送られる、請求項1に記載のナビゲーションシステム。
  18. 前記1つ又は複数の画像取得装置が、先進運転支援システム(Advanced Driver Assistance System)によるカメラを含む、請求項1に記載のナビゲーションシステム。
  19. 車両の位置を表す出力を提供するように構成されたGPSセンサと、
    前記車両の外部の環境の複数の画像を取得するように構成された1つ又は複数の画像取得装置と、
    少なくとも1つの処理装置であって、
    ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、前記ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、
    前記現在位置と異なる目的地を決定すること、
    1つ又は複数の画像取得装置から、前記ナビゲーションシステムのユーザの環境を表す複数の画像を取得すること、
    前記複数の画像から、前記環境における少なくとも1つの対象物に関連する視覚情報を導き出すこと、
    前記現在位置から前記目的地へナビゲートするための1つ又は複数の指示を決定し、前記1つ又は複数の指示が、前記複数の画像から導き出された前記視覚情報への少なくとも1つの言及を含むこと、且つ
    前記1つ又は複数の指示を前記ユーザに送ること、を行うように構成された少なくとも1つの処理装置と、
    を含む車両。
  20. 前記目的地の決定が、前記目的地に対応する住所を含むユーザ入力に基づく、請求項19に記載の車両。
  21. 前記1つ又は複数の画像取得装置が、第1のカメラ及び第2のカメラを含み、前記第1のカメラが、前記第2のカメラの焦点距離と異なる焦点距離を有する、請求項19に記載の車両。
  22. 前記1つ又は複数の画像取得装置が、少なくとも5メガ画素の分解能を有するカメラを含む、請求項19に記載の車両。
  23. 前記視覚情報が、前記環境における前記少なくとも1つの対象物の少なくとも1つの特徴に関する、請求項19に記載の車両。
  24. 前記少なくとも1つの対象物が、車両、建物、看板、交通信号、道路の特徴、構造物、又は人間の少なくとも1つを含む、請求項19に記載の車両。
  25. 前記少なくとも1つの処理装置が、
    少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
    前記少なくとも1つのマップされたエンティティが前記ユーザに見えるかどうかを、前記複数の画像に基づいて決定すること、
    前記マップされたエンティティが前記ユーザに見えると決定された場合に、前記マップされたエンティティへの少なくとも1つの言及を前記決定された1つ又は複数の指示に含めること、
    を行うように構成される、請求項19に記載の車両。
  26. 前記少なくとも1つの処理装置が、
    前記マップされたエンティティが前記ユーザに見えないと決定された場合に、前記マップされたエンティティへの少なくとも1つの言及及び前記マップされたエンティティを前記ユーザの視界から隠す対象物への少なくとも1つの言及を、前記決定された1つ又は複数の指示に含めること、を行うように構成される、請求項25に記載の車両。
  27. 前記視覚情報が、前記環境における前記少なくとも1つの対象物に関連する色又はタイプの少なくとも1つを含む、請求項19に記載の車両。
  28. 前記1つ又は複数の指示が、聞き取れるように前記ユーザに送られる、請求項19に記載の車両。
  29. ナビゲーション情報を生成し送るための方法であって、
    1つ又は複数の位置センサの出力に基づいて現在位置を決定するために、1つ又は複数の処理装置を用いることと、
    前記現在位置と異なる目的地を決定することと、
    1つ又は複数の画像取得装置から、個人を取り囲む環境を表す複数の画像を取得することと、
    前記環境における少なくとも1つの対象物に関連する視覚情報を前記複数の画像から導き出すために、前記1つ又は複数の処理装置を用いることと、
    前記現在位置から前記目的地へナビゲートするための1つ又は複数の指示を決定することであって、前記1つ又は複数の指示が、前記複数の画像から導き出された前記視覚情報への少なくとも1つの言及を含むことと、
    前記1つ又は複数の指示を前記個人に送ることと、
    を含む方法。
JP2019026075A 2013-06-13 2019-02-15 視覚強化ナビゲーション Active JP6763448B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361834488P 2013-06-13 2013-06-13
US61/834,488 2013-06-13

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016519670A Division JP6484228B2 (ja) 2013-06-13 2014-06-13 視覚強化ナビゲーション

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019225622A Division JP2020064068A (ja) 2013-06-13 2019-12-13 視覚強化ナビゲーション

Publications (2)

Publication Number Publication Date
JP2019109245A true JP2019109245A (ja) 2019-07-04
JP6763448B2 JP6763448B2 (ja) 2020-09-30

Family

ID=52019931

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016519670A Active JP6484228B2 (ja) 2013-06-13 2014-06-13 視覚強化ナビゲーション
JP2019026075A Active JP6763448B2 (ja) 2013-06-13 2019-02-15 視覚強化ナビゲーション
JP2019225622A Pending JP2020064068A (ja) 2013-06-13 2019-12-13 視覚強化ナビゲーション

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016519670A Active JP6484228B2 (ja) 2013-06-13 2014-06-13 視覚強化ナビゲーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019225622A Pending JP2020064068A (ja) 2013-06-13 2019-12-13 視覚強化ナビゲーション

Country Status (5)

Country Link
US (3) US9671243B2 (ja)
EP (2) EP3650814B1 (ja)
JP (3) JP6484228B2 (ja)
CN (3) CN110906949B (ja)
WO (1) WO2014201324A1 (ja)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102133365B1 (ko) * 2013-05-09 2020-07-13 삼성전자 주식회사 정보를 사용자에게 제공하기 위한 전자 장치
JP6484228B2 (ja) 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
WO2015189847A1 (en) 2014-06-10 2015-12-17 Mobileye Vision Technologies Ltd. Top-down refinement in lane marking navigation
KR20160001178A (ko) * 2014-06-26 2016-01-06 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
EP3183688B1 (en) 2014-08-18 2023-08-23 Mobileye Vision Technologies Ltd. Recognition and prediction of lane constraints
KR102622571B1 (ko) * 2015-02-10 2024-01-09 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
EP4246094A3 (en) 2015-09-25 2023-12-27 Apple Inc. Augmented reality display system
US10875403B2 (en) * 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
EP3491494B1 (en) * 2016-09-23 2021-12-15 Apple Inc. Immersive virtual display
US10643391B2 (en) 2016-09-23 2020-05-05 Apple Inc. Immersive virtual display
FR3057500B1 (fr) * 2016-10-17 2018-11-16 Saint-Gobain Glass France Pare-brise et dispositif pour aide a la conduite
KR20180070198A (ko) * 2016-12-16 2018-06-26 현대자동차주식회사 차량 및 차량의 제어방법
US9953236B1 (en) 2017-03-10 2018-04-24 TuSimple System and method for semantic segmentation using dense upsampling convolution (DUC)
EP3372465B1 (en) * 2017-03-10 2022-08-24 The Hi-Tech Robotic Systemz Ltd Method and system for vehicle status based advanced driver assistance
US10147193B2 (en) 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
US10671873B2 (en) 2017-03-10 2020-06-02 Tusimple, Inc. System and method for vehicle wheel detection
US11587304B2 (en) 2017-03-10 2023-02-21 Tusimple, Inc. System and method for occluding contour detection
US10311312B2 (en) 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
US10067509B1 (en) 2017-03-10 2018-09-04 TuSimple System and method for occluding contour detection
US9952594B1 (en) 2017-04-07 2018-04-24 TuSimple System and method for traffic data collection using unmanned aerial vehicles (UAVs)
US10471963B2 (en) 2017-04-07 2019-11-12 TuSimple System and method for transitioning between an autonomous and manual driving mode based on detection of a drivers capacity to control a vehicle
US10710592B2 (en) 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US10481044B2 (en) 2017-05-18 2019-11-19 TuSimple Perception simulation for improved autonomous vehicle control
US10558864B2 (en) 2017-05-18 2020-02-11 TuSimple System and method for image localization based on semantic segmentation
US10474790B2 (en) 2017-06-02 2019-11-12 TuSimple Large scale distributed simulation for realistic multiple-agent interactive environments
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
JPWO2019003269A1 (ja) * 2017-06-26 2019-11-07 三菱電機株式会社 ナビゲーション装置およびナビゲーション方法
US10737695B2 (en) 2017-07-01 2020-08-11 Tusimple, Inc. System and method for adaptive cruise control for low speed following
US10303522B2 (en) 2017-07-01 2019-05-28 TuSimple System and method for distributed graphics processing unit (GPU) computation
US10493988B2 (en) 2017-07-01 2019-12-03 TuSimple System and method for adaptive cruise control for defensive driving
US10752246B2 (en) 2017-07-01 2020-08-25 Tusimple, Inc. System and method for adaptive cruise control with proximate vehicle detection
US10308242B2 (en) 2017-07-01 2019-06-04 TuSimple System and method for using human driving patterns to detect and correct abnormal driving behaviors of autonomous vehicles
US11029693B2 (en) 2017-08-08 2021-06-08 Tusimple, Inc. Neural network based vehicle dynamics model
US10360257B2 (en) 2017-08-08 2019-07-23 TuSimple System and method for image annotation
DE102017007705A1 (de) * 2017-08-14 2019-02-14 Preh Car Connect Gmbh Ausgeben einer Manöveranweisung mittels einer Navigationseinrichtung
US10527443B2 (en) * 2017-08-16 2020-01-07 International Business Machines Corporation Generating navigation instructions
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10762673B2 (en) 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10303956B2 (en) 2017-08-23 2019-05-28 TuSimple System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
US10565457B2 (en) 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10678234B2 (en) 2017-08-24 2020-06-09 Tusimple, Inc. System and method for autonomous vehicle control to minimize energy cost
US10783381B2 (en) 2017-08-31 2020-09-22 Tusimple, Inc. System and method for vehicle occlusion detection
US10508925B2 (en) 2017-08-31 2019-12-17 Uber Technologies, Inc. Pickup location selection and augmented reality navigation
US10782694B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10656644B2 (en) 2017-09-07 2020-05-19 Tusimple, Inc. System and method for using human driving patterns to manage speed control for autonomous vehicles
US10782693B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10649458B2 (en) 2017-09-07 2020-05-12 Tusimple, Inc. Data-driven prediction-based system and method for trajectory planning of autonomous vehicles
US10953881B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10953880B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10552979B2 (en) 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10387736B2 (en) 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10733465B2 (en) 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
US10768626B2 (en) 2017-09-30 2020-09-08 Tusimple, Inc. System and method for providing multiple agents for decision making, trajectory planning, and control for autonomous vehicles
US10962979B2 (en) 2017-09-30 2021-03-30 Tusimple, Inc. System and method for multitask processing for autonomous vehicle computation and control
US10970564B2 (en) 2017-09-30 2021-04-06 Tusimple, Inc. System and method for instance-level lane detection for autonomous vehicle control
US10410055B2 (en) 2017-10-05 2019-09-10 TuSimple System and method for aerial video traffic analysis
US10812589B2 (en) 2017-10-28 2020-10-20 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10666730B2 (en) 2017-10-28 2020-05-26 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10739775B2 (en) 2017-10-28 2020-08-11 Tusimple, Inc. System and method for real world autonomous vehicle trajectory simulation
US11023985B1 (en) 2017-11-16 2021-06-01 State Farm Mutual Automobile Insurance Company Systems and methods for executing a customized home search
US11151669B1 (en) * 2017-11-16 2021-10-19 State Farm Mutual Automobile Insurance Company Systems and methods for identifying hidden home maintenance costs
US10528851B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for drivable road surface representation generation using multimodal sensor data
US10528823B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for large-scale lane marking detection using multimodal sensor data
US10657390B2 (en) 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
US10877476B2 (en) 2017-11-30 2020-12-29 Tusimple, Inc. Autonomous vehicle simulation system for analyzing motion planners
US10860018B2 (en) 2017-11-30 2020-12-08 Tusimple, Inc. System and method for generating simulated vehicles with configured behaviors for analyzing autonomous vehicle motion planners
KR101974871B1 (ko) * 2017-12-08 2019-05-03 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
EP3737595B1 (en) 2018-01-09 2023-12-27 TuSimple, Inc. Real-time remote control of vehicles with high redundancy
CN115834617A (zh) 2018-01-11 2023-03-21 图森有限公司 用于自主车辆操作的监视系统
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US10685244B2 (en) 2018-02-27 2020-06-16 Tusimple, Inc. System and method for online real-time multi-object tracking
US10685239B2 (en) 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
CN110378185A (zh) 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
CN110458854B (zh) 2018-05-02 2022-11-15 北京图森未来科技有限公司 一种道路边缘检测方法和装置
US10872604B2 (en) * 2018-05-17 2020-12-22 Qualcomm Incorporated User experience evaluation
US11104334B2 (en) 2018-05-31 2021-08-31 Tusimple, Inc. System and method for proximate vehicle intention prediction for autonomous vehicles
CA3027787A1 (en) * 2018-06-22 2019-12-22 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating highly automated driving maps
CN109271892A (zh) * 2018-08-30 2019-01-25 百度在线网络技术(北京)有限公司 一种物体识别方法、装置、设备、车辆和介质
US10839234B2 (en) 2018-09-12 2020-11-17 Tusimple, Inc. System and method for three-dimensional (3D) object detection
US11292480B2 (en) 2018-09-13 2022-04-05 Tusimple, Inc. Remote safe driving methods and systems
US11656090B2 (en) * 2018-10-08 2023-05-23 Here Global B.V. Method and system for generating navigation data for a geographical location
US10796402B2 (en) 2018-10-19 2020-10-06 Tusimple, Inc. System and method for fisheye image processing
US10942271B2 (en) 2018-10-30 2021-03-09 Tusimple, Inc. Determining an angle between a tow vehicle and a trailer
US10740615B2 (en) 2018-11-20 2020-08-11 Uber Technologies, Inc. Mutual augmented reality experience for users in a network system
WO2020106309A1 (en) * 2018-11-20 2020-05-28 Google Llc Enhanced navigation instructions with landmarks under difficult driving conditions
JP2020112507A (ja) * 2019-01-16 2020-07-27 日本電信電話株式会社 案内文生成装置、案内システム、案内文生成方法及びプログラム
CN109994014A (zh) * 2019-03-22 2019-07-09 多伦科技股份有限公司 一种驾驶模拟器
US11333520B2 (en) * 2019-06-12 2022-05-17 International Business Machines Corporation Visually guiding a vehicle
US11823460B2 (en) 2019-06-14 2023-11-21 Tusimple, Inc. Image fusion for autonomous vehicle operation
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US11892836B2 (en) * 2020-01-27 2024-02-06 Liebherr Mining Equipment Newport News Co. System for controlling a plurality of autonomous vehicles on a mine site
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
JP2021192202A (ja) 2020-06-05 2021-12-16 トヨタ自動車株式会社 体験システム、体験提供方法およびプログラム
AU2021203567A1 (en) 2020-06-18 2022-01-20 Tusimple, Inc. Angle and orientation measurements for vehicles with multiple drivable sections
US11644330B2 (en) * 2020-07-08 2023-05-09 Rivian Ip Holdings, Llc Setting destinations in vehicle navigation systems based on image metadata from portable electronic devices and from captured images using zero click navigation
JP2022059958A (ja) * 2020-10-02 2022-04-14 フォルシアクラリオン・エレクトロニクス株式会社 ナビゲーション装置
CN113483774B (zh) * 2021-06-29 2023-11-03 阿波罗智联(北京)科技有限公司 导航方法、装置、电子设备及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522415A (ja) * 2013-06-13 2016-07-28 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
JP2018504650A (ja) * 2014-12-26 2018-02-15 ヘーレ グローバル ベスローテン フェンノートシャップ 装置の位置特定のための幾何学的指紋法

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233357B1 (en) * 1998-12-22 2007-06-19 Canon Kabushiki Kaisha Image pickup apparatus with image evaluation
US6919866B2 (en) * 2001-02-06 2005-07-19 International Business Machines Corporation Vehicular navigation system
EP1378724B1 (en) * 2002-07-01 2006-03-29 Mazda Motor Corporation Route guidance system based on visual activity of the driver
DE10245335A1 (de) * 2002-09-27 2004-04-08 Robert Bosch Gmbh Navigationsvorrichtung
JP2004157032A (ja) * 2002-11-07 2004-06-03 Nissan Motor Co Ltd 経路誘導装置
JP2005037181A (ja) * 2003-07-17 2005-02-10 Pioneer Electronic Corp ナビゲーション装置、サーバ装置、ナビゲーションシステム、及びナビゲーション方法
CA2559726C (en) * 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
JP4696248B2 (ja) * 2004-09-28 2011-06-08 国立大学法人 熊本大学 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US7765055B2 (en) * 2005-04-18 2010-07-27 Traffic.Com, Inc. Data-driven traffic views with the view based on a user-selected object of interest
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US20070150188A1 (en) * 2005-05-27 2007-06-28 Outland Research, Llc First-person video-based travel planning system
US8423292B2 (en) * 2008-08-19 2013-04-16 Tomtom International B.V. Navigation device with camera-info
NZ564319A (en) * 2005-06-06 2009-05-31 Tomtom Int Bv Navigation device with camera-info
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US7509215B2 (en) * 2005-12-12 2009-03-24 Microsoft Corporation Augmented navigation system
JP4986571B2 (ja) * 2006-01-12 2012-07-25 シャープ株式会社 携帯型ナビゲーション装置
JP4862036B2 (ja) * 2006-03-06 2012-01-25 日立オートモティブシステムズ株式会社 自動車の制御装置及び制御方法
DE102006010481A1 (de) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Verfahren und Anordnung zur Anzeige von Navigationshinweisen
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
JP2007292713A (ja) * 2006-03-30 2007-11-08 Denso Corp ナビゲーション装置
CN101473262A (zh) * 2006-06-16 2009-07-01 皇家飞利浦电子股份有限公司 多视图显示设备
JP4974217B2 (ja) * 2006-11-27 2012-07-11 アルパイン株式会社 ナビゲーション装置
EP2383713B1 (en) * 2006-12-06 2013-05-29 Mobileye Technologies Limited Detecting and recognizing traffic signs
DE102007019531A1 (de) 2007-04-25 2008-11-13 Continental Automotive Gmbh Fahrspurdetektion mit Kameras unterschiedlicher Brennweite
US7957596B2 (en) * 2007-05-02 2011-06-07 Microsoft Corporation Flexible matching with combinational similarity
US20090112452A1 (en) * 2007-10-25 2009-04-30 Gm Global Technology Operations, Inc. Vehicle navigation system with real time traffic image display
WO2009084135A1 (ja) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation ナビゲーション装置
JP4731627B2 (ja) * 2007-12-28 2011-07-27 三菱電機株式会社 ナビゲーション装置
DE112008003424B4 (de) * 2007-12-28 2013-09-05 Mitsubishi Electric Corp. Navigationsgerät, das Videobilder einer Kamera verwendet
US20100253775A1 (en) * 2008-01-31 2010-10-07 Yoshihisa Yamaguchi Navigation device
CN101281022A (zh) * 2008-04-08 2008-10-08 上海世科嘉车辆技术研发有限公司 基于单目机器视觉的车辆距离测量方法
US8032296B2 (en) * 2008-04-30 2011-10-04 Verizon Patent And Licensing Inc. Method and system for providing video mapping and travel planning services
US8032297B2 (en) * 2008-05-08 2011-10-04 Gabriel Jakobson Method and system for displaying navigation information on an electronic map
US20090289937A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Multi-scale navigational visualtization
DE102008028373A1 (de) 2008-06-13 2009-12-24 Audi Ag Verfahren zur kombinierten Ausgabe eines Bildes und einer Fahrinformation, sowie Kraftfahrzeug hierfür
US8457881B2 (en) * 2008-09-03 2013-06-04 Mitsubishi Electric Corporation Image capturing system for vehicle
KR20100055254A (ko) * 2008-11-17 2010-05-26 엘지전자 주식회사 이동 단말기의 poi 정보 제공 방법 및 그 장치
WO2010057506A1 (en) * 2008-11-20 2010-05-27 Tele Atlas B.V. Method of forming navigation instructions, navigation system and a digital map database
JP5233655B2 (ja) * 2008-12-22 2013-07-10 日本電気株式会社 追従対象車検索システム、追従対象車検索方法および追従対象車検索用プログラム
US9683853B2 (en) * 2009-01-23 2017-06-20 Fuji Xerox Co., Ltd. Image matching in support of mobile navigation
US8060302B2 (en) * 2009-03-31 2011-11-15 Microsoft Corporation Visual assessment of landmarks
US20100253595A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Virtual controls and displays by laser projection
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
JP5453048B2 (ja) * 2009-10-22 2014-03-26 富士重工業株式会社 車両の運転支援制御装置
US9766089B2 (en) * 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
US20110153198A1 (en) * 2009-12-21 2011-06-23 Navisus LLC Method for the display of navigation instructions using an augmented-reality concept
US8489326B1 (en) * 2010-02-09 2013-07-16 Google Inc. Placemarked based navigation and ad auction based on placemarks
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
JP2011174723A (ja) * 2010-02-23 2011-09-08 Pioneer Electronic Corp 案内誘導装置及び案内誘導方法
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
JP5368369B2 (ja) * 2010-04-28 2013-12-18 株式会社デンソー 車載用撮像装置及び車載用画像処理装置
US9582166B2 (en) * 2010-05-16 2017-02-28 Nokia Technologies Oy Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
JP2011240816A (ja) * 2010-05-18 2011-12-01 Denso Corp 自律走行制御装置
US9118816B2 (en) * 2011-12-06 2015-08-25 Mobileye Vision Technologies Ltd. Road vertical contour detection
US9280711B2 (en) * 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
US8723888B2 (en) * 2010-10-29 2014-05-13 Core Wireless Licensing, S.a.r.l. Method and apparatus for determining location offset information
JP5625987B2 (ja) * 2011-02-16 2014-11-19 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、および、案内プログラム
US8686873B2 (en) 2011-02-28 2014-04-01 Toyota Motor Engineering & Manufacturing North America, Inc. Two-way video and 3D transmission between vehicles and system placed on roadside
US20130024113A1 (en) * 2011-07-22 2013-01-24 Robert Bosch Gmbh Selecting and Controlling the Density of Objects Rendered in Two-Dimensional and Three-Dimensional Navigation Maps
KR20130063605A (ko) 2011-12-07 2013-06-17 현대자동차주식회사 지리정보와 연계된 촬영 이미지를 이용한 도로 안내 표시 방법 및 그 장치
US8688377B1 (en) * 2012-02-17 2014-04-01 Google Inc. System and method of using automatically-identified prominent establishments in driving directions
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
JP5863536B2 (ja) * 2012-03-29 2016-02-16 富士重工業株式会社 車外監視装置
NZ739228A (en) 2015-08-03 2019-11-29 Glenmark Pharmaceuticals Sa Novel compounds as ror gamma modulators

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522415A (ja) * 2013-06-13 2016-07-28 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
JP2018504650A (ja) * 2014-12-26 2018-02-15 ヘーレ グローバル ベスローテン フェンノートシャップ 装置の位置特定のための幾何学的指紋法

Also Published As

Publication number Publication date
US10533869B2 (en) 2020-01-14
EP3008708A1 (en) 2016-04-20
CN110906949A (zh) 2020-03-24
CN105659304B (zh) 2020-01-03
EP3650814A1 (en) 2020-05-13
US20200173803A1 (en) 2020-06-04
JP6484228B2 (ja) 2019-03-13
EP3650814B1 (en) 2023-04-19
JP2020064068A (ja) 2020-04-23
CN111024099B (zh) 2023-10-27
EP3008708B1 (en) 2019-12-18
JP6763448B2 (ja) 2020-09-30
CN110906949B (zh) 2024-01-09
US20140372020A1 (en) 2014-12-18
JP2016522415A (ja) 2016-07-28
US20170322043A1 (en) 2017-11-09
EP3008708A4 (en) 2017-02-22
US11604076B2 (en) 2023-03-14
WO2014201324A1 (en) 2014-12-18
US9671243B2 (en) 2017-06-06
CN105659304A (zh) 2016-06-08
CN111024099A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
JP6763448B2 (ja) 視覚強化ナビゲーション
US11692842B2 (en) Augmented reality maps
CN104848863B (zh) 产生所关注位置的扩增视图
WO2019037489A1 (zh) 地图显示方法、装置、存储介质及终端
US11656090B2 (en) Method and system for generating navigation data for a geographical location
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
Murali et al. Smartphone-based crosswalk detection and localization for visually impaired pedestrians
JP6165422B2 (ja) 情報処理システム、情報処理装置、サーバ、端末装置、情報処理方法、及びプログラム
CN112789480B (zh) 用于将两个或更多个用户导航到会面位置的方法和设备
JP2007071539A (ja) 車載ナビゲーション装置
WO2019119358A1 (en) Method, device and system for displaying augmented reality poi information
JP5333861B2 (ja) 風景画像認識を用いた自車位置検出システム
EP3637056B1 (en) Method and system for generating navigation data for a geographical location
CN114715175A (zh) 目标对象的确定方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190225

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191008

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250