JP2021530676A - コンテキストアウェアナビゲーション音声アシスタント - Google Patents
コンテキストアウェアナビゲーション音声アシスタント Download PDFInfo
- Publication number
- JP2021530676A JP2021530676A JP2020568399A JP2020568399A JP2021530676A JP 2021530676 A JP2021530676 A JP 2021530676A JP 2020568399 A JP2020568399 A JP 2020568399A JP 2020568399 A JP2020568399 A JP 2020568399A JP 2021530676 A JP2021530676 A JP 2021530676A
- Authority
- JP
- Japan
- Prior art keywords
- audio navigation
- audio
- navigation instruction
- machine learning
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 claims abstract description 123
- 230000004044 response Effects 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 42
- 238000004891 communication Methods 0.000 description 16
- 238000013507 mapping Methods 0.000 description 12
- 238000003066 decision tree Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 238000012417 linear regression Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 241000208140 Acer Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3644—Landmark guidance, e.g. using POIs or conspicuous other objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3655—Timing of guidance instructions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3691—Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Atmospheric Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Computational Linguistics (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
車両内ナビゲーションシステムによって提供されるオーディオ命令は一般に、有益でなくてはならず、従うべきルートについての十分な命令を提供しなければならないが、聞く人、特にドライバーの注意を不必要にそらさずに行わなければならない。環境が変化するにつれて、そのようなオーディオ命令についての最適なパラメータも変化し得る。環境は比較的短い時間フレームの間に変化し得、したがってパラメータが変化し得る速度も著しいものであり得る。さらに、ユーザ、特にドライバーの実施し得る手動入力操作の範囲が限られていることがあり、したがってオーディオパラメータの手動調節は望ましくないことがある。したがって、改良型のシステム-ユーザオーディオインターフェースが有益であり得る。
図1を参照すると、上記で略述した技法が実装され得る例示的環境1が、ポータブルデバイス10と、ヘッドユニット14を備える車両12とを含む。ポータブルデバイス10は、たとえばスマートフォン、タブレットコンピュータ、または車両内ナビゲーションシステムであり得る。ポータブルデバイス10は、通信リンク16を介して車両12のヘッドユニット14と通信し、通信リンク16はワイヤード(たとえば、ユニバーサルシリアルバス(USB))またはワイヤレス(たとえば、Bluetooth、Wi-Fi Direct)であり得る。ポータブルデバイス10はまた、第4世代または第3世代セルラーネットワーク(それぞれ4Gまたは3G)などのワイヤレス通信ネットワークを介して、様々なコンテンツプロバイダ、サーバなどと通信し得る。
図3は、機械学習モデルを生成するために使用され得る例示的トレーニングデータ300を示す。いくつかの実施形態では、トレーニングデータ300はデータベース80内に記憶され得る。トレーニングデータ300は、オーディオナビゲーション命令パラメータ310、センサデータからのコンテキスト信号320、およびオーディオナビゲーション命令に対するドライバー応答330という3つの部分を含み得る。オーディオナビゲーション命令パラメータ310は、オーディオナビゲーション命令の詳細レベル302、オーディオナビゲーション命令のタイミング304、およびナビゲーション命令の音量306を含み得る。詳細レベルは高、中、または低であり得、低詳細レベルのオーディオナビゲーション命令は、たとえば方向転換(たとえば、「左折せよ」)と、方向転換のための位置としての街路名(たとえば、State Street)とを含む。いくつかの実施形態では、低詳細レベルのオーディオナビゲーション命令は、ユーザの現在位置から方向転換のための位置までの距離を記述する構成要素(たとえば、「500フィート先」)を含まない。中詳細レベルのオーディオナビゲーション命令は、たとえば、方向転換(たとえば、「左折せよ」)と、方向転換のための街路名または交差点(たとえば、State Street)と、ユーザの現在位置から方向転換のための位置までの距離を記述する構成要素(たとえば、「500フィート先」)とを含む。高詳細レベルのオーディオナビゲーション命令は、たとえば、方向転換のための位置としてのランドマーク(たとえば、「Joe's Restaurantにおいて右折せよ」)、方向転換のための位置に関する交通信号灯の記述(たとえば、「1000フィート先、2つの停止信号灯を通過した後、State Streetに左折せよ」、「Jim's Repair Shopの隣の次の一時停止標識においてやや右に進め」)、ユーザが方向転換のための位置に到達するまでの推定時間量を記述する構成要素(たとえば、「500フィート先または約30秒後に左折せよ」)、これらの任意の適切な組合せ、または中詳細レベルよりも多くの詳細を含む任意の適切なオーディオナビゲーション命令を含む。
図4は、図2のコンテキストアウェアオーディオナビゲーションジェネレータ68が例示的シナリオにおいて各オーディオナビゲーション命令についてのオーディオナビゲーション命令パラメータをどのように決定するかを概略的に示す。図4のブロックのうちのいくつかは、ハードウェアおよび/またはソフトウェア構成要素を表し(たとえば、ブロック402)、他のブロックは、データ構造、またはこれらのデータ構造、レジスタ、もしくは状態変数を記憶するメモリを表し(たとえば、ブロック404、412、420)、他のブロックは出力データを表す(たとえば、ブロック406〜410)。入力信号は、対応する信号名が付けられた矢印で表される。
図5は、車両内でコンテキストアウェアオーディオナビゲーション命令を生成するための例示的方法500の流れ図を示す。方法は、コンピュータ可読メモリ上に記憶され、サーバデバイス60の1つまたは複数のプロセッサにおいて実行可能である命令のセットとして実装され得る。たとえば、方法はコンテキストアウェアオーディオナビゲーションジェネレータ68によって実装され得る。
以下の追加の考慮すべき点が上記の議論に当てはまる。本明細書全体にわたって、複数のインスタンスが、単一のインスタンスとして説明された構成要素、動作、または構造を実装し得る。1つまたは複数の方法の個々の動作が別々の動作として図示され、説明されるが、個々の動作のうちの1つまたは複数が同時に実施され得、図示される順序で動作が実施される必要はない。例示的構成において別々の構成要素として提示される構造および機能が、組み合わされた構造または構成要素として実装され得る。同様に、単一の構成要素として提示された構造および機能が、別々の構成要素として実装され得る。これらおよび他の変形、修正、追加、および改良は、本開示の主題の範囲内に包含される。
12 車両
14 ヘッドユニット
16 通信リンク
18 ディスプレイ
19 センサ
20 ハードウェア入力制御
22 ハードウェア入力制御
24 マイクロフォン
26 スピーカ
30 通信ネットワーク
32 ユーザインターフェース(UI)
34 ナビゲーションデータサーバ
50 サーバ
60 サーバデバイス
62 プロセッサ
64 メモリ
68 コンテキストアウェアオーディオナビゲーションジェネレータ
80 データベース
100 通信システム
112 グラフィックス処理装置(GPU)
114 I/Oモジュール
116 プロセッサ(CPU)
120 メモリ
122 アプリケーション
124 ナビゲーションディスプレイ
126 オペレーティングシステム(OS)
300 トレーニングデータ
302 オーディオナビゲーション命令の詳細レベル
304 オーディオナビゲーション命令のタイミング
306 ナビゲーション命令の音量
308 位置
310 オーディオナビゲーション命令パラメータ
314 気象条件
316 時刻
318 オーディオデータ、雑音
320 センサデータからのコンテキスト信号
322 ユーザの満足に関する自己報告された表示
330 ドライバー応答
402 機械学習エンジン
420 機械学習モデル
Claims (20)
- 車両内でコンテキストアウェアオーディオナビゲーション命令を生成するための方法であって、
1つまたは複数のプロセッサによって、(i)前記車両内の複数のセンサ信号であって、オーディオナビゲーション命令が提供されるコンテキストを記述するセンサ信号と、(ii)ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかの表示とを使用して、機械学習モデルをトレーニングするステップと、
前記1つまたは複数のプロセッサによって、前記ドライバーに提供すべきナビゲーション命令を決定するステップと、
前記1つまたは複数のプロセッサによって、決定された前記ナビゲーション命令に基づいて、オーディオナビゲーション命令を生成するステップであって、
1つまたは複数のセンサ信号を受け取るステップ、および
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記機械学習モデルを適用して、(i)前記オーディオナビゲーション命令の詳細レベル、(ii)前記オーディオナビゲーション命令を提供するタイミング、または(iii)前記オーディオナビゲーション命令の音量のうちの少なくとも1つを生成するステップ
を含む、ステップと、
スピーカを介して前記ドライバーに提示するために前記オーディオナビゲーション命令を提供するステップと
を含む、方法。 - コンテキストを記述する前記車両内の前記センサ信号が、(i)前記車両の周囲の気象条件もしくは時刻を示す視界データ、(ii)前記車両における、もしくは前記車両の周りの雑音レベルを示すオーディオデータ、または(iii)前記車両の周囲の交通条件を示す交通量データのうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記機械学習モデルを適用して、前記オーディオナビゲーション命令を提供するタイミングを生成するステップが、前記機械学習モデルを適用して、前記オーディオナビゲーション命令の2つ以上のインスタンスを提供する頻度を生成するステップを含む、請求項1に記載の方法。
- 前記オーディオナビゲーション命令を生成するステップが、
方向転換のための位置としてランドマークを含む高詳細レベルを有する前記オーディオナビゲーション命令を生成するステップ、または
前記方向転換のための前記位置として交差点を含む低詳細レベルを有する前記オーディオナビゲーション命令を生成するステップ
のうちの少なくとも1つを含む請求項1に記載の方法。 - 前記ドライバーに前記オーディオナビゲーション命令を提供するステップに応答して、前記ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかを決定するステップと、
前記オーディオナビゲーション命令と、前記1つまたは複数のセンサ信号と、前記ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかの表示とを、トレーニングデータとして前記機械学習モデルに提供するステップと
をさらに含む、請求項1に記載の方法。 - 提供された前記トレーニングデータに基づいて、前記機械学習モデルを更新するステップ
をさらに含む、請求項5に記載の方法。 - 機械学習モデルをトレーニングするステップが、前記オーディオナビゲーション命令の詳細レベルを決定するための第1の機械学習モデル、前記オーディオナビゲーション命令のタイミングを決定するための第2の機械学習モデル、または前記オーディオナビゲーション命令の音量を決定するための第3の機械学習モデルのうちの2つ以上を含む、オーディオナビゲーション命令を生成するための複数の機械学習モデルをトレーニングするステップを含む、請求項1に記載の方法。
- 決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記機械学習モデルを適用するステップが、
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記第1の機械学習モデルを適用して、前記オーディオナビゲーション命令の詳細レベルを生成するステップ、
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記第2の機械学習モデルを適用して、前記オーディオナビゲーション命令を提供するタイミングを生成するステップ、または
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記第3の機械学習モデルを適用して、前記オーディオナビゲーション命令を提供する音量を生成するステップ
のうちの少なくとも1つを含む、請求項7に記載の方法。 - 車両内でコンテキストアウェアオーディオナビゲーション命令を生成するためのサーバデバイスであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサに結合され、命令を記憶した非一時的コンピュータ可読メモリであって、前記命令が、前記1つまたは複数のプロセッサによって実行されるとき、前記サーバデバイスに、
(i)前記車両内の複数のセンサ信号であって、オーディオナビゲーション命令が提供されるコンテキストを記述するセンサ信号と、(ii)ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかの表示とを使用して、機械学習モデルをトレーニングすること、
前記ドライバーに提供すべきナビゲーション命令を決定すること、
決定された前記ナビゲーション命令に基づいて、オーディオナビゲーション命令を生成することであって、
1つまたは複数のセンサ信号を受け取ること、および
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記機械学習モデルを適用して、(i)前記オーディオナビゲーション命令の詳細レベル、(ii)前記オーディオナビゲーション命令を提供するタイミング、または(iii)前記オーディオナビゲーション命令の音量のうちの少なくとも1つを生成すること
を含む、生成すること、
スピーカを介して前記ドライバーに提示するための前記オーディオナビゲーション命令を提供すること
を行わせる、非一時的コンピュータ可読メモリと
を備える、サーバデバイス。 - コンテキストを記述する前記車両内の前記センサ信号が、(i)前記車両の周囲の気象条件もしくは時刻を示す視界データ、(ii)前記車両における、もしくは前記車両の周りの雑音レベルを示すオーディオデータ、または(iii)前記車両の周囲の交通条件を示す交通量データのうちの少なくとも1つを含む、請求項9に記載のサーバデバイス。
- 前記オーディオナビゲーション命令を提供するタイミングが、前記オーディオナビゲーション命令の2つ以上のインスタンスを提供する頻度を含む、請求項9に記載のサーバデバイス。
- 生成された前記オーディオナビゲーション命令が、
方向転換のための位置としてランドマークを含む高詳細レベルを有するオーディオナビゲーション命令、または
前記方向転換のための前記位置として交差点を含む低詳細レベルを有するオーディオナビゲーション命令
のうちの少なくとも1つを含む、請求項9に記載のサーバデバイス。 - 前記命令がさらに、前記サーバデバイスに、
前記ドライバーに前記オーディオナビゲーション命令を提供することに応答して、前記ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかを決定させ、
前記オーディオナビゲーション命令と、前記1つまたは複数のセンサ信号と、前記ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかの表示とを、トレーニングデータとして前記機械学習モデルに提供させる、請求項9に記載のサーバデバイス。 - 前記命令がさらに、前記サーバデバイスに、
提供された前記トレーニングデータに基づいて、前記機械学習モデルを更新させる、請求項13に記載のサーバデバイス。 - 前記機械学習モデルが、前記オーディオナビゲーション命令の詳細レベルを決定するための第1の機械学習モデル、前記オーディオナビゲーション命令のタイミングを決定するための第2の機械学習モデル、または前記オーディオナビゲーション命令の音量を決定するための第3の機械学習モデルのうちの2つ以上を含む、オーディオナビゲーション命令を生成するための複数の機械学習モデルを含む、請求項9に記載のサーバデバイス。
- 決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記機械学習モデルを適用するために、前記命令が、前記サーバデバイスに、
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記第1の機械学習モデルを適用して、前記オーディオナビゲーション命令の詳細レベルを生成すること、
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記第2の機械学習モデルを適用して、前記オーディオナビゲーション命令を提供するタイミングを生成すること、または
決定された前記ナビゲーション命令および受け取られた前記1つまたは複数のセンサ信号に前記第3の機械学習モデルを適用して、前記オーディオナビゲーション命令を提供する音量を生成すること
のうちの少なくとも1つを行わせる、請求項15に記載のサーバデバイス。 - 車両内でコンテキストアウェアオーディオナビゲーション命令を提示するためのクライアントデバイスであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサに結合され、命令を記憶した非一時的コンピュータ可読メモリであって、前記命令が、前記1つまたは複数のプロセッサによって実行されるとき、前記クライアントデバイスに、
第1のインスタンスにおいて、
第1の開始位置から第1の目的地までのナビゲーション指示を求める要求を提供させ、
車両内のセンサ信号の第1のセットを提供させ、
特定のタイミングまたは音量で提示されるべき特定の詳細レベルを有する第1のオーディオナビゲーション命令を含む、オーディオナビゲーション命令の第1のセットを受け取らせ、
スピーカを介して、オーディオナビゲーション命令の前記第1のセットを提示させ、
第2のインスタンスにおいて、
第2の開始位置から第2の目的地までのナビゲーション指示を求める要求を提供させ、
車両内のセンサ信号の第2のセットを提供させ、
前記第1のインスタンスと同一の向き、位置、もしくは方向転換を有し、前記第1のインスタンスとは異なる詳細レベルを有し、または前記第1のインスタンスとは異なるタイミングもしくは音量で提示されるべきである前記第1のオーディオナビゲーション命令を含む、オーディオナビゲーション命令の第2のセットを受け取らせ、
前記スピーカを介して、オーディオナビゲーション命令の前記第2のセットを提示させる、非一時的コンピュータ可読メモリと
を備える、クライアントデバイス。 - 前記車両内の前記センサ信号が、(i)前記車両の周囲の気象条件もしくは時刻を示す視界データ、(ii)前記車両における、もしくは前記車両の周りの雑音レベルを示すオーディオデータ、または(iii)前記車両の周囲の交通条件を示す交通量データのうちの少なくとも1つを含む、請求項17に記載のクライアントデバイス。
- オーディオナビゲーション命令の前記第1のセットおよび前記第2のセットが、(i)オーディオナビゲーション命令が提供されるコンテキストを記述する、前記車両内の複数のセンサ信号と、(ii)ドライバーが前記オーディオナビゲーション命令に正しく応答したかどうかの表示とを使用してトレーニングされた機械学習モデルを介して生成される、請求項17に記載のクライアントデバイス。
- 前記第1のインスタンスにおいて、前記第1のオーディオナビゲーション命令が、方向転換のための位置としてランドマークを含む高詳細レベルで提示され、
前記第2のインスタンスにおいて、前記第1のオーディオナビゲーション命令が、前記方向転換のための前記位置として交差点を含む低詳細レベルで提示される、請求項17に記載のクライアントデバイス。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2018/058941 WO2020091806A1 (en) | 2018-11-02 | 2018-11-02 | Context aware navigation voice assistant |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021530676A true JP2021530676A (ja) | 2021-11-11 |
JP7121145B2 JP7121145B2 (ja) | 2022-08-17 |
Family
ID=64572455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020568399A Active JP7121145B2 (ja) | 2018-11-02 | 2018-11-02 | コンテキストアウェアナビゲーション音声アシスタント |
Country Status (6)
Country | Link |
---|---|
US (2) | US11725957B2 (ja) |
EP (1) | EP3784988A1 (ja) |
JP (1) | JP7121145B2 (ja) |
KR (2) | KR102655342B1 (ja) |
CN (1) | CN112368547B (ja) |
WO (1) | WO2020091806A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109564103B (zh) * | 2016-08-01 | 2023-03-31 | 通腾导航技术股份有限公司 | 用于产生自适应路线引导信息的方法及系统 |
US20210081863A1 (en) * | 2019-07-25 | 2021-03-18 | Airwire Technologies | Vehicle intelligent assistant |
EP4182919A1 (en) | 2020-08-12 | 2023-05-24 | Google LLC | Interactive voice navigation |
WO2022086528A1 (en) * | 2020-10-22 | 2022-04-28 | Google Llc | Content-aware navigation instructions |
US11689868B2 (en) * | 2021-04-26 | 2023-06-27 | Mun Hoong Leong | Machine learning based hearing assistance system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324818A1 (en) * | 2009-06-19 | 2010-12-23 | Gm Global Technology Operations, Inc. | Presentation of navigation instructions using variable content, context and/or formatting |
JP2013086754A (ja) * | 2011-10-21 | 2013-05-13 | Mitsubishi Electric Corp | 音響装置 |
US20150276421A1 (en) * | 2014-03-27 | 2015-10-01 | Here Global B.V. | Method and apparatus for adapting navigation notifications based on compliance information |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6353814B1 (en) | 1997-10-08 | 2002-03-05 | Michigan State University | Developmental learning machine and method |
US6212474B1 (en) * | 1998-11-19 | 2001-04-03 | Navigation Technologies Corporation | System and method for providing route guidance with a navigation application program |
US20030144846A1 (en) | 2002-01-31 | 2003-07-31 | Denenberg Lawrence A. | Method and system for modifying the behavior of an application based upon the application's grammar |
US20070078596A1 (en) * | 2005-09-30 | 2007-04-05 | John Grace | Landmark enhanced directions |
EP2003641B1 (en) | 2006-03-31 | 2013-03-06 | Pioneer Corporation | Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device |
BRPI0621445A2 (pt) * | 2006-07-06 | 2011-12-13 | Tomtom Int Bv | dispositivo de navegação com instruções de navegação adaptáveis |
JP2008216065A (ja) * | 2007-03-05 | 2008-09-18 | Aisin Aw Co Ltd | ナビゲーション装置 |
US8930135B2 (en) * | 2007-04-17 | 2015-01-06 | Esther Abramovich Ettinger | Device, system and method of landmark-based routing and guidance |
EP2616775B1 (en) * | 2010-09-13 | 2016-01-06 | TomTom International B.V. | Navigation device with alternative navigation instructions |
EP2807454A4 (en) * | 2012-01-26 | 2015-08-19 | Telecomm Systems Inc | NAVIGATION GUIDANCE |
US9305411B2 (en) | 2012-03-14 | 2016-04-05 | Autoconnect Holdings Llc | Automatic device and vehicle pairing via detected emitted signals |
WO2014172369A2 (en) | 2013-04-15 | 2014-10-23 | Flextronics Ap, Llc | Intelligent vehicle for assisting vehicle occupants and incorporating vehicle crate for blade processors |
US8694246B2 (en) * | 2012-05-15 | 2014-04-08 | Qualcomm Incorporated | Methods and systems for displaying enhanced turn-by-turn guidance on a personal navigation device |
US9189959B2 (en) * | 2012-06-27 | 2015-11-17 | International Business Machines Corporation | Navigation system providing a super detail mode of operation to assist user's driving |
CN103077624B (zh) * | 2012-12-28 | 2015-07-29 | 天津爱迪尔软件开发有限公司 | 一种基于gps的即时导航路况系统及导航方法 |
US8862387B2 (en) * | 2013-01-08 | 2014-10-14 | Apple Inc. | Dynamic presentation of navigation instructions |
US9127955B2 (en) * | 2013-01-31 | 2015-09-08 | GM Global Technology Operations LLC | Adaptive user guidance for navigation and location-based services |
US20150192426A1 (en) * | 2014-01-03 | 2015-07-09 | Google Inc. | Input/Output Functions Related To A Portable Device In An Automotive Environment |
US9476729B2 (en) * | 2014-05-29 | 2016-10-25 | GM Global Technology Operations LLC | Adaptive navigation and location-based services based on user behavior patterns |
CN109564103B (zh) * | 2016-08-01 | 2023-03-31 | 通腾导航技术股份有限公司 | 用于产生自适应路线引导信息的方法及系统 |
US10611379B2 (en) * | 2016-08-16 | 2020-04-07 | Toyota Jidosha Kabushiki Kaisha | Integrative cognition of driver behavior |
CN106595648B (zh) * | 2016-11-04 | 2020-04-21 | 华为机器有限公司 | 一种导航方法及终端 |
CN106643775A (zh) * | 2017-02-23 | 2017-05-10 | 高域(北京)智能科技研究院有限公司 | 基于大数据机器学习的导航方法及其导航系统 |
CN108168548B (zh) * | 2018-02-13 | 2022-03-15 | 南京师范大学 | 一种通过机器学习算法与模型辅助的行人惯性导航系统和方法 |
-
2018
- 2018-11-02 KR KR1020237020645A patent/KR102655342B1/ko active IP Right Grant
- 2018-11-02 EP EP18812421.8A patent/EP3784988A1/en active Pending
- 2018-11-02 US US16/606,579 patent/US11725957B2/en active Active
- 2018-11-02 JP JP2020568399A patent/JP7121145B2/ja active Active
- 2018-11-02 WO PCT/US2018/058941 patent/WO2020091806A1/en unknown
- 2018-11-02 KR KR1020207037475A patent/KR20210013726A/ko active Application Filing
- 2018-11-02 CN CN201880095260.8A patent/CN112368547B/zh active Active
-
2023
- 2023-06-22 US US18/213,027 patent/US20230332913A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324818A1 (en) * | 2009-06-19 | 2010-12-23 | Gm Global Technology Operations, Inc. | Presentation of navigation instructions using variable content, context and/or formatting |
JP2013086754A (ja) * | 2011-10-21 | 2013-05-13 | Mitsubishi Electric Corp | 音響装置 |
US20150276421A1 (en) * | 2014-03-27 | 2015-10-01 | Here Global B.V. | Method and apparatus for adapting navigation notifications based on compliance information |
Also Published As
Publication number | Publication date |
---|---|
KR102655342B1 (ko) | 2024-04-05 |
CN112368547A (zh) | 2021-02-12 |
KR20210013726A (ko) | 2021-02-05 |
CN112368547B (zh) | 2024-04-30 |
WO2020091806A1 (en) | 2020-05-07 |
US20230332913A1 (en) | 2023-10-19 |
US20210404833A1 (en) | 2021-12-30 |
US11725957B2 (en) | 2023-08-15 |
EP3784988A1 (en) | 2021-03-03 |
JP7121145B2 (ja) | 2022-08-17 |
KR20230096136A (ko) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7121145B2 (ja) | コンテキストアウェアナビゲーション音声アシスタント | |
US11535262B2 (en) | Method and apparatus for using a passenger-based driving profile | |
US10268756B2 (en) | Method and apparatus for providing natural language input in a cartographic system | |
US9869561B2 (en) | Method and apparatus for providing traffic event notifications | |
US20200081611A1 (en) | Method and apparatus for providing a user reaction user interface for generating a passenger-based driving profile | |
US20200079396A1 (en) | Method and apparatus for generating a passenger-based driving profile | |
US20200082287A1 (en) | Method and apparatus for selecting a vehicle using a passenger-based driving profile | |
CN110998563B (zh) | 用于对视场中兴趣点消除歧义的方法、设备和绘图系统 | |
TW202009743A (zh) | 交互方法、設備、媒體和操作系統 | |
JP2006003385A (ja) | 地図データ提供装置 | |
EP3816582A1 (en) | Method and apparatus for providing speculative navigation routing in incomplete offline maps | |
US20220299335A1 (en) | Content-aware navigation instructions | |
US20170347237A1 (en) | Determining Semantic Travel Modes | |
KR20210079237A (ko) | 네비게이션 중 어려운 기동들을 위한 추가 명령들을 제공하는 방법 | |
US9803991B2 (en) | Route guide device and route guide method | |
US20220229868A1 (en) | Method and apparatus for automated map object conflict resolution via map event normalization and augmentation | |
US20220180183A1 (en) | Method, apparatus, and system for providing place category prediction | |
US20220404155A1 (en) | Alternative Navigation Directions Pre-Generated When a User is Likely to Make a Mistake in Navigation | |
EP3857404A1 (en) | Dynamic generation and suggestion of tiles based on user context | |
US20220207081A1 (en) | In-vehicle music system and method | |
US20230392936A1 (en) | Method and apparatus for determining lingering communication indicators | |
CN117808002A (zh) | 场景文件生成、场景文件生成模型训练方法及电子设备 | |
CN113949734A (zh) | 地铁场景中的定位方法、装置、设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7121145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |