JP2008058276A - 車載装置 - Google Patents

車載装置 Download PDF

Info

Publication number
JP2008058276A
JP2008058276A JP2006239012A JP2006239012A JP2008058276A JP 2008058276 A JP2008058276 A JP 2008058276A JP 2006239012 A JP2006239012 A JP 2006239012A JP 2006239012 A JP2006239012 A JP 2006239012A JP 2008058276 A JP2008058276 A JP 2008058276A
Authority
JP
Japan
Prior art keywords
signboard
information
vehicle
character string
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006239012A
Other languages
English (en)
Other versions
JP4755556B2 (ja
Inventor
Nobuo Hataoka
信夫 畑岡
Hiroaki Kokubo
浩明 小窪
Takeshi Honma
健 本間
Hirohiko Sagawa
浩彦 佐川
Hisashi Takahashi
久 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xanavi Informatics Corp filed Critical Xanavi Informatics Corp
Priority to JP2006239012A priority Critical patent/JP4755556B2/ja
Priority to US11/826,161 priority patent/US8694323B2/en
Publication of JP2008058276A publication Critical patent/JP2008058276A/ja
Application granted granted Critical
Publication of JP4755556B2 publication Critical patent/JP4755556B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】 音声入力において、走行中等に見かけたポイントの名称等が正確には判らない場合でも、そのポイントを特定することのできる技術を提供する。
【解決手段】 車両に搭載され、音声認識機能を有する車載装置であって、看板に示されている看板情報と、指示代名詞とを記憶装置に記憶している。音声入力装置から入力された音声に、指示代名詞が含まれており、かつ、看板に示されている情報のうち少なくとも一部が含まれている場合、その看板に示されている情報に応じた応答を決定し、決定した応答を出力装置から出力する。
【選択図】 図2

Description

本発明は、車載装置に関するものである。
従来技術として、例えばカーナビゲーションシステム等で、音声入力をユーザインタフェースとして利用した各種情報サービスシステムがある。このような従来技術では、音声を、単語や固定的な表現で入力している。例えば、カーナビゲーションシステム等で、目的地の入力に音声入力を用いる場合、カーナビゲーションシステム等の「目的地をどうぞ」という合成音声に対し、ユーザは「××温泉」と音声で答える。すると、カーナビゲーションシステム等は、音声認識により「××温泉」を認識し、この温泉地を目的地とした経路探索を行なう。
特許文献1には、カーナビゲーションシステムが、撮影した画像から、次にユーザが発話する語彙の絞込みを行なう技術が記載されている。
特開2005−173109号公報
上述のように、従来の音声入力では、例えば「××温泉」等入力する地名等の名称を正確に発話する必要がある。ところが、実際の使用状況では、ユーザは、道路走行中に見かけた店舗や観光地等のポイントを示す看板を見かけ、その看板に示されているポイントを経由等したくなる場合もある。このような場合、走行速度が速い等の理由で、そのポイントの名称等が正確には判らない場合もある。
本発明はこのような事情に鑑みてなされたもので、音声入力において、走行中等に見かけたポイントの名称等が正確には判らない場合でも、そのポイントを特定することのできる技術を提供することを目的とする。また、本発明の目的は、看板に示される情報をふまえての対話処理を可能とすることを特徴とする。
本発明は上記の目的を達成するためになされたもので、車載装置において、看板に示される文字列を含む看板情報を記憶装置に記憶しておき、その音声に含まれる文字列と看板情報とから、その音声に応じた応答を出力することを特徴とする。
また、本発明は、車両に搭載され、音声認識機能を有する車載装置であって、看板に示されている情報を記憶する看板情報記憶手段と、指示代名詞を記憶する指示代名詞記憶手段と、音声入力手段と、前記音声入力手段から入力された音声に、前記指示代名詞が含まれており、かつ、前記看板に示されている情報のうち少なくとも一部が含まれている場合、該看板に示されている情報に応じた応答を決定する応答処理手段と、前記決定した応答を出力装置から出力する出力手段と、を有することを特徴とする。
本発明の技術によれば、音声入力において、走行中等に見かけたポイントの名称等が正確に判らなくても、そのポイントを特定することが可能となる。また、看板に示される情報をふまえての対話処理が可能となる。
以下、本発明の一実施形態を、図面を参照して詳細に説明する。
<第1の実施形態>
第1の実施形態を説明する。
以下で説明する実施形態は、例えばナビゲーションシステム等の情報処理装置が、自身の搭載されている車両の走行している道路近傍にある看板に示されている情報を記憶している。この、看板に示されている情報とは、例えば、店舗名、地名、提供可能なサービス等の情報である。ここでは、この情報を看板情報という。本実施形態の情報処理装置は、ユーザの発話により入力された音声に、指示代名詞と、看板情報の一部が含まれているか否か判定し、この判定の結果、該当する情報が含まれている場合、その指示代名詞がどの看板を示しているかを対話的に応答して特定することを要旨とする。これにより、正式な名称等が判らない場合でも、どの店舗や位置、サービスを示しているかを特定することが可能となる。
ここで、判定に用いられる看板情報は、予め情報処理装置が自身の記憶装置に記憶していても良い。本実施形態では、看板情報は、予め記憶装置に記憶されているものに加え、カメラにより撮影された画像から取得する場合と、ビーコン送信機から送信される場合と、RFID(Radio Frequency Identification System)の保持する看板情報を読み取る場合と、インターネット等の通信ネットワークを介して送信される場合とがあるものとする。さらに、本実施形態では、対話応答により看板が特定された場合、その看板に示される地名や店舗、観光地等の詳細情報を、外部機器に要求するものとする。
図1を参照し、第1の実施形態のシステム構成例を説明する。
図1に本発明を利用した車載情報サービスシステム構成の一実施例を示す。本実施形態のシステムは、車載装置101、センタサーバ102、ビーコン送信機103、RFID104等を有する。車載装置101と、センタサーバ102とは、例えばインターネット等の通信ネットワーク105により接続されている。車載装置101とビーコン送信機103とは、無線通信により通信する。車載装置101とRFID104とは、無線通信により通信する。車載装置101は、車両106に搭載されている。
車載装置101は、例えばナビゲーションシステム等の情報処理装置である。車載装置101は、マイクロフォン、スピーカ、カメラ、画像処理機能、雑音抑圧機能、音声認識機能、音声合成機能、対話管理機能等を有する。
センタサーバ102は、予め、記憶装置(図示略)に、詳細情報及び看板情報を記憶する。ここでは、詳細情報とは、例えば、道路を走行するユーザから見える位置にある看板に記載されている地名や店舗、観光地等の位置等を含むPOI(Point of Interets)情報であるものとする。また、看板情報とは、店舗名、地名、提供可能なサービス等を示す文字列であるものとする。センタサーバ102は、要求を受け付けた場合、通信ネットワーク105を介して、このPOI情報を車載装置101に送信する。また、センタサーバ102は、看板情報を送信する。
ビーコン送信機103は、看板情報等を、通信可能な範囲に侵入した車両に送出する。
RFID104は、例えば、看板や店舗等に装置されている。RFIDは、記憶装置(図示略)に看板情報を記憶している。
車載装置101は、予め、記憶装置(図示略)に看板情報を記憶している。車載装置101は、センタサーバ102から送信される看板情報を受信する。ビーコン送信機103から送信される看板情報を受信する。また、車載装置101は、RFID104の保持している看板情報を読み取る。さらに、車載装置101は、カメラにより撮影された画像データを画像処理して、ユーザから見える範囲の看板から看板情報を取得する。
車載装置101は、マイクロフォンから、ユーザの発話が入力されると、その発話を音声認識して、所定の指示代名詞が含まれているか否か判定する。この判定の結果、所定の指示代名詞が含まれている場合、車載装置101は、その発話に含まれる他の単語が、記憶装置に記憶している看板情報に含まれる文字列、又は、センタサーバ102、ビーコン送信機103、RFID104等から取得した看板情報に含まれる文字列と一致するか否か判定する。車載装置101は、この判定に応じて、その応答を合成音声としてスピーカから出力する。さらに、車載装置101は、POI情報の要求をセンタサーバ102に送信する。
次に、各機器の構成例について詳細に説明する。
まず、車載装置101の構成例を、図2を参照して説明する。
図2において、車載装置101は、例えば、ナビゲーションシステム等である。車載装置101は、2次記憶装置201、CPU(Central Processing Unit)202、メモリ203、入力装置204、通信インタフェース205、通信装置206、マイクロフォン207、スピーカ208、ディスプレイ209、GPS(Global Positioning System)受信装置210、カメラ211等を有する。2次記憶装置201、CPU202、メモリ203、入力装置204、通信インタフェース205、通信装置206、マイクロフォン207、スピーカ208、ディスプレイ209、GPS受信装置210、カメラ211等はバス212等により接続されている。
2次記憶装置201は、例えば、CD-R(Compact Disc-Recordable)やDVD-RAM(Digital Versatile Disk-Random Access Memory)等の記憶メディア及び当該記憶メディアの駆動装置、HDD(Hard Disk Drive)等である。2次記憶装置201は、地図情報251、認識画像情報252、看板情報253、画像看板情報254、POI情報255、指示語情報256、対応辞書257、プログラム258等を記憶している。
地図情報251は、道路情報、建物の位置等を含む情報であり、従来技術のナビゲーションシステムで用いる地図と同じである。認識画像情報252は、例えばロゴや商標等、カメラ211により撮影された画像を処理して周辺の看板の看板情報を取得するためのものである。看板情報253は、後述する動作例により、センタサーバ102、ビーコン送信機103、RFID104等から取得した看板情報である。画像看板情報254は、カメラ211により撮影された画像を処理して取得した周辺の看板の看板情報である。POI情報255は、後述する動作例により、センタサーバ102から取得するPOI情報である。このPOI情報は、例えば、従来技術のPOI情報であり、観光地や店舗等の地図上の位置等を含む。指示語情報256は、ユーザの発話に、看板に関する質問が含まれているか否かを判定する指示代名詞が含まれる。対応辞書257は、音声認識のための辞書である。対応辞書257は、例えば、単語や、その単語が経路探索、目的地及び経由地の設定、検索、同意、否定等の何を示しているかを示す情報であり、従来技術と同じである。プログラム258は、後述する機能を実現するためのプログラムである。
CPU202は、プログラム258を実行することにより、看板情報取得部271、画像取込部272、画像処理部273、同定判定部274、POI情報取得部275、シナリオ生成部276、音声受付部277、音声認識処理部278、判定部279、対話処理部280、出力処理部281、ナビゲーション処理部282等を実現する。
看板情報取得部271は、センタサーバ102、ビーコン送信機103、RFID104等から看板情報を取得し、看板情報253に記憶させる。画像取込部272は、カメラ211により撮影された画像を取り込む。画像処理部273は、認識画像情報252内のロゴや商標等の情報と、画像取込部272により取り込まれた画像を画像処理した結果等とから、看板情報を取得する。また、画像処理部273は、画像取込部272により取り込まれた画像を画像処理して文字列を取得し、看板情報を取得する。画像処理部273は、このように取得した看板情報を看板情報253に格納する。同定判定部274は、認識画像情報252と看板情報253とを比較して、同一の看板を示す看板情報を取得する。POI情報取得部275は、センタサーバ102からPOI情報を取得する。シナリオ生成部276は、POI情報と看板情報とから、対話シナリオを作成する。なお、POI情報取得部275が、入力された音声からセンタサーバ102にPOI情報を要求する処理等、音声を入力とした情報を送受信する技術は特に限定するものではなく、例えばVioceXML(eXtensible Markup Language)等の従来技術により実現するとよい。音声受付部277は、ユーザの発話による音声を受け付ける。音声認識処理部278は、音声受付部277により受け付けられた音声データをテキストデータに変換する。この音声認識処理部278の処理は従来技術と同じである。判定部279は、音声認識処理部278により変換された文字列に、指示語情報256内の指示代名詞が含まれているか否かにより判定を行なう。特に、本実施形態では、判定部279は、さらに、その文字列に看板情報253又は画像看板情報254内の各看板に関する情報が含まれているか否か判定する。対話処理部280は、それ以前の処理に応じた応答を決定する。本構成によれば、撮影された画像に含まれる情報を示す指示語がユーザの発話含まれているか否かにより、その発話が看板を意図したものであるか否か判定することが可能となる。この判定で、ユーザの発話が看板を意図していると判定される場合には、その看板を意図した対話シナリオを生成し、この対話シナリオに基づいて対話処理を行なうことが可能となる。この対話処理部280の機能を実現する技術は特に限定するものではないが、例えば、従来技術のSRGS(Speech Recognition Grammar Specification)や文法ファイル等により実現するとよい。出力処理部281は、対話処理部280の決定に応じた応答を出力する。ナビゲーション処理部282は、センタサーバ102にPOI情報を要求する。
入力装置204は、例えばボタン、リモコン及びリモコン受信部、タッチパネル等である。通信装置206は、通信インタフェース205を介してバス212と接続する。通信装置206は、例えば、ビーコン受信装置、携帯電話、RFIDアンテナ及びRFIDリーダ等である。GPS受信装置210は、GPS衛星(図示略)からの信号を受信する。カメラ211は、車両の周囲を撮影する。本実施形態では、カメラ211は、例えば魚眼レンズ等により、車両前方180度の周辺画像を撮影可能とする。このカメラ211は、後述する機能のために特別に備えられるものでもよく、また、例えばレーンキープ用等他の機能のために備えられたものを流用してもよい。
次に、車載装置101の記憶する各情報の詳細を説明する。
まず、地図情報251について説明する。
地図情報251は、緯度及び経度、その緯度及び経度におけるXY座標等を含むものとする。地図情報251は、座標情報を含む複数の地図の画像データ、道路データ、地名データ、住所データ、電話帳データ等を含む。地名データは、地図上の位置と、その位置における地名等を対応付けて記憶している。住所データは、地図上の位置と、その位置における住所等を対応付けて記憶している。電話帳データは、電話番号、その電話番号に応答する企業や個人名、その企業や個人の地図上の位置等を対応付けて記憶している。
この地図情報251は、従来技術のナビゲーションシステムが現在位置算出、経路探索等の機能のために用いるものでもよく、以下で説明する機能のために用いるものでもよい。
次に、認識画像情報252の一例について、図3を参照して説明する。
認識画像情報252内の情報は、予め2次記憶装置201に記憶されているものとするが、これに限られるわけではなく、入力装置204又は通信装置206等を介して入力された情報に従い追加、変更等されてもよく、また、センタサーバ102から送信されたものでもよい。
認識画像情報252内の情報は、例えばロゴや商標のような、看板にて店舗やサービス等を示すための画像等である。図3の例では、認識画像情報252は、ID301、画像302、文字列303等を有する。各行のID301、画像302、文字列303等は互いに対応付けられている。ID301は、看板にて店舗やサービス等を示すためのロゴや商標等の識別情報である。画像302は、対応するID301のロゴや商標等の画像である。文字列303は、対応するID301、画像302で示されるサービスや店舗等の名称である。
なお、図3の例では、1つのテーブルが、ID、画像、文字列等の組み合わせを複数有するものを示しているが、これに限られる分けではなく、1つのテーブルに、1つのID、画像、文字列等の組み合わせを格納し、認識画像情報の数だけ、このテーブルを有していても良い。
看板情報253の一例について、図4を参照して説明する。
図4に一例を示す看板情報253内の情報は、予め2次記憶装置201に記憶されているものと、センタサーバ102から送信されるものと、ビーコン送信機103から送信されるものと、RFID104から読み取るものとを含む。
図4において、看板情報253は、ID401、看板位置402、文字列403等を有する。各行のID401、看板位置402、文字列403等は互いに対応付けられている。ID401は、看板の識別情報である。看板位置402は、対応するID401の看板の存在する位置である。文字列403は、対応するID401の看板に記載されている文字、及び、対応するID401の看板に記載されているロゴや商標等で示されるサービスや店舗の名称等である。
なお、図4の例では、1つのテーブルが、ID、看板位置、文字列等の組み合わせを複数有するものを示しているが、これに限られる分けではなく、1つのテーブルに、1つのID、看板位置、文字列等の組み合わせを格納し、看板情報の数だけ、このテーブルを有していても良い。
画像看板情報254の一例について、図5を参照して説明する。
画像看板情報254内の情報は、後述する動作により、車載装置101が撮影された画像から取得するものである。図5において、画像看板情報254は、撮影位置501、ID502、文字列503、同定504、シナリオ505等を有する。各行の撮影位置501、ID502、文字列503、同定504、シナリオ505等は互いに対応付けられている。撮影位置501は、画像を撮影した位置である。ID502は、対応する撮影位置501において撮影された画像から抽出した看板や建物等の識別情報である。文字列503は、対応するID502の看板や建物等から抽出した文字列、及び、対応するID502の看板で示されるロゴや商標等の示すサービスや店舗等である。同定504は、対応するID502の看板と同じ看板を示す看板情報253内のID401である。シナリオ505は、対応するID502の看板に関する対話をユーザと行なう場合に用いる対話シナリオである。このシナリオ505は、後述する動作例により車載装置101により生成される。
なお、図5の例において、同定504が「-」で示されているものは、対応するID502の看板と同じ看板を示す看板情報253内のID401が無いことを示す。画像看板情報254内の看板情報は、後述する動作例により画像から取得されるものである。しかし、画像から得られる情報は、単なる建物名や誤認識等、ユーザが用いることの少ない情報も含まれる場合がある。このような情報には、上述のPOI情報がない場合がある。図5の例の同定504「-」は、このような場合を示すものである。
また、図5の例において、シナリオ505が「-」で示されているものは、対応するID502の看板で示される文字列による対話シナリオが無いことを示す。
また、図4の例では、1つのテーブルが、撮影位置、ID、文字列、同定、シナリオ等の組み合わせを複数有するものを示しているが、これに限られる分けではなく、1つのテーブルに、1つの撮影位置、ID、文字列、同定、シナリオ等の組み合わせを格納し、画像看板情報の数だけ、このテーブルを有していても良い。
POI情報255は、ここでは、後述する動作例によりセンタサーバ102から取得するものとする。POI情報255は、後述するPOI情報852と同じであるので、ここでは省略する。
指示語情報256の一例について、図6を参照して説明する。
指示語情報256内の情報は、予め2次記憶装置201に記憶されているものとするが、これに限られるわけではなく、入力装置204又は通信装置206等を介して入力された情報に従い追加、変更等されてもよく、また、センタサーバ102から送信されたものでもよい。
図6において、指示語情報256は指示語601等を有する。指示語601は、ユーザの発話した音声から抽出する指示代名詞である。
次に、車載装置101のシステムアーキテクチャの例を、図7を参照して説明する。
図7において、車載装置101は、CPU701、リアルタイムOS(Operating System)702、JavaVM703、OSGI(Open Service Gateway Initiative)フレームワーク704、汎用ブラウザ705、WWW(World Wide Web)サーバアクセスソフト706、Webサービス基盤707、タスク管理ソフト708、ダウンロード管理用アプリ721、ダウンロードAPP(Application Program Package)722等を有する。
CPU701、リアルタイムOS702、JavaVM703、OSGIフレームワーク704、汎用ブラウザ705、WWWサーバアクセスソフト706等は、基本的なプラットフォームである。
Webサービス基盤707は、各種アプリケーションソフト等を有する。各種アプリケーションとしては、例えば、テレマ制御712、ナビ制御713、車両制御714等である。この対話管理ソフト711は、VXIも含む。これらは、以下で説明する本実施形態に関与するものである。
ダウンロード管理用アプリ721、ダウンロードAPP722は、センタサーバ102へのアクセス、データのダウンロード機能である。
次に、センタサーバ102の構成例を、図8を参照して説明する。
センタサーバ102は、2次記憶装置801、CPU802、メモリ803、入力装置804、出力装置805、通信インタフェース806等を有する。2次記憶装置801、CPU802、メモリ803、入力装置804、出力装置805、通信インタフェース806等はバス807により互いに接続されている。
2次記憶装置801は、例えば、CDやDVD等の記憶メディア及び当該記憶メディアの駆動装置、HDD等である。2次記憶装置801は看板情報851、POI情報852、プログラム853等を記憶する。看板情報851は、看板情報を格納する。この看板情報は、上述の看板情報253と項目が同じであるので、詳細な説明は省略する。POI情報852は、POI情報を格納する。このPOI情報852は、上述のPOI情報255と同じである。プログラム853は、後述する機能を実現するためのものである。
入力装置804は、例えばキーボード、マウス、マイク等である。出力装置805は、例えばディスプレイ、プリンタ、スピーカ等である。センタサーバ102は、通信インタフェース806を介して通信ネットワーク105と接続する。
CPU802は、プログラム853を実行することにより、看板情報送信部871、POI情報要求受付部872、POI情報検索部873、POI情報送信部874等を実現する。看板情報送信部871は、車載装置101の要求に応じて、看板情報851から読み出した看板情報を送信する。POI情報要求受付部872は、車載装置101からのPOI情報要求を受け付ける。POI情報検索部873は、看板情報851から、要求されたPOI情報を検索する。POI情報送信部874は、POI情報検索部873の検索したPOI情報を車載装置101に送信する。
次に、2次記憶装置801内の情報の詳細を説明する。
POI情報852、POI情報255の一例について、図9を参照して説明する。
図9において、POI情報852、POI情報255は、ID901、看板位置902、文字列903、所在位置904、備考905等を含む。各行のID901、看板位置902、文字列903、所在位置904、備考905等は互いに対応付けられている。ID901は、看板の識別情報である。看板位置902は、対応するID901の看板の存在する位置である。文字列903は、対応するID901の看板に記載されている文字、及び、対応するID901の看板に記載されているロゴや商標等で示されるサービスや店舗の名称等である。所在位置904は、対応するID901の看板に記載されているロゴや商標等で示されるサービスを受けることのできる場所や、店舗の位置である。備考905は、対応するID901の看板に記載されているロゴや商標等で示されるサービスや店舗に関する詳細情報である。
なお、図9に一例を示すように、互いに対応する看板位置902、所在位置904が一致するとは限らない。これは、例えば、看板が「ガソリンスタンド 5km先」というようなことを示す場合もあるからである。このような場合、看板位置902は、その看板の設置等されている位置であり、所在位置904は、そのガソリンスタンドの所在位置である。
次に、動作例を説明する。
まず、図10を参照し、本実施形態の概要をシーケンス動作例により説明する。
図10の例では、ユーザが、まず、音声入力により目的地を設定し、車載装置101が、設定された目的地に誘導する場合の例を説明する。しかし、これに限られるわけではなく、目的地の設定等は行なわなくても良い。
図10において、ユーザは、発話により目的地を入力する。具体的には、例えば、車載装置101のナビゲーション処理部282が、スピーカ208から「目的地をどうぞ」という合成音声を出力する。これに対し、ユーザは「○○遊園地」と発話する。この音声情報(アナログ)は、車載装置101のマイクロフォン207から入力される。入力された音声情報は、AD変換器(図示略)等により音声データ(デジタル)に変換等される。車載装置101の音声受付部277は、音声データを受け付ける。音声認識処理部278は、受け付けられた音声データを処理して文字データ(テキストデータ)に変換する。これらの処理そのものは、従来技術の音声認識と同じである。
ナビゲーション処理部282は、音声により入力された目的地までの経路を、例えばダイクストラ法等により探索する。さらに、ナビゲーション処理部282は、探索された経路のうち1つを推奨経路として設定する(S1002)。ナビゲーション処理部282は、設定された推奨経路に誘導するための画像データ及び合成音声データをスピーカ208、ディスプレイ209等から出力する(S1003)。この経路探索、誘導等は、従来技術のナビゲーションシステムの技術と同じである。
上述のように、道路近傍には、ビーコン送信機103等が設置されている。また、店舗や看板等にはRFID104等が装置されている。
車載装置101の看板情報取得部271は、ビーコン送信機103から発信される信号を受け付けると、看板情報要求を送信する。ビーコン送信機103は、その要求に応じて、看板情報を含む情報を送信する(S1004)。この情報には、従来技術と同様に渋滞情報等も含まれていても良い。車載装置101の看板情報取得部271は、受信した情報から看板情報を抽出し、看板情報253に格納する。
また、車載装置101の看板情報取得部271は、所定場所等において、RFID104の保持している看板情報を読み取る(S1005)。看板情報取得部271は、取得した看板情報を看板情報253に格納する。
また、車載装置101の看板情報取得部271は、所定時間毎や所定場所等において、センタサーバ102に看板情報要求を送信する。センタサーバ102の看板情報送信部871は、看板情報851から読み出した看板情報を車載装置101に送信する(S1006)。看板情報取得部271は、受信した看板情報を看板情報253に格納する。
車載装置101の画像取込部272は、所定時間毎や所定場所等において、カメラ211により撮影された画像を取り込む。画像処理部273は、取り込まれた画像を処理し、看板情報を取得する(S1007)。具体的には、例えば、画像処理部273は、認識画像情報252内のロゴや商標等の情報と、画像取込部272により取り込まれた画像を画像処理した結果等とから、周辺の看板の看板情報を取得する。また、画像処理部273は、画像取込部272により取り込まれた画像を画像処理して文字列を取得し、周辺の看板の看板情報を取得する。画像処理部273は、取得した看板情報を看板情報253に格納する。
同定判定部274は、認識画像情報252と看板情報253とを比較して、同一の看板を示す看板情報を取得する。
車載装置101のPOI情報取得部275は、センタサーバ102にPOI情報を要求する(S1008)。センタサーバ102のPOI情報要求受付部872は、POI情報要求を受け付ける。センタサーバ102のPOI情報検索部873は、2次記憶装置801から要求されたPOI情報を検索する。POI情報送信部874は、検索されたPOI情報を読み出し、車載装置101に送信する(S1009)。車載装置101のPOI情報取得部275は、受信した情報をPOI情報255に格納する。
ここで、ユーザが発話した場合、この音声情報は、車載装置101のマイクロフォン207から入力される。入力された音声情報は、AD変換器等により音声データに変換等される。車載装置101の音声受付部277は、音声データを受け付ける。音声認識処理部278は、音声受付部277により受け付けられた音声データを文字列(テキストデータ)に変換する。判定部279は、音声認識処理部278により変換された文字列に、指示語情報256内の指示代名詞が含まれており、かつ、その文字列に看板情報253又は画像看板情報254内の各看板に関する情報が含まれているか否か判定する。対話処理部280は、判定部279の判定結果に応じた応答を決定する(S1010)。出力処理部281は、対話処理部280の決定に応じた応答を出力する(S1011)。このような対話を行い、ユーザの意図が判定されると、ナビゲーション処理部282は、その意図に応じた処理を行なう。ここでは、ナビゲーション処理部282は、ユーザの発話により特定された看板に示される位置を新たな目的地又は経由地として経路を探索し(S1012)、設定された推奨経路の誘導を開始するものとする(S1013)。
具体的には、例えば、ユーザが「いまのレストランどうやって行くの?」と発話した場合の例を説明する。この場合、判定部279は、指示語情報256、看板情報253及び画像看板情報254内の情報から、看板に書いてあったレストランであると判定する。この判定結果に応じて、対話処理部280は、例えば「さきほどの看板に出ていたレストランですか?」という応答を決定する。出力処理部281は、決定された応答を、スピーカ208、ディスプレイ209に出力する。この応答を聞いたユーザの意図が、看板に記載されていたレストランへ行くことである場合、ナビゲーション処理部282は、そのレストランに関する情報の出力や、経路探索、誘導等を行なう。
次に、上述の各動作を詳細に説明する。
なお、本実施形態では、車載装置101のナビゲーション処理部282は、所定時間毎や所定距離走行毎に車両106の現在位置を算出し、メモリ203等に格納しておくものとする。この、ナビゲーション処理部282が現在位置を算出する動作例は従来技術のナビゲーションシステムと同じである。即ち、例えば、ナビゲーション処理部282は、基点となる位置からの進行距離及び方向と、地図情報251内の道路データとから、コストが最小となる位置を算出し、その位置を車両106の現在位置とする。また、例えば、ナビゲーション処理部282は、GPS受信装置210により受信した信号等から、車両106の現在位置を算出してもよい。
まず、車載装置101が、ビーコン送信機103、RFID104、センタサーバ102から看板情報を取得する動作例を説明する。これらの動作例は詳細を除き同じ動作例であるので、すべて図11を参照して説明する。
ビーコン受信機103からの看板情報を受信する動作例を説明する。
ビーコン送信機103は、道路近傍に設置されている。このビーコン送信機103は、センタの情報処理装置(図示略)又はセンタサーバ102等と接続されており、看板情報を取得する。ビーコン送信機103は、看板情報を発信する。この看板情報には、各看板のID、看板の設置されている位置、看板に示される文字列等が含まれる。
車両106がビーコン送信機103の設置されている道路を走行し、車載装置101がビーコン送信機103と通信可能となると、車載装置101の看板情報取得部271は、ビーコン送信機103から発信された各看板のID、看板の設置されている位置、看板に示される文字列等を取得する(S1101)。看板情報取得部271は、受信した各看板のID、看板の設置されている位置、看板に示される文字列等を、2次記憶装置201の看板情報253の、互いに対応するID401、看板位置402、文字列403等として格納する(S1102)。
次に、車載装置101が、RFID104からの看板情報を読み取る動作例を説明する。
RFID104は、記憶部(図示略)に看板情報を記憶している。この看板情報には、各看板のID、看板の設置されている位置、看板に示される文字列等が含まれる。
車両106がRFID104から情報読み取り可能な位置に来ると、車載装置101の看板情報取得部271は、RFIDリーダライタ等の通信装置206により、RFID104から、各看板のID、看板の設置されている位置、看板に示される文字列等を受信する(S1101)。看板情報取得部271は、受信した各看板のID、看板の設置されている位置、看板に示される文字列等を、2次記憶装置201の看板情報253の、互いに対応するID401、看板位置402、文字列403等として格納する(S1102)。
次に、車載装置101が、センタサーバ102から看板情報を取得する動作例を説明する。
看板情報取得部271は、センタサーバ102に看板情報要求を送信する。センタサーバ102の看板情報送信部871は、その要求に応じて、看板情報851から看板情報を読み出し、装置101に送信する。具体的には、例えば、看板情報送信部871は、各看板のID、看板の設置されている位置、看板に示される文字列等を送信する。
なお、ここで、センタサーバ102に要求する看板情報は、例えば、特定の時期のみに行なわれるイベントを通知する看板等、変更されることの多い看板でもよい。また、看板情報取得部271は、看板情報要求に車両106の現在位置を含めて送信してもよい。この場合、センタサーバ102の看板情報送信部871は、看板情報要求に含まれる現在位置を含む所定範囲内に設置等されている看板の看板情報のみを送信してもよい。
看板情報取得部271は、各看板のID、看板の設置されている位置、看板に示される文字列等を受信する(S1101)。看板情報取得部271は、受信した各看板のID、看板の設置されている位置、看板に示される文字列等を、2次記憶装置201の看板情報253の、互いに対応するID401、看板位置402、文字列403等として格納する(S1102)。
なお、車載装置101が、図11に示す動作を起動するタイミングは任意でよい。具体的には、例えば、車載装置101が、予め、センタサーバ102、ビーコン送信機103、RFID104等と通信可能な領域を2次記憶装置201に格納しており、車両106の現在位置がその領域内である場合に、図11の動作例を起動してもよい。また、車載装置101は、ビーコン受信機103から発信される信号を受信した場合に、図11の動作例を起動してもよい。さらに、ユーザの指示に従い図11の動作例を起動してもよい。
次に、車載装置101が画像を取り込む動作例を説明する。
まず、車載装置101が撮影する道路環境の一例を、図12を参照して説明する。
図12は、車両106が道路を走行している場合に、車載装置101のカメラ211が撮影する画像の例である。図12において、道路を走行する車両106からは、看板1201〜1205等が見える。図12の例では、RFID104は看板1203に装置されている。なお、このRFID104に対し、車載装置101は、上述の動作例を行うことにより、看板情報を取得する。
車載装置101は、このような画像データに対し、以下の図13に一例を示す動作を行なう。
図13において、画像取込部272は、カメラ211から、例えば100ミリ秒毎等に撮影された画像を取り込む(S1301)。ここでは、画像取込部272は、例えば100ミリ秒毎等に連続して撮影された画像を複数個取得する。このとき、画像取込部272は、ユーザの視線情報から、カメラ211の撮影方向、ズーム等を制御してもよい。なお、この視線情報とは、例えば、従来技術のアイマークレコーダ等により取得可能である。画像取込部272は、視線情報から、ユーザが画像上のどの領域を見ているのか判定し、その領域に対しカメラ211を回転させる、ズームする等の制御をしてもよい。画像取込部272は、取得した画像、その画像の視線情報等、フレーム時間等を、2次記憶装置201、又は、メモリ203等に格納する。
画像取込部272は、入力された各画像に、多値化処理等の濃淡処理を行う(S1302)。この処理は従来技術の画像処理に用いられるものと同じである。次に、画像取込部272は、各画像に対し、看板、建物等の被写体の写っている領域を特定する(S1303)。そのために、例えば、画像取込部272は、各画像に対し、従来技術のエッジ検出やテクスチャ解析等により、各画像において看板、建物等の同じ被写体の写っている領域の区分を行なう。以下、この領域を処理対象領域という。画像取込部272は、画像毎に特定した各処理対象領域の画像データ等を2次記憶装置201、又は、メモリ203等に格納する。
次に、画像取込部272は、連続して撮影された複数の画像のうち、n番目(nは1以上の整数)に撮影された画像において上述のS1303の処理で特定した各処理対象領域と、n+1番目以降に撮影された画像において上述のS1303の処理で特定した各処理対象領域とに重複するものがあるか否か判定し、この判定の結果、重複するものがある場合、その処理対象領域を削除又は補正対象とする(S1304)。ここで、処理対象領域の削除とは、処理対象領域を、後述する看板情報抽出処理の対象外とすることを意味する。そのための具体的な処理は特に限定するものではないが、例えば、画像取込部272は、まず、n番目に撮影された画像とn+1番目に撮影された画像との差分画像を取得する。次に、画像取込部272は、この差分画像の、n番目に撮影された画像において上述のS1303の処理により特定された各処理対象領域近傍に、所定閾値以下の画素があるか否かにより、重複する処理対象領域があると判定する。このとき、画像取込部272は、差分画像の、n番目に撮影された画像において上述のS1303の処理により特定された各処理対象領域近傍にある画素数に応じて、その処理対象領域を削除又は補正対象とするか否か判定してもよい。具体的には、例えば、画像取込部272は、差分画像の、n番目に撮影された画像において上述のS1303の処理により特定された各処理対象領域近傍にある画素数が第1の閾値以下である場合、その処理対象領域を削除してもよい。また、例えば、画像取込部272は、差分画像の、n番目に撮影された画像において上述のS1303の処理により特定された各処理対象領域近傍にある画素数が第1の閾値より多く、かつ、第2の閾値より少ない場合、n番目に撮影された画像のその処理対象領域を、n+1番目に撮影された画像の同じ処理対象領域により補正してもよい。この第1の閾値及び第2の閾値の値は任意である。
画像取込部272は、この判定により削除された処理対象領域の画像データ等を、後述する画像処理の対象外として2次記憶装置201、又は、メモリ203等から削除等する。また、画像取込部272は、この判定により補正対象と判定された処理対象領域を補正する。具体的には、例えば、n番目に撮影された画像の該当処理対象領域と、n+1番目に撮影された画像の該当処理対象領域とを合成等して、2次記憶装置201、又は、メモリ203等に格納等する。この合成処理は特に限定するものではなく、従来技術の画像処理と同じでよい。例えば、画像処理部273は、何れか一方の処理対象領域の一部をリファレンスとして、パターンマッチングにより一致する部位を抽出し、一致する部位を重ねる等して、補正するとよい。
画像取込部272は、このような処理を、S1301で取り込んだ全ての画像に対し行なう。ここで、S1301で取り込んだ画像が3つ以上であり、かつ、上述のS1304の処理で、重複する処理対象領域が3つ以上の画像に含まれる場合が考えられる。この場合、画像取込部272は、重複する処理対象領域のうち1つのみを選択し、後述する看板情報抽出処理の対象とする。この選択基準は任意でよく、例えば、最初又は最後に撮影された画像から抽出した処理対象領域を処理対象としてもよく、また、中間付近に撮影された画像から抽出した処理対象領域を処理対象としてもよい。
次に、画像処理部273は、上述のS1303、S1304の処理で抽出、補正等した各処理対象領域の画像データに対し画像処理を行い、看板情報を取得する(S1305)。具体的には、画像処理部273は、各処理対象領域の画像データから文字列及び商標やロゴ等を抽出する。画像から文字列を抽出するためには、画像処理部273は、例えば、従来技術のOCR(Optical Character Reader)等を用いるとよい。画像から商標やロゴ等を抽出するために、画像処理部273は、例えば、まず、認識画像情報252から、各行の画像302を読み出す。次に、画像処理部273は、読み出した各画像302をリファレンスとして、従来技術のパターンマッチングにより、処理対象領域の画像データの画素パターンと一致する画像302を選択する。画像処理部273は、認識画像情報252から、ここで選択された画像302と対応する文字列303を読み出す。画像処理部273は、このように抽出した文字列を、画像看板情報254に格納する。具体的には、例えば、画像処理部273は、この処理を行なった処理対象領域に対するIDを発行し、車両106の現在位置、発行したID、上述の処理で抽出した文字列を、画像看板情報254の撮影位置501、ID502、文字列503等として互いに対応付けて格納する。
同定判定部274は、画像データから抽出した看板情報と、センタサーバ102、ビーコン送信機103、RFID104等から取得した看板情報及び予め記憶されている看板情報とを比較し、同一のものを示しているものに対し対応付けを行なう(S1306)。そのために、例えば、同定判定部274は、画像看板情報254及び看板情報253から、撮影位置501と看板位置402とが所定範囲内にある行を抽出する。次に、同定判定部274は、抽出した行の文字列503及び文字列403が同一であるか否か判定する。この同一判定は、全ての文字が一致する場合に同一であると判定してもよく、また、所定数以上の文字が一致する場合に同一であると判定してもよい。この判定の結果同一であると判定した場合、同定判定部274は、抽出した行が同一の看板の看板情報を示していると判定し、対応付けを行なう。具体的には、例えば、同定判定部274は、看板情報253の抽出した行のID401を読み出し、画像看板情報254の同定504に格納する。
次に、POI情報取得部275は、センタサーバ102から、POI情報を取得する(S1307)。そのために、POI情報取得部275は、センタサーバ102に、POI情報要求を送信する。このとき、POI情報取得部275は、車両106の現在位置や進行方位等を含めても良い。
センタサーバ102はPOI情報要求を受信する。POI情報要求受付部872は、POI情報要求を受け付ける。POI情報検索部873は、POI情報要求に含まれる現在位置や進行方位等に応じて、送信すべきPOI情報をPOI情報852から検索する。具体的には、例えば、POI情報検索部873は、POI情報852の各行の看板位置902を参照し、POI情報要求に含まれる現在位置を中心とし、進行方位に対し長手の所定範囲内に含まれる行を選択する。次に、POI情報検索部873は、選択した行のID901、看板位置902、文字列903、所在位置904、備考905等を読み出す。POI情報検索部873は、検索されたPOI情報を車載装置101に送信する。
車載装置101のPOI情報取得部275は、受信したPOI情報をPOI情報255に格納する。
シナリオ生成部276は、S1305で抽出した看板情報のうち少なくとも1つが使用可能であるか否か判定する(S1308)。そのために、シナリオ生成部276は、画像看板情報254から、同定404にIDの格納されている行を選択し、選択した行の撮影位置501及び文字列503を読み出す。次に、シナリオ生成部276は、POI情報255の各行を参照し、読み出した撮影位置501から所定範囲内の看板位置902であり、かつ、読み出した文字列503と一致する文字列903が含まれているか否か判定する。この判定の結果、該当するものが含まれている場合、シナリオ生成部276は、その行の看板情報が使用可能であると判定する。
S1308の判定の結果、全ての看板情報が使用可能でない場合は、撮影された画像から抽出した看板情報の全てが、例えば誤認識等であると考えられる。従って、シナリオ生成部276は、画像看板情報254の、上述の処理で格納した撮影位置501、ID502、文字列503、同定504に対応するシナリオ505に、対話シナリオが無いことを示す「-」を格納し、処理を終了する。
S1308の判定の結果、看板情報が使用可能である場合、シナリオ生成部276は、POI情報等と所定フォーマット等とから、応答シナリオを生成する(S1309)。具体的には、例えば、予め応答フォーマットが定められており、この応答フォーマット内の変数の候補として、上述のS1308の処理で使用可能と判定された看板情報の文字列を設定する。シナリオ生成部276は、画像看板情報254の、上述のS1308の処理で使用可能と判定された行のシナリオ505に、生成した対話シナリオを格納する。
この対話シナリオは任意でよいが、ここでは、ユーザの発話に対し、ユーザの意図している看板を確認するための応答を定め、その看板が確認できた場合に、ユーザの要望に応じた処理を行なうものとする。具体的には、例えば、ユーザの発話に対し、「さきほどの看板にでていた<変数>のことですか」という確認するための応答フォーマットを定めておく。ここで、「<変数>」とは、上述のS1308の処理で使用可能と判定された看板情報の文字列である。図5の例では、「<変数>」の候補として、「××道路 5km先」、「△△コンビニエンスストア」、「○○温泉」等が設定されうる。本実施形態の対話シナリオは、この応答で看板を確認した後に、それ以前又はそれ以後のユーザの発話により特定される処理を行なうものである。
次に、ユーザと対話する動作例を、図14を参照して説明する。
車載装置101の音声受付部277は、スピーカ208から入力された音声データを受け付ける(S1401)。音声認識処理部278は、入力された音声データをテキストデータに変換する。この変換処理は従来技術の音声認識と同じであり、例えば、音声解析して音響的特長パラメータを抽出し、この音響的パラメータと、例えば隠れマルコフモデル(Hidden Markov Model)や統計的言語モデル等とからテキストデータを取得する。さらに、音声認識処理部278は、対応辞書257等に基づき意味解釈(Semantic Interpretation for Speech Recognition)等を行なう(S1402)。
判定部279は、変換されたテキストデータに、指示語情報256内の指示代名詞が含まれているか判定する(S1403)。
S1403の判定の結果、指示代名詞が含まれている場合、判定部279は、変換されたテキストデータに、現在位置から所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれているか否か判定する(S1404)。具体的には、例えば、判定部279は、画像看板情報254から、車両106の現在位置から所定範囲内の撮影位置502の行を選択する。この所定範囲は任意でよい。例えば、予め所定範囲が定められていてもよく、また、車両106の車速が高速なほど大きくなる等速度に応じて変更してもよい。次に、判定部279は、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれているか否か判定する。この判定は、例えば、選択した行の文字列503と、変換されたテキストデータ内の文字とが所定数以上一致するか否かにより判定してもよい。次に、判定部279は、選択した行の同定504が「-」であるか否か判定する。この判定の結果、選択した行の同定504が「-」でない場合、判定部279は、変換されたテキストデータに、現在位置から所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれていると判定する。
S1403の判定の結果、指示代名詞が含まれていない場合、又は、S1404の判定の結果、変換されたテキストデータに、上述のS1308の処理により使用可能であると判定された看板情報の文字列が含まれていない場合、判定部279は処理を終了する。なお、この場合、出力処理部281は、応答できない旨を通知する情報を、スピーカ208及びディスプレイ209等に出力しても良い。
S1404の判定の結果、変換されたテキストデータに、上述のS1308の処理により使用可能であると判定された看板情報の文字列が含まれている場合、判定部279は、対話処理部280に、看板対話応答処理の実行を指示する。対話処理部280は、その指示に従い、上述のS1309の処理で生成した対話シナリオに従い応答を決定する(S1405)。そのために、対話処理部280は、上述のS1404の処理で画像看板情報254から選択した行のシナリオ505を読み出し、読み出した対話シナリオに従い、対話処理を行なう。
なお、上述のように、本実施形態で作成される対話シナリオは、ユーザの意図している看板を確認した後に、ユーザの発話により特定される処理を実行するものである。従って、S1405の処理を最初に行なう場合、ここで決定される処理は、ユーザの意図している看板を確認するための応答である。上述のように、対話シナリオでは、応答フォーマットが定められており、その応答フォーマットに含まれる変数として、看板情報の文字列が設定される。対話処理部280は、この変数として、上述のS1308の処理により使用可能であると判定された看板情報の文字列を設定することで、応答を決定する。
出力処理部281は、対話処理部280により決定された応答を、スピーカ208、又は、ディスプレイ209等に出力する(S1406)。
ユーザは、看板を確認する応答を聞いて、自身の意図したものであるか否かを発話する。この音声は、上述と同様にスピーカ208から入力される。音声認識処理部278は、テキストデータへの変換、意味解釈等を行なう。なお、ユーザは、この看板確認を、音声でなく、入力装置204により指示してもよい。
対話処理部280は、入力された応答に基づいて、ユーザの意図した看板と、S1406の処理で確認応答を出力した看板とが一致するか否か判定する(S1407)。
S1407の判定の結果、一致しない場合、対話処理部280は、再度、S1405の処理を行なう。即ち、対話処理部280は、応答フォーマットの変数として、上述のS1308の処理により使用可能であると判定された他の看板情報の文字列を設定する。なお、ここで、該当する看板情報が無い場合、対話処理部280は、その旨を通知する情報を出力して処理を終了しても良い。
S1407の判定の結果、一致する場合、対話処理部280は、車載装置101の実行可能な処理を確定する(S1408)。そのために、例えば、対話処理部280は、S1401で受け付けた発話、又は、S1406で出力した応答に対するユーザの発話に、例えば、経路探索、誘導、詳細情報の出力のような、車載装置101の実行可能な処理の実行を示す文字列が含まれているか否か判定する。なお、このような判定は、従来技術の音声認識と同じである。該当する文字列が含まれている場合、対話処理部280は、その処理を実行するものとする。また、ユーザの発話に、車載装置101の実行可能な処理の実行を示す文字列が含まれていない場合、対話処理部280は、実行する処理の入力を要求する情報をスピーカ208、ディスプレイ209に出力しても良い。ユーザは、入力装置204、又は、マイクロフォン207から、実行を要求する処理を入力する。対話処理部280は、入力された処理を実行するものとする。
ナビゲーション処理部282は、対話により決定された処理を実行し(S1409)、処理を終了する。
なお、上述のS1403の判定は必須ではない。S1403の判定を行なわない場合、例えば、上述のS1404の処理で、ユーザが看板に示されている情報について発話していることを判定できる場合、上述のS1405以降の処理を行なっても良い。即ち、発話に、その発話を受け付けた位置に最も近い看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれている場合、上述のS1405以降の処理を行なっても良い。
また、例えば「今の何」というようなテキストデータを含む情報を2次記憶装置201に記憶しておき、発話が、その情報内の何れかのテキストデータと一致する場合、上述のS1405以降の処理を行なっても良い。
ここで、図14の動作例を、具体的に説明する。ここでは、図3〜図6に一例を示す情報を2次記憶装置201に格納している場合において、上述のS1401の処理で「今の温泉にどうやって行くの?」という発話を受け付けた場合の例を説明する。
音声認識処理部278は、従来技術と同じ動作例により音声認識処理を行なう。判定部279は、「今の温泉にどうやって行くの?」に、指示語情報256内の指示代名詞が含まれているか判定する。図6の指示語情報256の例では、指示代名詞601「今」が含まれている。次に、判定部279は、画像看板情報254から、車両106の現在位置から所定範囲内の撮影位置502の行を選択する。ここでは、図5に一例を示す画像看板情報254において該当する行は、ID501「XYZ−0001」〜「XYZ−0005」であるものとする。次に、判定部279は、選択した行から、文字列503に、変換されたテキストデータと一致する文字が含まれており、かつ、同定504が「-」でないものを選択する。図5の例では、該当するのは、ID501「XYZ−0005」、文字列503「○○温泉」、同定504「1113」の行である。
対話処理部280は、上述のS1309の処理で生成した対話シナリオに従い応答を決定する。ここでは、「さきほどの看板にでていた<変数>のことですか」という応答フォーマットが定められているものとする。上述の処理ように、「<変数>」に適用可能な変数は「○○温泉」であるので、対話処理部280は、「<変数>」に「○○温泉」を適用した応答を決定する。出力処理部281は、対話処理部280により決定された「さきほどの看板にでていた○○温泉のことですか」という応答を、スピーカ208、又は、ディスプレイ209等に出力する。
ユーザは、看板を確認する応答を聞いて、自身の意図したものであるか否かを発話する。ここでは、ユーザは、「そうです」と発話したものとする。この音声は、上述と同様にスピーカ208から入力される。音声認識処理部278は、テキストデータへの変換、意味解釈等を行なう。
対話処理部280は、入力された応答及び対応辞書257に基づいて、ユーザの意図した看板と、S1406の処理で確認応答を出力した看板とが一致するか否か判定する。このような判定は従来技術の音声認識と同じである。ここでは、ユーザは「そうです」という同意を意味する音声を入力している。従って、対話処理部280は、入力された音声「今の温泉にどうやって行くの?」の「温泉」は、「<変数>」に設定した「○○温泉」を意味していると判定する。
上述のように、入力された音声は「今の温泉にどうやって行くの?」であるので、対話処理部280は、「○○温泉」への「経路探索」が指示されていると判定する。このような判定は従来技術の音声認識と同じである。ナビゲーション処理部282は、POI情報255から、文字列903「○○温泉」を含む業の所在位置904「X31,Y31」を読み出し、読み出した位置を目的地とする経路探索を行なう。なお、ここで、既に目的地が設定されている場合、その目的地を変更せず、「○○温泉」へ経由する経路を探索してもよい。この経路探索処理そのものは、従来技術と同じである。
このように、本実施形態の技術により、例えば「いまのレストラン」というような曖昧な表現にも、ユーザの意図しているものを特定することが可能となる。
<第2の実施形態>
次に、第2の実施形態を説明する。
第2の実施形態は、ユーザの発した指示代名詞に応じて、既に設置位置を通過した看板に対する発話であるか、あるいは、これから通過する看板に対する発話であるか判定するものである。
以下、上述の第1の実施形態と同じ構成に対しては同じ符号を付与して説明を省略し、異なる構成のみ詳細に説明する。
図15は、第2の実施形態の車載装置101の構成例である。図16において、車載装置101は、判定部279の代わりに、判定部1501を有する。また、指示語情報256の代わりに、指示語情報1511を有する。
ここで、図17を参照し、指示語情報1511の一例を説明する。
図17において、指示語情報1511は、指示代名詞1601、方向1602等を有する。各行の指示代名詞1601、方向1602等は互いに対応付けられている。指示代名詞1601は、ユーザの発話した音声から抽出する指示代名詞である。方向1602は、対応する指示代名詞1601の指示代名詞を音声から抽出した場合に、その発話で問合せを行なっている看板が進行方向に対し前方であるか後方であるかを示すものである。
なお、図17の例において方向1602「前方/後方」は、対応する指示代名詞1601の指示代名詞を音声から抽出した場合に、その発話で問合せを行なっている看板が進行方向に対し前方及び後方の両方がありえる場合の例を示す。
また、指示語情報1511は、予め2次記憶装置201に記憶されているものとするが、これに限られるわけではなく、入力装置204又は通信装置206等を介して入力された情報に従い追加、変更等されてもよい。
次に、動作例を説明する。なお、以下で説明する動作例は、発話に含まれる指示代名詞に応じて、後方の看板に対する発話であるか、あるいは、前方の看板に対する発話であるか判定する点のみが上述の第1の実施形態と異なるので、その動作例のみを説明する。
ユーザと対話する動作例を、図18を参照して説明する。
車載装置101の音声受付部277は、スピーカ208から入力された音声データを受け付ける(S1701)。音声認識処理部278は、入力された音声データをテキストデータに変換する。さらに、音声認識処理部278は、対応辞書257等に基づき意味解釈等を行なう(S1702)。
判定部1501は、変換されたテキストデータに、指示語情報1511内の指示代名詞が含まれているか判定する(S1703)。具体的には、例えば、判定部1501は、指示語情報1511に、指示代名詞1601と、変換されたテキストデータに含まれる単語とが一致する行が含まれているか否か判定する。
S1703の判定の結果、指示代名詞が含まれている場合、判定部1501は、その指示代名詞の方向が「前方」であるか否か判定する(S1704)。そのために、判定部1501は、指示語情報1511から、指示代名詞1601と、変換されたテキストデータに含まれる単語とが一致する行を選択する。さらに、判定部1501は、選択した行の方向1602が「前方」であるか否か判定する。
S1704の判定の結果、指示代名詞の方向が「前方」である場合、判定部1501は、変換されたテキストデータに、現在位置から進行方向の前方に対して所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれているか否か判定する(S1705)。具体的には、例えば、判定部1501は、画像看板情報254から、車両106の現在位置から進行方向の前方に対して所定範囲内の撮影位置502の行を選択する。次に、判定部1501は、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれているか否か判定する。この判定は、選択した行の文字列503と、変換されたテキストデータ内の文字とが所定数以上一致する、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれていると判定してもよい。次に、判定部1501は、選択した行の同定504が「-」であるか否か判定する。この判定の結果、選択した行の同定504が「-」でない場合、判定部1501は、変換されたテキストデータに、現在位置から進行方向の前方に対して所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれていると判定する。
S1704の判定の結果、変換されたテキストデータに、上述のS1308の処理により使用可能であると判定された看板情報の文字列が含まれている場合、判定部1501は、対話処理部280に、看板対話応答処理の実行を指示する。対話処理部280は、その指示に従い、上述のS1309の処理で生成した対話シナリオに従い応答を決定する(S1706)。この処理は上述の第1の実施形態と同じであるので省略する。
出力処理部281は、対話処理部280により決定された応答を、スピーカ208、又は、ディスプレイ209等に出力する(S1707)。
ユーザは、看板を確認する応答を聞いて、自身の意図したものであるか否かを発話する。この音声は、上述と同様にスピーカ208から入力される。音声認識処理部278は、テキストデータへの変換、意味解釈等を行なう。この処理は上述の第1の実施形態と同じであるので省略する。
対話処理部280は、入力された応答に基づいて、ユーザの意図した看板と、S1707の処理で確認応答を出力した看板とが一致するか否か判定する(S1708)。
S1708の判定の結果、一致しない場合、対話処理部280は、再度、S1706の処理を行なう。この処理は上述の第1の実施形態と同じであるので省略する。
S1708の判定の結果、一致する場合、対話処理部280は、車載装置101の実行可能な処理を確定する(S1709)。この処理は上述の第1の実施形態と同じであるので省略する。
一方、S1704の判定の結果、指示代名詞の方向が「前方」でない場合、判定部1501は、その指示代名詞の方向が「後方」であるか否か判定する(S1710)。そのために、判定部1501は、指示語情報1511から、指示代名詞1601と、変換されたテキストデータに含まれる単語とが一致する行を選択する。さらに、判定部1501は、選択した行の方向1602が「後方」であるか否か判定する。
S1710の判定の結果、指示代名詞の方向が「後方」である場合、判定部1501は、変換されたテキストデータに、現在位置から進行方向の後方に対して所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれているか否か判定する(S1711)。具体的には、例えば、判定部1501は、画像看板情報254から、車両106の現在位置から進行方向の後方に対して所定範囲内の撮影位置502の行を選択する。次に、判定部1501は、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれているか否か判定する。この判定は、選択した行の文字列503と、変換されたテキストデータ内の文字とが所定数以上一致する、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれていると判定してもよい。次に、判定部1501は、選択した行の同定504が「-」であるか否か判定する。この判定の結果、選択した行の同定504が「-」でない場合、判定部1501は、変換されたテキストデータに、現在位置から進行方向の後方に対して所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれていると判定する。
S1711の判定の結果、変換されたテキストデータに、上述のS1308の処理により使用可能であると判定された看板情報の文字列が含まれている場合、判定部1501は、対話処理部280に、看板対話応答処理の実行を指示する。対話処理部280は、その指示に従い、上述のS1309の処理で生成した対話シナリオに従い応答を決定する(S1712)。この処理は上述の第1の実施形態と同じであるので省略する。
出力処理部281は、対話処理部280により決定された応答を、スピーカ208、又は、ディスプレイ209等に出力する(S1713)。
ユーザは、看板を確認する応答を聞いて、自身の意図したものであるか否かを発話する。この音声は、上述と同様にスピーカ208から入力される。音声認識処理部278は、テキストデータへの変換、意味解釈等を行なう。この処理は上述の第1の実施形態と同じであるので省略する。
対話処理部280は、入力された応答に基づいて、ユーザの意図した看板と、S1713の処理で確認応答を出力した看板とが一致するか否か判定する(S1714)。
S1714の判定の結果、一致しない場合、対話処理部280は、再度、S1712の処理を行なう。この処理は上述の第1の実施形態と同じであるので省略する。
S1714の判定の結果、一致する場合、対話処理部280は、車載装置101の実行可能な処理を確定する(S1715)。この処理は上述の第1の実施形態と同じであるので省略する。
一方、S1704の判定の結果、指示代名詞の方向が「後方」でない場合、「前方」及び「後方」両方を指示しえる指示代名詞であるので、判定部1501は、変換されたテキストデータに、現在位置から所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれているか否か判定する(S1716)。具体的には、例えば、判定部1501は、画像看板情報254から、車両106の現在位置から所定範囲内の撮影位置502の行を選択する。次に、判定部1501は、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれているか否か判定する。この判定は、選択した行の文字列503と、変換されたテキストデータ内の文字とが所定数以上一致する、選択した行の文字列503に、変換されたテキストデータと一致する文字が含まれていると判定してもよい。次に、判定部1501は、選択した行の同定504が「-」であるか否か判定する。この判定の結果、選択した行の同定504が「-」でない場合、判定部1501は、変換されたテキストデータに、現在位置から所定範囲内の看板に示される文字列であり、かつ、上述のS1308の処理により使用可能であると判定された文字列が含まれていると判定する。
S1716の判定の結果、変換されたテキストデータに、上述のS1308の処理により使用可能であると判定された看板情報の文字列が含まれている場合、判定部1501は、対話処理部280に、看板対話応答処理の実行を指示する。対話処理部280は、その指示に従い、上述のS1309の処理で生成した対話シナリオに従い応答を決定する(S1717)。この処理は上述の第1の実施形態と同じであるので省略する。
出力処理部281は、対話処理部280により決定された応答を、スピーカ208、又は、ディスプレイ209等に出力する(S1718)。
ユーザは、看板を確認する応答を聞いて、自身の意図したものであるか否かを発話する。この音声は、上述と同様にスピーカ208から入力される。音声認識処理部278は、テキストデータへの変換、意味解釈等を行なう。この処理は上述の第1の実施形態と同じであるので省略する。
対話処理部280は、入力された応答に基づいて、ユーザの意図した看板と、S1718の処理で確認応答を出力した看板とが一致するか否か判定する(S1719)。
S1719の判定の結果、一致しない場合、対話処理部280は、再度、S1717の処理を行なう。この処理は上述の第1の実施形態と同じであるので省略する。
S1719の判定の結果、一致する場合、対話処理部280は、車載装置101の実行可能な処理を確定する(S1720)。この処理は上述の第1の実施形態と同じであるので省略する。
ここで、S1703の判定の結果、指示代名詞が含まれていない場合、S1705の判定の結果、前方の看板情報と同じ文字列が含まれない場合、S1711の判定の結果、後方の看板情報と同じ文字列が含まれない場合、S1716の判定の結果、所定範囲内の看板情報と同じ文字列が含まれない場合、判定部1501は処理を終了する。なお、この場合、出力処理部281は、応答できない旨を通知する情報を、スピーカ208及びディスプレイ209等に出力しても良い。
S1707、S1715、S1720の判定の結果、一致する場合、ナビゲーション処理部282は、対話により決定された処理を実行し(S1721)、処理を終了する。この処理は上述の第1の実施形態と同じであるので省略する。
このように、指示代名詞に応じて指定する看板を限定することで、看板の特定効率を向上させることが可能となる。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
例えば、上述の実施形態では、音声認識機能、判定機能、対話シナリオ作成機能等は、車載装置101が有するものとしたが、これに限られるわけではなく、センタサーバ102が有していても良い。
本発明の一実施形態において、システム構成例を示す図である。 同実施形態において、車載装置の構成例を示す図である。 同実施形態において、認識画像情報の一例を示す図である。 同実施形態において、看板情報の一例を示す図である。 同実施形態において、画像看板情報の一例を示す図である。 同実施形態において、指示語情報の一例を示す図である。 同実施形態において、車載装置の構成例を示す図である。 同実施形態において、センタサーバの構成例を示す図である。 同実施形態において、POI情報の一例を示す図である。 同実施形態において、シーケンス例を示す図である。 同実施形態において、看板情報を取得する動作例を示す図である。 同実施形態において、撮影される画像の例を示す図である。 同実施形態において、看板情報を取得する動作例を示す図である。 同実施形態において、ユーザの意図する看板を特定して処理を実行する動作例を示す図である。 他の実施形態において、車載装置の構成例を示す図である。 同実施形態において、指示語情報の一例を示す図である。 同実施形態において、ユーザの意図する看板を特定して処理を実行する動作例を示す図である。
符号の説明
101:車載装置、102:センタサーバ、103:ビーコン送信機、104:RFID、105:通信ネットワーク、106:車両、201:2次記憶装置、251:地図情報、252:認識画像情報、253:看板情報、254:画像看板情報、255:POI情報、256:指示語情報、257:対応辞書、258:プログラム、202:CPU、271:看板情報取得部、272:画像取込部、273:画像処理部、274:同定判定部、275:POI情報取得部、276:シナリオ生成部、277:音声生成部、278:音声認識処理部、279:判定部、280:対話処理部、281:出力処理部、282:ナビゲーション処理部、203:メモリ、204:入力装置、205:通信インタフェース、206:通信装置、207:マイクロフォン、208:スピーカ、209:ディスプレイ、210:GPS受信装置、211:カメラ、801:2次記憶装置、851:地図情報、852:POI情報、853:プログラム、802:CPU、871:看板情報送信部、872:POI情報要求受付部、873:POI情報検索部、874:POI情報送信部、803:メモリ、804:入力装置、805:出力装置、806:通信インタフェース

Claims (7)

  1. 車両に搭載され、音声認識機能を有する車載装置であって、
    看板に示されている情報を記憶する看板情報記憶手段と、
    指示代名詞を記憶する指示代名詞記憶手段と、
    音声入力手段と、
    前記音声入力手段から入力された音声に、前記指示代名詞が含まれており、かつ、前記看板に示されている情報のうち少なくとも一部が含まれている場合、該看板に示されている情報に応じた応答を決定する応答処理手段と、
    前記決定した応答を出力装置から出力する出力手段と、
    を有することを特徴とする車載装置。
  2. 車両に搭載され、音声認識機能を有する車載装置であって、
    車両の走行する道路から見える位置に設置されている看板の位置と、該看板に示されている文字列とを含む看板情報を複数記憶する看板情報記憶手段と、
    指示代名詞を記憶する指示代名詞記憶手段と、
    音声入力手段と、
    前記音声入力手段から入力された音声に前記指示代名詞が含まれている場合、前記看板情報記憶手段に記憶されている各看板情報のうち、看板の位置が前記車両の現在位置から所定範囲内であり、かつ、文字列の少なくとも一部が前記入力された音声の一部と一致するものを選択し、該選択した看板情報に含まれる文字列を確認するための応答を決定する応答処理手段と、
    前記決定した応答を出力装置から出力する出力手段と、
    を有することを特徴とする車載装置。
  3. 請求項2記載の車載装置であって、
    カメラと、
    前記カメラにより撮影された画像から、車両の走行する道路から見える位置に設置されている看板に示される文字列を抽出し、該文字列と、前記画像を撮影した位置とを看板情報として前記看板情報記憶手段に記憶する第1の取得手段、をさらに有すること
    を特徴とする車載装置。
  4. 請求項2又は3記載の車載装置であって、
    前記車載装置は、通信装置と接続され、
    前記通信装置からの、車両の走行する道路から見える位置に設置されている看板の位置と、該看板に示されている文字列とを含む看板情報を取得する第2の取得手段、をさらに有すること
    を特徴とする車載装置。
  5. 請求項4記載の車載装置であって、
    前記通信装置は、ビーコン送信機であることを特徴とする車載装置。
  6. 請求項4記載の車載装置であって、
    前記通信装置は、看板に装置されたRFIDであり、
    前記第2の取得手段は、リーダにより、車両の走行する道路から見える位置に設置されている看板の位置と、該看板に示されている文字列とを含む看板情報を取得すること
    を特徴とする車載装置。
  7. 請求項2乃至6何れか1つに記載の車載装置であって、
    前記指示代名詞記憶手段が、指示代名詞と、該指示代名詞が含まれる場合の車両の進行方位に対する相対方位とを対応付けて記憶しており、
    前記応答処理手段が、前記音声入力手段から入力された音声に前記指示代名詞が含まれている場合、前記指示代名詞記憶手段から該指示代名詞に対応する相対方位を読み出し、前記看板情報記憶手段に記憶されている各看板情報のうち、看板の位置が前記車両の現在位置から前記読み出した相対方位に対して所定範囲内であり、かつ、文字列の少なくとも一部が前記入力された音声の一部と一致するものを選択し、該選択した看板情報に含まれる文字列を確認するための応答を決定すること
    を特徴とする車載装置。
JP2006239012A 2006-09-04 2006-09-04 車載装置 Expired - Fee Related JP4755556B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006239012A JP4755556B2 (ja) 2006-09-04 2006-09-04 車載装置
US11/826,161 US8694323B2 (en) 2006-09-04 2007-07-12 In-vehicle apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006239012A JP4755556B2 (ja) 2006-09-04 2006-09-04 車載装置

Publications (2)

Publication Number Publication Date
JP2008058276A true JP2008058276A (ja) 2008-03-13
JP4755556B2 JP4755556B2 (ja) 2011-08-24

Family

ID=39153047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006239012A Expired - Fee Related JP4755556B2 (ja) 2006-09-04 2006-09-04 車載装置

Country Status (2)

Country Link
US (1) US8694323B2 (ja)
JP (1) JP4755556B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193483A (ja) * 2011-04-14 2011-09-29 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
JP2016206433A (ja) * 2015-04-23 2016-12-08 株式会社Nttドコモ 情報処理装置、情報処理方法及びプログラム
JP2017129451A (ja) * 2016-01-20 2017-07-27 株式会社トヨタマップマスター ナビゲーションシステム、poi提示方法、poi提示プログラム、記録媒体
JP2020034461A (ja) * 2018-08-30 2020-03-05 Zホールディングス株式会社 提供装置、提供方法、及び提供プログラム
JP2021139921A (ja) * 2020-02-28 2021-09-16 Kddi株式会社 ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187376A (ja) * 2008-02-07 2009-08-20 Canon Inc ファイル管理装置、ファイル管理方法、及びプログラム
ITRM20080572A1 (it) * 2008-10-24 2010-04-25 Francesco Perino Sistema integrato di verifica per impianti di affissione pubblicitaria o simili
TWM358478U (en) * 2009-01-20 2009-06-01 Inventec Appliances Corp Handheld electronic device
KR101658562B1 (ko) * 2010-05-06 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2450667B1 (en) 2010-11-09 2016-11-02 Harman Becker Automotive Systems GmbH Vision system and method of analyzing an image
US20130030811A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation Natural query interface for connected car
DE102012013503B4 (de) * 2012-07-06 2014-10-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
US9911136B2 (en) * 2013-06-03 2018-03-06 Google Llc Method and system for providing sign data and sign history
JP5547860B1 (ja) * 2013-08-05 2014-07-16 ソノー電機工業株式会社 ユーザの現在位置と現在方位角を用いて目的の地理的情報を検索してユーザに提供するユーザ携帯端末
DE102013215493A1 (de) * 2013-08-06 2015-02-12 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem mit Erkennungsfunktion
US9338603B2 (en) * 2013-09-30 2016-05-10 Qualcomm Incorporated Location based brand detection
DE102014013208B3 (de) * 2014-09-06 2016-01-14 Audi Ag Verfahren zur Navigation eines Benutzers zwischen einer ersten Position innerhalb eines Gebäudes und einer zweiten Position
DE102015011566B4 (de) * 2015-09-02 2019-08-08 Audi Ag Aufgabenorientierte Kraftfahrzeug-Navigation
US10166995B2 (en) * 2016-01-08 2019-01-01 Ford Global Technologies, Llc System and method for feature activation via gesture recognition and voice command
JP6942995B2 (ja) * 2017-03-31 2021-09-29 ブラザー工業株式会社 情報処理プログラム、情報処理装置、および情報処理装置の制御方法
JP7069730B2 (ja) * 2018-01-11 2022-05-18 トヨタ自動車株式会社 情報処理装置、方法、及びプログラム
DE102018210528A1 (de) * 2018-06-27 2020-01-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Dialogsystems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129888A (ja) * 1993-10-29 1995-05-19 Toyota Motor Corp 車両用経路誘導装置
JP2004109468A (ja) * 2002-09-18 2004-04-08 Denso Corp 制御システム
JP2005173109A (ja) * 2003-12-10 2005-06-30 Nissan Motor Co Ltd 音声認識装置
WO2005066882A1 (ja) * 2004-01-08 2005-07-21 Nec Corporation 文字認識装置、移動通信システム、移動端末装置、固定局装置、文字認識方法および文字認識プログラム
JP2005267092A (ja) * 2004-03-17 2005-09-29 Mitsubishi Electric Corp 照応解析装置及びナビゲーション装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7418346B2 (en) * 1997-10-22 2008-08-26 Intelligent Technologies International, Inc. Collision avoidance methods and systems
US8526971B2 (en) * 1996-08-15 2013-09-03 Snaptrack, Inc. Method and apparatus for providing position-related information to mobile recipients
US7865306B2 (en) * 2000-09-28 2011-01-04 Michael Mays Devices, methods, and systems for managing route-related information
US6526351B2 (en) * 2001-07-09 2003-02-25 Charles Lamont Whitham Interactive multimedia tour guide
US20030155413A1 (en) * 2001-07-18 2003-08-21 Rozsa Kovesdi System and method for authoring and providing information relevant to a physical world
US20050192025A1 (en) * 2002-04-22 2005-09-01 Kaplan Richard D. Method and apparatus for an interactive tour-guide system
WO2004004320A1 (en) * 2002-07-01 2004-01-08 The Regents Of The University Of California Digital processing of video images
EP1536393A4 (en) * 2002-07-03 2009-11-18 Iwane Lab Ltd AUTOMATIC GUIDING APPARATUS FOR PUBLIC TRANSPORT
EP2204118B1 (en) * 2002-10-15 2014-07-23 Volvo Technology Corporation Method for interpreting a drivers head and eye activity
US20080009268A1 (en) * 2005-09-14 2008-01-10 Jorey Ramer Authorized mobile content search results
US7925243B2 (en) * 2006-02-14 2011-04-12 Mcgary Faith System and method for providing mobile device services using SMS communications
US7656290B2 (en) * 2006-06-26 2010-02-02 Gene Fein Location system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129888A (ja) * 1993-10-29 1995-05-19 Toyota Motor Corp 車両用経路誘導装置
JP2004109468A (ja) * 2002-09-18 2004-04-08 Denso Corp 制御システム
JP2005173109A (ja) * 2003-12-10 2005-06-30 Nissan Motor Co Ltd 音声認識装置
WO2005066882A1 (ja) * 2004-01-08 2005-07-21 Nec Corporation 文字認識装置、移動通信システム、移動端末装置、固定局装置、文字認識方法および文字認識プログラム
JP2005267092A (ja) * 2004-03-17 2005-09-29 Mitsubishi Electric Corp 照応解析装置及びナビゲーション装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193483A (ja) * 2011-04-14 2011-09-29 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
JP2016206433A (ja) * 2015-04-23 2016-12-08 株式会社Nttドコモ 情報処理装置、情報処理方法及びプログラム
JP2017129451A (ja) * 2016-01-20 2017-07-27 株式会社トヨタマップマスター ナビゲーションシステム、poi提示方法、poi提示プログラム、記録媒体
JP2020034461A (ja) * 2018-08-30 2020-03-05 Zホールディングス株式会社 提供装置、提供方法、及び提供プログラム
JP2021139921A (ja) * 2020-02-28 2021-09-16 Kddi株式会社 ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法
JP7352491B2 (ja) 2020-02-28 2023-09-28 Kddi株式会社 ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法

Also Published As

Publication number Publication date
JP4755556B2 (ja) 2011-08-24
US20080059199A1 (en) 2008-03-06
US8694323B2 (en) 2014-04-08

Similar Documents

Publication Publication Date Title
JP4755556B2 (ja) 車載装置
JP3908437B2 (ja) ナビゲーションシステム
JPWO2005066882A1 (ja) 文字認識装置、移動通信システム、移動端末装置、固定局装置、文字認識方法および文字認識プログラム
KR20130114268A (ko) 로컬 맵들 및 위치-측정 주석추가된 데이터를 제공하기 위한 인간-보조 기술
US20120035924A1 (en) Disambiguating input based on context
US20080051991A1 (en) Route planning systems and trigger methods thereof
US10452351B2 (en) Information processing device and information processing method
WO2013069060A1 (ja) ナビゲーション装置および方法
CN111833554A (zh) 售票机、售票机系统、售票方法和装置
JP2002048572A (ja) 位置検出システムおよびナビゲーションシステム
CN105528385B (zh) 信息取得方法、信息取得系统以及信息取得程序
KR20180087723A (ko) 주차차량 위치정보 제공방법
JP6746735B2 (ja) 情報提示方法、情報提示システム及び情報提示プログラム
WO2003102816A1 (fr) Systeme fournisseur de donnees
JP5160653B2 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
US11057734B2 (en) Geospecific information system and method
JP2005140636A (ja) ナビゲーション装置、方法及びプログラム
JP4073668B2 (ja) 移動体通信装置のデータ送信方法、移動体通信装置のデータ受信方法、移動体通信装置及び音声ポータルシステム
JP2005326202A (ja) ナビゲーション装置、情報呈示方法、およびナビゲーション用プログラム
JP5618371B2 (ja) 検索システム、端末、検索装置、及び検索方法
JP2006145331A (ja) ナビゲーション装置、ナビゲーション方法、およびナビゲーション用プログラム
JP2008298522A (ja) ナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラム
EP0986013A2 (en) Information retrieval system
JPWO2013069060A1 (ja) ナビゲーション装置、方法およびプログラム
JP5869774B2 (ja) 情報システム、端末装置、音声出力方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090824

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4755556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees