JP7081468B2 - ナビゲーション制御装置、ナビゲーション方法およびプログラム - Google Patents

ナビゲーション制御装置、ナビゲーション方法およびプログラム Download PDF

Info

Publication number
JP7081468B2
JP7081468B2 JP2018230742A JP2018230742A JP7081468B2 JP 7081468 B2 JP7081468 B2 JP 7081468B2 JP 2018230742 A JP2018230742 A JP 2018230742A JP 2018230742 A JP2018230742 A JP 2018230742A JP 7081468 B2 JP7081468 B2 JP 7081468B2
Authority
JP
Japan
Prior art keywords
position information
unit
route guidance
destination
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018230742A
Other languages
English (en)
Other versions
JP2020094815A (ja
Inventor
和哉 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018230742A priority Critical patent/JP7081468B2/ja
Priority to PCT/JP2019/023037 priority patent/WO2020121558A1/ja
Publication of JP2020094815A publication Critical patent/JP2020094815A/ja
Priority to US17/333,054 priority patent/US20210285785A1/en
Application granted granted Critical
Publication of JP7081468B2 publication Critical patent/JP7081468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Description

本発明は、ナビゲーション制御装置、ナビゲーション方法およびプログラムに関する。
公共施設、観光地、名所、史跡、宿泊施設、飲食店、ガソリンスタンドの場所を位置情報としてバーコードのような記号にして情報雑誌、情報端末画面などに記載し、記号を読み取ることによって、目的地までの経路案内を行う技術が知られている(例えば、特許文献1参照)。
特開2013-108777号公報
ユーザがインターネット上に公開された画像、または、雑誌やパンフレットなどの印刷物に掲載された画像を参照することによって、その場所に行きたくなる要求が喚起されることがある。特許文献1に記載の技術では、画像に位置情報を示す記号が付加されていない場合、ユーザは、画像が示す対象物の名称や位置を調べる必要がある。インターネット上に公開された画像、印刷物に掲載された画像、または、ユーザが撮影した画像から、容易に経路案内をすることが望まれる。
本発明は、上記に鑑みてなされたものであって、画像から容易に経路案内をすることが可能なナビゲーション制御装置、ナビゲーション方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係るナビゲーション制御装置は、画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定部と、前記対象物特定部が特定した前記対象物に対応する位置情報を取得する対象物位置情報取得部と、前記対象物位置情報取得部が特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内部と、を備えることを特徴とする。
本発明に係るナビゲーション方法は、画像データを取得する画像データ取得ステップと、前記画像データ取得ステップによって取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定ステップと、前記対象物特定ステップによって特定した前記対象物に対応する位置情報を取得する対象物位置情報取得ステップと、前記対象物位置情報取得ステップによって特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内ステップと、を含む。
本発明に係るプログラムは、画像データを取得する画像データ取得ステップと、前記画像データ取得ステップによって取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定ステップと、前記対象物特定ステップによって特定した前記対象物に対応する位置情報を取得する対象物位置情報取得ステップと、前記対象物位置情報取得ステップによって特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内ステップと、をナビゲーション制御装置として動作するコンピュータに実行させる。
本発明によれば、画像から容易に経路案内をすることが可能なナビゲーション制御装置、ナビゲーション方法およびプログラムを提供することができるという効果を奏する。
図1は、第一実施形態に係るナビゲーション制御装置の概略を示すブロック図である。 図2は、ユーザがWEBブラウザで画像をタッチ操作している状態を示す図である。 図3は、第一実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。 図4は、第二実施形態に係るナビゲーション制御装置の概略を示すブロック図である。 図5は、ユーザが雑誌に掲載された写真を撮影部で撮影している状態を示す図である。 図6は、複数の候補の対象物が表示された表示部を示す図である。 図7は、第三実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。 図8は、複数の候補の対象物が表示された表示部を示す図である。 図9は、第四実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。 図10は、第五実施形態に係るナビゲーション制御装置の概略を示すブロック図である。 図11は、ユーザが雑誌に掲載された写真を撮影部で撮影している状態を示す図である。 図12は、第五実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。
以下に添付図面を参照して、本発明に係るナビゲーション制御装置、ナビゲーション方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
図1は、第一実施形態に係るナビゲーション制御装置の概略を示すブロック図である。ナビゲーションシステム1は、画像に写された対象物を画像処理で認識して特定し、対象物に対応する位置情報を目的地として設定した経路案内を行う。ナビゲーションシステム1は、車両に搭載されていてもよいし、可搬型で車両に持ち込んでもよい。ナビゲーションシステム1は、GPS(Global Positioning System)受信部11と、操作部12と、通信部13と、地図情報記憶部14と、表示部15と、ナビゲーション制御装置20とを備える。
ナビゲーションシステム1は、携帯型の端末、車両に設置された装置、またはいくつかの装置の組み合わせで構成されてもよい。
対象物は、例えば、名勝、観光地、建造物、街並み、自然の景色、特徴のある店舗の内装のような建造物の内部、特徴を有する物品、特徴を有する飲食物、特徴を有する生物、または、特徴を有する植物を含む。特徴を有するとは、対象物を特定可能なことであり、他のものと識別可能であることをいう。
GPS受信部11は、図示しないGPS衛星から電波を受信する。GPS受信部11は、受信した電波の信号をナビゲーション制御装置20の現在位置情報取得部21へ出力する。
操作部12は、ナビゲーション制御装置20に対する各種操作を受付可能である。操作部12は、例えば、ナビゲーション制御装置20に対する物理的な操作手段、または、表示部15に配置されたタッチパネルなどによって構成される。例えば、操作部12は、目的地を入力する操作を受付可能である。例えば、操作部12は、現在位置から目的地までの経路案内を開始する操作を受付可能である。操作部12は、操作情報をナビゲーション制御装置20の操作受付制御部22へ出力する。
通信部13は、通信ユニットである。通信部13は、インターネットまたは携帯電話回線などいずれの方法で通信を行ってもよい。
地図情報記憶部14は、地図情報を記憶する。地図情報は、例えば、交差点を含む道路地図である。地図情報記憶部14は、記憶している地図情報をナビゲーション制御装置20の地図情報取得部24へ出力する。地図情報記憶部14は、通信制御部23および通信部13などによる通信機能を介して地図情報を取得する外部サーバ等の記憶装置であってもよい。
表示部15は、一例としては、ナビゲーションシステム1に固有の表示装置、または、カーオーディオを含む他のシステムと共用した表示装置などである。表示部15は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。本実施形態では、表示部15は、タッチパネル式ディスプレイである。言い換えると、表示部15は、操作部12として機能し、各種操作を入力可能である。ナビゲーションシステム1が、車両に設置されている場合、表示部15は、車両の運転者前方の、ダッシュボード、インストルメントパネル、センターコンソールなどに配置されている。表示部15は、ナビゲーション制御装置20の表示制御部29から出力された映像信号に基づいて、経路案内の映像を表示する。
本実施形態では、表示部15は、WEBブラウザを表示する。ユーザは、WEBブラウザに表示された画像に対応する場所へ行きたいとき、画像をタッチ操作する。画像に対するタッチ操作が行われると、タッチ操作された画像が画像データ取得部25へ出力される。
ナビゲーション制御装置20は、車両用のナビゲーションシステムの機能の一つとして実装されていてもよい。本実施形態では、ナビゲーション制御装置20は、車両に搭載されたナビゲーションシステムの機能として実装されている。ナビゲーション制御装置20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。ナビゲーション制御装置20は、図示しない記憶部に記憶されているプログラムに含まれる命令を実行する。ナビゲーション制御装置20は、画像データに写された対象物を認識して特定し、対象物に対応する位置情報を目的地として設定した経路案内を行う。ナビゲーション制御装置20は、バス30に接続された、現在位置情報取得部21と、操作受付制御部22と、通信制御部23と、地図情報取得部24と、画像データ取得部25と、対象物特定部26と、対象物位置情報取得部27と、経路案内部28と、表示制御部29とを有する。
現在位置情報取得部21は、車両の現在位置を示す現在位置情報を取得する。本実施形態では、現在位置情報取得部21は、GPS受信部11が取得した電波の信号に基づいて、車両の現在位置情報を取得する。現在位置情報取得部21は、取得した現在位置情報を経路案内部28へ出力する。
操作受付制御部22は、操作部12が受け付けた操作の操作情報を取得する。例えば、操作受付制御部22は、目的地の入力操作を示す目的地入力操作情報を取得して制御信号を出力する。例えば、操作受付制御部22は、経路案内を開始する操作を示す案内開始操作情報を取得して制御信号を出力する。
通信制御部23は、通信部13における通信を制御する。
地図情報取得部24は、地図情報記憶部14から地図情報を取得する。より詳しくは、地図情報取得部24は、現在位置情報取得部21が取得した車両の現在位置と目的地の位置情報とに基づいて、車両の現在位置から目的地までに関する地図情報を地図情報記憶部14から取得する。
画像データ取得部25は、ユーザがその場所に行きたくなる要求を喚起された画像データを取得する。本実施形態では、画像データ取得部25は、表示部15に表示された画像データを取得する。
図2を用いて、画像データ取得部25による画像データの取得処理についてより詳しく説明する。図2は、ユーザがWEBブラウザで画像をタッチ操作している状態を示す図である。ユーザがWEBブラウザに表示された画像をタッチ操作すると、画像データ取得部25は、例えば、「この写真を目的地としますか?」というメッセージ画像と、「Yes」、「No」を選択するボタン画像とを表示部15にポップアップ表示したり、音声案内をスピーカから出力したりする。画像データ取得部25は、操作受付制御部22を介して、ユーザが「Yes」ボタン画像を選択するタッチ操作を行ったことを示す制御信号が出力されると、タッチ操作した画像データを取得する。画像データ取得部25は、操作受付制御部22を介して、ユーザが「No」ボタン画像を選択するタッチ操作を行ったことを示す制御信号が出力されると、処理を終了する。
画像データ取得部25による画像データの取得方法は、上述した方法に限らず様々な方法が適用可能である。例えば、他の端末のWEBブラウザ特定した画像や、他の端末に保存されている画像などを、通信回線等を介してナビゲーション制御装置20が取得するようにしてもよい。
対象物特定部26は、画像データ取得部25が取得した画像データに写されている対象物を認識し、対象物を特定する。より詳しくは、対象物特定部26は、画像データに画像処理を行って、あらかじめ記憶した認識辞書とパターンマッチングを行って、画像データに写されている対象物を認識する。対象物特定部26は、通信制御部23の制御によって通信部13を介して、画像データから対象物を特定する処理を行う、図示しない外部サーバに画像データを送信することで、特定された対象物の名称等の情報を取得してもよい。対象物特定部26または対象物の特定を行う外部サーバは、WEBに掲載された写真など多くの写真を機械学習し、画像データに写されている対象物との類似度の高い対象物を一意に特定する。対象物を特定する方法は、公知の方法を使用可能であり、限定されない。
対象物を一意に特定するとは、地図情報記憶部14から位置情報を取得可能な情報を取得することである。対象物を一意に特定するとは、例えば、固有名詞、電話番号、または、住所で特定することである。例えば、図2に示す画像データの場合、対象物を「Aタワー」という固有名詞で特定する。
対象物特定部26は、画像の中央に写された被撮影物を対象物として特定してもよい。対象物特定部26は、画像において最も大きい面積を占める被撮影物を対象物として特定してもよい。対象物特定部26は、画像において最も手前に写された被撮影物を対象物として特定してもよい。対象物特定部26は、画像において鮮明に写された被撮影物を対象物として特定してもよい。対象物特定部26は、画像中の被撮影物のうち、例えば、よく知られた、名勝、観光地、建造物、街並み、自然の景色、店舗の内装のような建造物の内部、物品、飲食物、生物、または、植物のような、よく知られた被撮影物を対象物として特定してもよい。よく知られたとは、例えば、発行部数が多い書籍などの印刷物に繰り返し掲載されたり、アクセス数が多いWEBサイトに掲載されたりしていることをいう。
対象物特定部26は、ユーザが画像をタッチ操作した際に、タッチした部分を含む被撮影物を対象物として特定してもよい。これにより、例えば、画像データに複数の建造物、物品などが写されている際に、ユーザが目的地としたい被撮影物を適切に特定可能である。
対象物位置情報取得部27は、対象物特定部26が特定した対象物に対応する位置情報を取得する。より詳しくは、対象物位置情報取得部27は、地図情報取得部24を介して地図情報記憶部14から、特定した対象物に対応する位置情報を取得する。例えば、対象物位置情報取得部27は、特定した対象物が、名勝、観光地、建造物、街並み、自然の景色である場合、対象物の所在地の位置情報を取得する。例えば、対象物位置情報取得部27は、特定した対象物が、店舗の内装のような建造物の内部である場合、建造物の所在地の位置情報を取得する。例えば、対象物位置情報取得部27は、特定した対象物が、物品または飲食物である場合、取り扱っている店舗の所在地の位置情報を取得する。なお、取り扱っている店舗の所在地の位置情報が複数取得される場合、現在位置から最も近い店舗の位置情報を取得する。例えば、対象物位置情報取得部27は、特定した対象物が、生物または植物である場合、生物または植物を見ることができる、動物園、水族館または植物園の所在地の位置情報を取得する。
経路案内部28は、対象物位置情報取得部27が特定した対象物に対応する位置情報を目的地として設定して経路案内を行う。より詳しくは、経路案内部28は、車両の現在位置情報と目的地の位置情報とに基づいて、ルートを検索する。ルートを検索する方法は、公知のルート検索方法を使用可能であり、限定されない。経路案内部28は、検索されたルートに沿った経路案内を行う。ルートを案内する方法は、公知のルート案内方法を使用可能であり、限定されない。
表示制御部29は、経路案内部28が検索したルートに沿った経路案内の映像を表示部15に表示させる。
次に、図3を用いて、ナビゲーションシステム1における情報処理について説明する。図3は、第一実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。
ユーザは、ナビゲーションシステム1の表示部15において、WEBブラウザを介して、例えば、観光地に関する情報を参照する。ユーザは、WEBブラウザに表示された画像の場所に行きたいと思うと、図2に示すように、画像をタッチ操作する。WEBブラウザには、例えば、「この写真を目的地としますか?」というメッセージ画像と、「Yes」、「No」を選択するボタン画像が表示部15にポップアップ表示されたり、音声案内がスピーカから出力されたりする。ユーザは、目的地に設定する場合、「Yes」ボタン画像をタッチ操作し、目的地に設定しない場合、「No」ボタン画像をタッチ操作する。
ナビゲーション制御装置20は、画像を目的地とする操作がされたかを判定する(ステップS101)。より詳しくは、ナビゲーション制御装置20は、操作受付制御部22によって、「Yes」ボタンがタッチ操作されたことを示す操作情報が取得された場合、画像を目的地とする操作がされたと判定して(ステップS101でYes)、ステップS102に進む。ナビゲーション制御装置20は、操作受付制御部22によって、「Yes」ボタンがタッチ操作されたことを示す操作情報が取得されなかった場合、画像を目的地とする操作がされていないと判定して(ステップS101でNo)、処理を終了する。
画像を目的地とする操作がされた場合(ステップS101でYes)、ナビゲーション制御装置20は、画像データを取得する(ステップS102)。より詳しくは、ナビゲーション制御装置20は、画像データ取得部25によって、ユーザがタッチ操作した画像データを取得する。ナビゲーション制御装置20は、ステップS103に進む。
次に、ナビゲーション制御装置20は、ステップS102で取得した画像データから対象物を特定する(ステップS103)。より詳しくは、ナビゲーション制御装置20は、対象物特定部26によって、画像データに画像処理を行って、認識辞書とパターンマッチングを行って、画像データに写されている対象物を認識して特定する。図2の例において、ユーザが「Aタワー」を示す写真を選択している場合、対象物特定部26は、対象物を「Aタワー」と特定する。ナビゲーション制御装置20は、ステップS104に進む。
次に、ナビゲーション制御装置20は、ステップS103で特定した対象物の位置情報を取得する(ステップS104)。より詳しくは、ナビゲーション制御装置20は、対象物位置情報取得部27によって、地図情報取得部24を介して地図情報記憶部14から、特定した対象物に対応する位置情報を取得する。図2の例においては、対象物である「Aタワー」の位置情報が取得される。ナビゲーション制御装置20は、ステップS105に進む。
また、ナビゲーション制御装置20は、現在位置情報を取得する(ステップS105)。ナビゲーション制御装置20は、現在位置情報を常時更新して取得している。ステップS105においては、ステップS104で取得した対象物の位置情報に対する経路案内の起点としての現在位置情報を取得する。ナビゲーション制御装置20が車両に設置されている場合は、現在位置情報取得部21によって、車両の現在位置情報を取得する。ナビゲーション制御装置20は、ステップS106に進む。
次に、ナビゲーション制御装置20は、経路案内を行う操作があるかを判定する(ステップS106)。より詳しくは、ナビゲーション制御装置20は、経路案内部28によって、対象物位置情報取得部27が取得した対象物の位置情報と、車両の現在位置情報とに基づいて、特定した対象物の名称と、所在地、現在位置からの距離とをユーザに案内する。そして、ナビゲーション制御装置20は、経路案内部28によって、経路案内を行うかをユーザに確認する。ナビゲーション制御装置20は、ユーザが経路案内を行う操作を実行した場合(ステップS106でYes)、ステップS107に進む。ナビゲーション制御装置20は、ユーザが経路案内を行う操作を実行しなかった場合(ステップS106でNo)、処理を終了する。
ステップS106において、例えば、ナビゲーション制御装置20は、経路案内部28によって、「この写真はAタワーで、B県C市にあります。ここからの距離は23kmです。目的地に設定しますか?」というメッセージ画像と、「Yes」、「No」を選択するボタン画像をポップアップ表示させるとともに、音声案内を出力させる。そして、ナビゲーション制御装置20は、経路案内部28によって、ユーザが「Yes」ボタン画像を選択するタッチ操作を行うと(ステップS106でYes)、ステップS107に進んで経路案内処理を開始する。経路案内部28は、ユーザが「No」ボタン画像を選択するタッチ操作を行うと(ステップS106でNo)、経路案内処理を行わずに処理を終了する。
ユーザが経路案内を行う操作を行った場合(ステップS106でYes)、ナビゲーション制御装置20は、経路を探索する(ステップS107)。より詳しくは、ナビゲーション制御装置20は、経路案内部28によって、車両の現在位置情報と目的地の位置情報とに基づいて、ルートを検索する。ナビゲーション制御装置20は、ステップS108に進む。
ナビゲーション制御装置20は、経路を表示する(ステップS108)。より詳しくは、ナビゲーション制御装置20は、表示制御部29によって、探索された経路の案内画像を表示部15に表示させる。ナビゲーション制御装置20は、処理を終了する。
このようにして、WEBブラウザに表示された画像をユーザが選択すると、ナビゲーションシステム1は、画像処理によって、画像に含まれる対象物を認識して特定し、現在位置から対象物までの経路案内を行う。
上述したように、本実施形態によれば、WEBブラウザに表示された画像をユーザがタッチ操作すると、画像処理によって、画像に含まれる対象物を認識して特定し、現在位置から対象物までの経路案内を行うことができる。本実施形態は、画像を見て、その場所に行きたくなる要求が喚起された際に、ユーザが画像に写された対象物を特定して、対象物の位置または名称などを調べることを要しない。このように、本実施形態は、インターネット上に公開された画像から、容易に経路案内をすることができる。
[第二実施形態]
図4、図5を参照しながら、本実施形態に係るナビゲーションシステム1Aについて説明する。図4は、第二実施形態に係るナビゲーション制御装置の概略を示すブロック図である。図5は、ユーザが雑誌に掲載された写真を撮影部で撮影している状態を示す図である。本実施形態に係るナビゲーションシステム1Aは、基本的な構成は第一実施形態のナビゲーションシステム1と同様である。以下の説明においては、ナビゲーションシステム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態のナビゲーションシステム1Aは、撮影部16Aを有する点と、ナビゲーション制御装置20Aとが、第一実施形態のナビゲーションシステム1と異なる。
撮影部16Aは、雑誌などの印刷物に掲載された画像を撮影可能なカメラである。撮影部16Aは、ナビゲーション制御装置20Aと近距離無線通信によって接続された電子機器であってもよい。本実施形態では、撮影部16Aは、ナビゲーションシステム1Aとして機能する携帯用電子機器40Aに一体的に備えられたカメラである。撮影部16Aは、撮影した画像データを画像データ取得部25Aへ出力可能である。
図5を用いて、撮影部16Aによって画像を撮影した場合について説明する。撮影部16Aによって撮影された画像は、携帯用電子機器40Aの表示部41Aに表示される。また、例えば、「この写真を目的地としますか?」というメッセージ画像と、「Yes」、「No」を選択するボタン画像が表示部41Aにポップアップ表示されたり、音声案内がスピーカから出力されたりする。ユーザが「Yes」ボタン画像を選択するタッチ操作を行ったことを示す制御信号が出力されると、携帯用電子機器40Aは、タッチ操作した画像データを画像データ取得部25Aへ出力する。
画像データ取得部25Aは、撮影部16Aが撮影した画像データを取得する。
このようにして、印刷物に掲載された画像をユーザが撮影すると、ナビゲーションシステム1として機能する携帯用電子機器40Aは、画像処理によって、画像に含まれる対象物を認識して特定し、現在位置から対象物までの経路案内を行う。
上述したように、本実施形態によれば、印刷物に掲載された画像をユーザが撮影すると、画像処理によって、画像に含まれる対象物を認識して特定し、現在位置から対象物までの経路案内を行うことができる。このように、本実施形態は、印刷物に掲載された画像から、容易に経路案内をすることができる。
[第三実施形態]
図6、図7を参照しながら、本実施形態に係るナビゲーションシステム1について説明する。図6は、複数の候補の対象物が表示された表示部を示す図である。図7は、第三実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。本実施形態のナビゲーションシステム1は、対象物特定部26と、対象物位置情報取得部27と、経路案内部28とにおける処理が、第一実施形態のナビゲーションシステム1と異なる。
対象物特定部26は、認識した対象物を一意に特定できない場合、類似した対象物を特定する。
一意に特定できないとは、例えば、認識辞書とパターンマッチングを行った際の一致度を示す指数が所定値より低い場合のことをいう。例えば、一致度を示す指数は、特徴点がすべて一致する場合を「100」とする。例えば、一致度を示す指数が「80」より低い場合、一意に特定できないと判断する。
対象物特定部26は、認識した対象物を一意に特定できない場合、特徴がより多く一致し、一致度を示す指数が高い対象物を第二対象物として特定する。対象物特定部26は、例えば、対象物が建造物であれば、何階建か、どのような形状か、外壁は何色か、というような特徴がより多く一致し、一致度を示す指数が高い対象物を第二対象物として特定する。対象物特定部26は、例えば、対象物が自然の景色であれば、どのような景色か、どのような形状か、何色か、というような特徴がより多く一致し、一致度を示す指数が高い対象物を第二対象物として特定する。本実施形態では、認識した対象物を一意に特定できない場合、一致度が高い対象物を複数特定する。一致度が高い複数の対象物とは、一致度が高い対象物に加えて、類似した第二対対象物である。
図5を用いて、対象物特定部26による対象物の特定処理についてより詳しく説明する。対象物特定部26は、図5に示す画像データは、「D海岸E岩」である可能性が最も高いとして特定する。対象物特定部26は、認識した対象物と認識辞書に含まれる「D海岸E岩」との一致度を示す指数が「80」より低い場合、「D海岸E岩」に加えて、類似する他の岩礁を第二対象物として特定する。例えば、対象物特定部26は、「D海岸E岩」に類似する岩礁であって、一致度を示す指数が「60」以上の岩礁を第二対象物として特定する。
対象物位置情報取得部27は、対象物特定部26が特定した複数の対象物に対応する位置情報をそれぞれ取得する。
経路案内部28は、対象物位置情報取得部27が取得した複数の対象物のうち、ユーザによって選択された対象物に対応する位置情報を目的地として設定して経路案内を行う。より詳しくは、経路案内部28は、対象物位置情報取得部27が取得した複数の対象物の位置情報を地図上に重ね合わせた画像を表示する。経路案内部28は、地図上において、目的地として設定する対象物をユーザに選択させる。経路案内部28は、ユーザによって選択された対象物に対応する位置情報を目的地として設定して経路案内を行う。
図6を用いて、経路案内部28によって複数の対象物を表示する場合について説明する。本実施形態では、現在位置P1とともに、複数の対象物である第1候補Q1と、第2候補Q2と、第3候補Q3とが表示される。なお、第1候補Q1が「D海岸E岩」であり、第2候補Q2と第3候補Q3とは、第1候補Q1に類似した形状の第二対象物としての岩礁である。経路案内部28は、例えば、「この写真はF県G市の海の可能性が高いですが、他にも類似した候補があります。」とのメッセージ画像を表示部15に表示したり、音声案内をスピーカから出力したりする。ユーザが目的地としたい対象物をタッチ操作することによって、選択された対象物が目的地に設定される。
経路案内部28は、対象物位置情報取得部27が取得した複数の対象物のうち、現在位置に最も近い対象物を選択し、選択された対象物に対応する位置情報を目的地として設定して経路案内を行ってもよい。
次に、図7を用いて、ナビゲーションシステム1における情報処理について説明する。図7に示すフローチャートのステップS201ないしステップS203、ステップS204、ステップS211の処理は、図3に示すフローチャートのステップS101ないしステップS103、ステップS105、ステップS108と同様の処理を行う。
ステップS204において対象物の位置情報を取得することと前後して、ナビゲーション制御装置20は、対象物が一意に特定されたかを判定する(ステップS205)。ナビゲーション制御装置20は、対象物特定部26によって対象物が一意に特定されたと判定する場合(ステップS205でYes)、ステップS209に進む。ナビゲーション制御装置20は、対象物特定部26によって対象物が一意に特定されていないと判定する場合(ステップS205でNo)、ステップS206に進む。
対象物特定部26によって対象物が一意に特定されていないと判定する場合(ステップS205でNo)、ナビゲーション制御装置20は、対象物特定部26によって、類似した第二対象物を特定する(ステップS206)。より詳しくは、ナビゲーション制御装置20は、対象物特定部26によって、認識した対象物を一意に特定できない場合、一致度が高い対象物を特定する。ナビゲーション制御装置20は、ステップS207に進む。
ナビゲーション制御装置20は、対象物位置情報取得部27によって、対象物特定部26が特定した第二対象物に対応する位置情報をそれぞれ取得する(ステップS207)。ナビゲーション制御装置20は、ステップS208に進む。
ナビゲーション制御装置20は、複数の対象物を表示する(ステップS208)。より詳しくは、ナビゲーション制御装置20は、経路案内部28によって、対象物位置情報取得部27がステップS204およびステップS207で取得した複数の対象物を地図上に重ね合わせた画像を表示する。ナビゲーション制御装置20は、ステップS209に進む。
ナビゲーション制御装置20は、経路探索案内を行う操作がされたかを判定する(ステップS209)。より詳しくは、ナビゲーション制御装置20は、複数の対象物が表示された地図上において、ユーザが目的地とする対象物を選択した場合、経路探索案内を行う操作がされたと判定して(ステップS209でYes)、ステップS210に進む。ナビゲーション制御装置20は、地図上において、ユーザが目的地とする対象物を選択しない場合、経路探索案内を行う操作がされないと判定して(ステップS209でNo)、処理を終了する。
経路探索案内を行う操作がされた場合(ステップS209でYes)、ナビゲーション制御装置20は、経路案内部28によって、ユーザが選択した対象物に対応する位置情報を目的地として設定して経路を探索する(ステップS210)。
このようにして、ナビゲーションシステム1は、認識した対象物を一意に特定できない場合、類似した対象物を特定する。
上述したように、本実施形態は、認識した対象物を一意に特定できない場合、類似した対象物を特定して、ユーザに目的地とする対象物を選択させて、容易に経路案内をすることができる。
[第四実施形態]
図8、図9を参照しながら、本実施形態に係るナビゲーションシステム1について説明する。図8は、複数の候補の対象物が表示された表示部を示す図である。図9は、第四実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。本実施形態のナビゲーションシステム1は、対象物特定部26における処理が、第一実施形態のナビゲーションシステム1と異なる。
対象物特定部26は、現在位置から認識した対象物までの距離が所定距離以上である場合、類似した対象物を特定する。本実施形態では、対象物特定部26は、認識した対象物が、「D海岸E岩」であると一意に特定する。ところが、現在位置である熊本県から対象物である「D海岸E岩」までの距離が所定距離以上である。そこで、現在位置から所定距離以内にある、「D海岸E岩」に類似する岩礁を代替候補として対象物を特定する。
所定距離とは、例えば、100kmとしてもよい。所定距離とは、例えば、現在位置から目的地までの予想所要時間が4時間以下の距離としてもよい。所定距離とは、例えば、日帰りが可能な距離としてもよい。
図8を用いて、経路案内部28によって代替の対象物としての第二対象物を表示する場合について説明する。本実施形態では、現在位置P2と、第1代替候補Q4と、第2代替候補Q5とが表示される。経路案内部28は、例えば、「この写真はF県G市の海の可能性が高いですが、近くに類似した候補があります。」とのメッセージ画像を表示部15に表示したり、音声案内をスピーカから出力したりする。ユーザが目的地としたい対象物をタッチ操作することによって、選択された対象物が目的地に設定される。
次に、図9を用いて、ナビゲーションシステム1における情報処理について説明する。図9に示すフローチャートのステップS301ないしステップS305、ステップS312の処理は、図3に示すフローチャートのステップS101ないしステップS105、ステップS108と同様の処理を行う。ステップS310、ステップS311の処理は、図7に示すフローチャートのステップS209、ステップS210と同様の処理を行う。
ステップS304において対象物の位置情報を取得した後、ナビゲーション制御装置20は、現在位置から対象物までの距離が所定距離以上であるかを判定する(ステップS306)。ナビゲーション制御装置20は、対象物特定部26が特定した対象物までの距離が所定距離以上である場合(ステップS306でYes)、ステップS307に進む。ナビゲーション制御装置20は、対象物特定部26が特定した対象物までの距離が所定距離以上ではない場合(ステップS306でNo)、ステップS310に進む。
ナビゲーション制御装置20は、対象物特定部26によって、現在位置から所定距離範囲内に位置する、類似した第二対象物を特定する(ステップS307)。ナビゲーション制御装置20は、ステップS308に進む。ステップS307で特定する第二対象物は、単数であっても複数であってもよい。
ナビゲーション制御装置20は、対象物位置情報取得部27によって、対象物特定部26が特定した、現在位置から所定距離範囲内に位置する第二対象物に対応する位置情報をそれぞれ取得する(ステップS308)。ナビゲーション制御装置20は、ステップS309に進む。
ナビゲーション制御装置20は、対象物特定部26が特定した対象物と、現在位置から所定距離範囲内に位置する代替候補地として第二対象物を表示する(ステップS309)。より詳しくは、ナビゲーション制御装置20は、経路案内部28によって、対象物特定部26が特定した対象物と現在位置から所定距離範囲内に位置する代替候補を地図上に重ね合わせた画像を表示する。ナビゲーション制御装置20は、ステップS310に進む。
このようにして、ナビゲーションシステム1は、現在位置から認識した対象物までの距離が所定距離以上である場合、類似した第二対象物を特定する。
上述したように、本実施形態は、現在位置から認識した対象物までの距離が所定距離以上である場合、現在位置から所定距離以内の類似した第二対象物を特定して、容易に経路案内をすることができる。このように、本実施形態によれば、ユーザが行きたくなる要求を喚起された画像に対応する場所が遠方であったとき、現在位置から近くに位置する、類似する代替候補を提示することができる。
[第五実施形態]
図10ないし図12を参照しながら、本実施形態に係るナビゲーションシステム1Bについて説明する。図10は、第五実施形態に係るナビゲーション制御装置の概略を示すブロック図である。図11は、ユーザが雑誌に掲載された写真を撮影部で撮影している状態を示す図である。図12は、第五実施形態に係るナビゲーション制御装置における処理の流れを示すフローチャートである。本実施形態のナビゲーションシステム1Bは、ナビゲーション制御装置20Bが時刻推定部31Bを備える点と、経路案内部28Bにおける処理が、第一実施形態のナビゲーションシステム1と異なる。
時刻推定部31Bは、画像データが撮影された時刻を推定する。より詳しくは、時刻推定部31Bは、画像データに画像処理を行って、認識辞書とパターンマッチングを行って、撮影された時刻を特定する。例えば、時刻推定部31Bは、太陽を認識した場合、撮影時刻を昼間と推定してもよい。例えば、時刻推定部31Bは、月または星を認識した場合、撮影時刻を、夜間と推定してもよい。例えば、時刻推定部31Bは、日の出を認識した場合、撮影時刻を日の出時刻前後と推定してもよい。例えば、時刻推定部31Bは、夕焼けを認識した場合、撮影時刻を日の入り時刻前後と推定してもよい。
時刻推定部31Bは、画像データに画像処理を行って、画像データの色相と色彩と明度とに応じて、撮影された時刻を推定してもよい。例えば、時刻推定部31Bは、画像データにおいて青色の占める面積が大きい場合、青空が撮影されていて、撮影された時刻は昼間であると推定してもよい。例えば、時刻推定部31Bは、画像データにおいて黒色の占める面積が大きい場合、夜空が撮影されていて、撮影された時刻は夜間であると推定してもよい。例えば、時刻推定部31Bは、画像データにおいて明るい黄色、橙色、または、白色の占める面積が大きい場合、日の出が撮影されていて、撮影された時刻は日の出時刻前後であると推定してもよい。例えば、時刻推定部31Bは、画像データにおいて明るいまたは暗い、赤色または橙色の占める面積が大きい場合、夕日が撮影されていて、撮影された時刻は日の入り時刻前後であると推定してもよい。
図11を用いて、時刻推定部31Bによる撮影時刻の推定処理についてより詳しく説明する。時刻推定部31Bは、図11に示す画像データから、夕焼けを認識し、かつ、暗い赤色と橙色の占める面積が大きいので、撮影された時刻は日の入り前であると推測する。
経路案内部28Bは、経路案内の対象となる対象物に対応する位置情報を目的地として設定して、時刻推定部31Bが推定した時刻に目的地に到着するように経路案内を行う。例えば、経路案内部28Bは、複数の経路が案内可能である場合、推定した時刻に目的地に到着する経路に沿って経路案内を行う。例えば、経路案内部28Bは、推定した時刻に目的地に到着するように経由地点を設定して迂回した経路案内を行う。
経路案内部28Bは、時刻推定部31Bが推定した時刻に目的地に到着するように案内開始時刻を設定した経路案内を行ってもよい。例えば、経路案内部28Bは、目的地までの所要時間が2時間で、推定した時刻が5時間後である場合、案内開始時刻を3時間後に設定して経路案内を行ってもよい。経路案内部28Bは、第一実施形態から第四実施形態において説明した、ユーザによって選択された対象物または第二対象物のいずれを経路案内対象としてもよい。
次に、図12を用いて、ナビゲーションシステム1Bにおける情報処理について説明する。図12に示すフローチャートのステップS401ないしステップS405、ステップS407、ステップS409の処理は、図3に示すフローチャートのステップS101ないしステップS105、ステップS106、ステップS108と同様の処理を行う。
ステップS405において対象物の位置情報を取得した後、ナビゲーション制御装置20Bは、時刻推定部31Bによって、画像データの撮影時刻を推定する(ステップS406)。ナビゲーション制御装置20Bは、ステップS407に進む。
ナビゲーション制御装置20Bは、経路を探索する(ステップS408)。より詳しくは、ナビゲーション制御装置20Bは、経路案内部28Bによって、経路案内の対象となる対象物に対応する位置情報を目的地として設定して、時刻推定部31Bが推定した時刻に目的地に到着するように経路案内を行う。ナビゲーション制御装置20は、ステップS409に進む。
ステップS403において、対象物特定部26は、図11に示す画像データに写されている対象物を、観覧車がある「H公園」と特定する。
ステップS406において、時刻推定部31Bは、図11に示す画像データが撮影された時刻は日の入り時刻前であると推定する。
ステップS407において、経路案内部28Bは、例えば、「この写真はH公園の可能性が高いです。目的地に設定しますか?」とのメッセージ画像を表示部15に表示したり、音声案内をスピーカから出力したりする。ユーザが「Yes」ボタン画像を選択するタッチ操作を行うと(ステップS407でYes)、ステップS408において、経路案内部28Bは、経路を探索する。そして、経路案内部28Bは、「撮影時刻は夕方と思われます。本日の日没時刻は18:32ですので、16:00くらいに出発するとよいでしょう。」というメッセージ画像と、「すぐに出発」、「あとで出発」を選択するボタン画像を表示部15にポップアップ表示したり、音声案内をスピーカから出力したりする。ユーザが「すぐに出発」ボタン画像をタッチ操作すると、経路案内部28Bは、ステップS409に進んで、現在位置から経路案内を開始する。ユーザが「あとで出発」ボタン画像をタッチ操作すると、経路案内部28Bは、ステップS409の経路案内を所定時刻から開始する。
ステップS407において、経路案内部28Bは、例えば、「この写真はH公園の可能性が高いです。目的地に設定しますか?」とのメッセージ画像を表示部15に表示したり、音声案内をスピーカから出力したりする。ユーザが「Yes」ボタン画像を選択するタッチ操作を行うと(ステップS407でYes)、ステップS408において、経路案内部28Bは、経路を探索する。そして、経路案内部28Bは、「撮影時刻は夕方と思われます。本日の日没時刻は18:32ですので、18:00くらいに到着するルートを設定できます。」というメッセージ画像と、「すぐに出発」、「到着時刻を合わせてすぐに出発」、「あとで出発」を選択するボタン画像を表示部15にポップアップ表示したり、音声案内をスピーカから出力したりする。ユーザが「到着時刻を合わせてすぐに出発」ボタン画像をタッチ操作すると、経路案内部28Bは、ステップS409に進んで、現在位置から対象物までの到着時刻を合せた迂回ルートの経路案内を開始する。
このようにして、ナビゲーションシステム1は、画像が撮影された時刻を推定して、推定した時刻に目的地に到着するように経路案内を行う。または、推定した時刻に目的地に到着するように案内開始時刻を設定した経路案内を行ってもよい。さらに、推定した時刻に目的地に到着するように経由地点を設定した経路案内を行ってもよい。
上述したように、本実施形態は、画像が撮影された時刻を推定して、推定した時刻に目的地に到着するように経路案内を行うことができる。または、本実施形態は、推定した時刻に目的地に到着するように案内開始時刻を設定した経路案内を行うことができる。さらに、本実施形態は、推定した時刻に目的地に到着するように経由地点を設定した経路案内を行うことができる。このように、本実施形態によれば、ユーザが行きたくなる要求を喚起された画像によって紹介された状況に近い状況をユーザが見ることができる。
図示したナビゲーションシステム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
ナビゲーションシステム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
上記では、撮影部16Aは、印刷物に掲載された画像を撮影するものとして説明したが、これに限定されない。撮影部16Aは、ユーザの目の前にある、例えば、名勝、観光地、建造物、街並み、自然の景色、特徴のある店舗の内装のような建造物の内部、特徴を有する物品、特徴を有する飲食物、特徴を有する生物、または、特徴を有する植物を撮影してもよい。例えば、ユーザが目の前に置かれた特徴のあるケーキを撮影して目的地に設定すると、そのケーキを販売している店舗までの経路案内が行われる。例えば、ユーザが目の前にある特徴のある街並みを撮影して目的地に設定すると、その街並みに類似する近くの対象物までの経路案内が行われる。このようにして、ユーザが目の前にあるものを撮影した画像からも、容易に経路案内をすることができる。
1 ナビゲーションシステム
11 GPS受信部
12 操作部
13 通信部
14 地図情報記憶部
15 表示部
20 ナビゲーション制御装置
21 現在位置情報取得部
22 操作受付制御部
23 通信制御部
24 地図情報取得部
25 画像データ取得部
26 対象物特定部
27 対象物位置情報取得部
28 経路案内部
29 表示制御部

Claims (9)

  1. 画像データを取得する画像データ取得部と、
    前記画像データ取得部が取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定部と、
    前記対象物特定部が特定した前記対象物に対応する位置情報を取得する対象物位置情報取得部と、
    前記対象物位置情報取得部が特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内部と、
    を備え
    前記対象物特定部は、認識した対象物を一意に特定できない場合、前記対象物に加えて、前記対象物に類似した第二対象物を特定し、
    前記対象物位置情報取得部は、前記対象物特定部が特定した前記第二対象物に対応する位置情報を取得し、
    前記経路案内部は、前記対象物位置情報取得部が特定した前記第二対象物が目的地として設定された場合、前記第二対象物に対応する位置情報を目的地として設定して経路案内を行う、ことを特徴とするナビゲーション制御装置。
  2. 画像データを取得する画像データ取得部と、
    前記画像データ取得部が取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定部と、
    前記対象物特定部が特定した前記対象物に対応する位置情報を取得する対象物位置情報取得部と、
    前記対象物位置情報取得部が特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内部と、
    を備え、
    前記対象物特定部は、現在位置から認識した対象物までの距離が所定距離以上である場合、前記対象物に加えて、前記対象物に類似した第二対象物を特定し、
    前記対象物位置情報取得部は、前記対象物特定部が特定した前記第二対象物に対応する位置情報を取得し、
    前記経路案内部は、前記対象物位置情報取得部が特定した前記第二対象物が目的地として設定された場合、前記第二対象物に対応する位置情報を目的地として設定して経路案内を行う、ことを特徴とするナビゲーション制御装置。
  3. 前記対象物特定部は、前記対象物に類似した第二対象物を複数特定し、
    前記対象物位置情報取得部は、前記対象物特定部が特定した複数の第二対象物に対応する位置情報をそれぞれ取得し、
    前記経路案内部は、前記対象物位置情報取得部が取得した複数の第二対象物のうち、選択された第二対象物に対応する位置情報を目的地として設定して経路案内を行う、
    請求項1または2に記載のナビゲーション制御装置。
  4. 前記経路案内部は、前記対象物位置情報取得部が取得した複数の第二対象物のうち、現在位置に最も近い第二対象物を選択し、選択された第二対象物に対応する位置情報を目的地として設定して経路案内を行う、
    請求項に記載のナビゲーション制御装置。
  5. 前記画像データが撮影された時刻を推定する時刻推定部、
    をさらに備え、
    前記経路案内部は、経路案内の対象となる対象物または第二対象物に対応する位置情報を目的地として設定して、前記時刻推定部が推定した時刻に目的地に到着するように経路案内を行う、
    請求項1からのいずれか一項に記載のナビゲーション制御装置。
  6. 前記経路案内部は、前記時刻推定部が推定した時刻に目的地に到着するように案内開始時刻を設定した経路案内を行う、
    請求項に記載のナビゲーション制御装置。
  7. 前記経路案内部は、前記時刻推定部が推定した時刻に目的地に到着するように経由地点を設定した経路案内を行う、
    請求項に記載のナビゲーション制御装置。
  8. 画像データを取得する画像データ取得ステップと、
    前記画像データ取得ステップによって取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定ステップと、
    前記対象物特定ステップによって特定した前記対象物に対応する位置情報を取得する対象物位置情報取得ステップと、
    前記対象物位置情報取得ステップによって特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内ステップと、
    を含み、
    前記対象物特定ステップは、認識した対象物を一意に特定できない場合、前記対象物に加えて、前記対象物に類似した第二対象物を特定し、
    前記対象物位置情報取得ステップは、前記対象物特定ステップによって特定された前記第二対象物に対応する位置情報を取得し、
    前記経路案内ステップは、前記対象物位置情報取得ステップによって特定された前記第二対象物が目的地として設定された場合、前記第二対象物に対応する位置情報を目的地として設定して経路案内を行う、ナビゲーション方法。
  9. 画像データを取得する画像データ取得ステップと、
    前記画像データ取得ステップによって取得した前記画像データに写されている対象物を認識し、前記対象物を特定する対象物特定ステップと、
    前記対象物特定ステップによって特定した前記対象物に対応する位置情報を取得する対象物位置情報取得ステップと、
    前記対象物位置情報取得ステップによって特定した前記対象物に対応する位置情報を目的地として設定して経路案内を行う経路案内ステップと、
    を含み、
    前記対象物特定ステップは、認識した対象物を一意に特定できない場合、前記対象物に加えて、前記対象物に類似した第二対象物を特定し、
    前記対象物位置情報取得ステップは、前記対象物特定ステップによって特定された前記第二対象物に対応する位置情報を取得し、
    前記経路案内ステップは、前記対象物位置情報取得ステップによって特定された前記第二対象物が目的地として設定された場合、前記第二対象物に対応する位置情報を目的地として設定して経路案内を行う、ナビゲーション制御装置として動作するコンピュータに実行させるためのプログラム。
JP2018230742A 2018-12-10 2018-12-10 ナビゲーション制御装置、ナビゲーション方法およびプログラム Active JP7081468B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018230742A JP7081468B2 (ja) 2018-12-10 2018-12-10 ナビゲーション制御装置、ナビゲーション方法およびプログラム
PCT/JP2019/023037 WO2020121558A1 (ja) 2018-12-10 2019-06-11 ナビゲーション制御装置、ナビゲーション方法およびプログラム
US17/333,054 US20210285785A1 (en) 2018-12-10 2021-05-28 Navigation control device, navigation method and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018230742A JP7081468B2 (ja) 2018-12-10 2018-12-10 ナビゲーション制御装置、ナビゲーション方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020094815A JP2020094815A (ja) 2020-06-18
JP7081468B2 true JP7081468B2 (ja) 2022-06-07

Family

ID=71075526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018230742A Active JP7081468B2 (ja) 2018-12-10 2018-12-10 ナビゲーション制御装置、ナビゲーション方法およびプログラム

Country Status (3)

Country Link
US (1) US20210285785A1 (ja)
JP (1) JP7081468B2 (ja)
WO (1) WO2020121558A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113901257B (zh) 2021-10-28 2023-10-27 北京百度网讯科技有限公司 地图信息的处理方法、装置、设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297611A (ja) 2001-03-29 2002-10-11 Toshiba Corp 地図情報取得方法および位置情報取得方法および地図情報取得装置およびクライアント装置および地図情報蓄積装置およびプログラム
JP2005100276A (ja) 2003-09-26 2005-04-14 Mazda Motor Corp 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2008180624A (ja) 2007-01-25 2008-08-07 Victor Co Of Japan Ltd ナビゲーション装置及びナビゲーション方法
JP2012032339A (ja) 2010-08-02 2012-02-16 Mega Chips Corp デジタルカメラ
JP2012122778A (ja) 2010-12-06 2012-06-28 Fujitsu Ten Ltd ナビゲーション装置
JP2013108777A (ja) 2011-11-18 2013-06-06 Masayoshi Mizuguchi 車、携帯、及び、スマートフォンなどを利用した新しいナビゲーションの方法
WO2013168382A1 (ja) 2012-05-07 2013-11-14 株式会社デンソー 画像表示システム、移動端末、サーバ、持続的有形コンピュータ読み取り媒体
JP2017096635A (ja) 2015-11-18 2017-06-01 アイシン・エィ・ダブリュ株式会社 目的地設定システム、方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8606516B2 (en) * 2004-11-30 2013-12-10 Dash Navigation, Inc. User interface system and method for a vehicle navigation device
US8131118B1 (en) * 2008-01-31 2012-03-06 Google Inc. Inferring locations from an image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297611A (ja) 2001-03-29 2002-10-11 Toshiba Corp 地図情報取得方法および位置情報取得方法および地図情報取得装置およびクライアント装置および地図情報蓄積装置およびプログラム
JP2005100276A (ja) 2003-09-26 2005-04-14 Mazda Motor Corp 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2008180624A (ja) 2007-01-25 2008-08-07 Victor Co Of Japan Ltd ナビゲーション装置及びナビゲーション方法
JP2012032339A (ja) 2010-08-02 2012-02-16 Mega Chips Corp デジタルカメラ
JP2012122778A (ja) 2010-12-06 2012-06-28 Fujitsu Ten Ltd ナビゲーション装置
JP2013108777A (ja) 2011-11-18 2013-06-06 Masayoshi Mizuguchi 車、携帯、及び、スマートフォンなどを利用した新しいナビゲーションの方法
WO2013168382A1 (ja) 2012-05-07 2013-11-14 株式会社デンソー 画像表示システム、移動端末、サーバ、持続的有形コンピュータ読み取り媒体
JP2017096635A (ja) 2015-11-18 2017-06-01 アイシン・エィ・ダブリュ株式会社 目的地設定システム、方法およびプログラム

Also Published As

Publication number Publication date
JP2020094815A (ja) 2020-06-18
US20210285785A1 (en) 2021-09-16
WO2020121558A1 (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
US11060880B2 (en) Route planning method and apparatus, computer storage medium, terminal
JP4994028B2 (ja) ガソリン価格情報収集システム、ガソリン価格情報収集方法およびナビゲーション装置
JP5728775B2 (ja) 情報処理装置、及び情報処理方法
EP3249360A1 (en) An apparatus, method and computer program for displaying points of interest
EP2498236B1 (en) System, server, terminal apparatus, program and method for information providing.
US20100029293A1 (en) Navigation system using camera
US9726512B2 (en) Method for operating a navigation system, navigation system and motor vehicle
CN105659055A (zh) 移动辅助装置及移动辅助方法
JP2009014486A (ja) ナビゲーション装置、案内方法及び案内プログラム
JP7081468B2 (ja) ナビゲーション制御装置、ナビゲーション方法およびプログラム
JP6345411B2 (ja) ナビゲーション装置の写真地図表示方法及びナビゲーション装置
KR102073551B1 (ko) 지점 안내 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체
JP2003216927A (ja) 画像表示プログラム
JP2008070557A (ja) ランドマーク表示方法、ナビゲーション装置、車載装置及びナビゲーションシステム
JP2010164492A (ja) ナビゲーション装置およびナビゲーションシステム
JP2002303530A (ja) ナビゲーション装置
JP2005140636A (ja) ナビゲーション装置、方法及びプログラム
JP2009036676A (ja) 情報処理装置、付加情報提供方法及び付加情報提供プログラム
JP5377071B2 (ja) 天体案内装置、天体案内方法及びプログラム
JP2006266965A (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーション用プログラム
JP2008139091A (ja) 地図データ更新システム、携帯情報端末、地図配信サーバ、ナビゲーション装置及び地図データ更新方法
JP2002310685A (ja) 駐車場検索システム及び駐車場検索プログラム
JP2006275965A (ja) ナビゲーション装置、方法及びプログラム
JP4483454B2 (ja) カーナビゲーション装置
JP6902524B2 (ja) 施設情報提供プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R150 Certificate of patent or registration of utility model

Ref document number: 7081468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150