JP2008190941A - Navigation device and destination setting method - Google Patents

Navigation device and destination setting method Download PDF

Info

Publication number
JP2008190941A
JP2008190941A JP2007024144A JP2007024144A JP2008190941A JP 2008190941 A JP2008190941 A JP 2008190941A JP 2007024144 A JP2007024144 A JP 2007024144A JP 2007024144 A JP2007024144 A JP 2007024144A JP 2008190941 A JP2008190941 A JP 2008190941A
Authority
JP
Japan
Prior art keywords
map
data
name
displayed
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007024144A
Other languages
Japanese (ja)
Inventor
Shigehiro Yamamoto
茂宏 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007024144A priority Critical patent/JP2008190941A/en
Publication of JP2008190941A publication Critical patent/JP2008190941A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To readily allow a user to set a destination, using a simple device constitution. <P>SOLUTION: This device is equipped with a map information storage means 308 for storing correlatively map data, name data of a plurality of spots in the map data, and position data corresponding to each piece of the name data; an image reception means 302 for receiving image data on the map; a character data extraction means 303 for extracting character data from the received image data; a name retrieval means 304 for collating the extracted character data with the name data stored in the map information storage means 308, and reading out position data that correspond to the name data in a coincident case from the map information storage means 308; and an output control means 311 that reads the map data containing the read-out position data from the map information storage means 308, and making a display means 313 display the map, based on the read-out map data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、簡易な装置構成で、利用者に容易に目的地を設定させることができるナビゲーション装置及び目的地設定方法に関する。   The present invention relates to a navigation device and a destination setting method that allow a user to easily set a destination with a simple device configuration.

車両に装備されるナビゲーション装置は、車両の現在位置を測定し、測定した現在位置から利用者が設定した目的地までの経路案内を行う機能を提供するものである。この機能によって利用者は容易にかつ確実に目的地へ到着することができる。ここで、従来のナビゲーション装置によって経路案内を受けるためには、走行開始前に予め利用者が目的地を設定しておく必要がある。   A navigation device provided in a vehicle provides a function of measuring a current position of the vehicle and performing route guidance from the measured current position to a destination set by a user. This function allows the user to reach the destination easily and reliably. Here, in order to receive route guidance by a conventional navigation device, it is necessary for the user to set a destination in advance before the start of traveling.

この目的地の設定方法としては、大きく分けて一般的に2つの方法が知られている。第1の方法は、利用者がナビゲーション装置に表示された地図上の所望の位置をカーソル等でポイントすることにより目的地を設定する方法であり、第2の方法は、利用者が目的地の住所や属性(名称、電話番号等)を入力し、この入力条件に該当する選択肢の中から利用者が絞り込むことにより目的地を設定する方法がある。   As the destination setting method, two methods are generally known. The first method is a method in which the user sets a destination by pointing a desired position on the map displayed on the navigation device with a cursor or the like, and the second method is a method in which the user sets the destination. There is a method in which an address and attributes (name, telephone number, etc.) are input, and a destination is set by a user narrowing down from options corresponding to the input conditions.

上記第1の方法は、主に利用者が現在地と目的地との位置関係をある程度知っている場合に用いられ、第2の方法は、利用者が現在地と目的地との位置関係を全く知らない場合に主に用いられる。   The first method is mainly used when the user knows the positional relationship between the current location and the destination to some extent, and the second method is used when the user knows the positional relationship between the current location and the destination at all. Mainly used when not.

しかしながら、第1の方法では、目的地を検索するのに何回も画面展開をしなければならず、利用者にとって操作がわずらわしかった。   However, in the first method, it is necessary to expand the screen many times to search for the destination, which is troublesome for the user.

即ち、通常ナビゲーション装置に利用される表示画面サイズは7インチ程度であり、一度に表示画面に表示できる範囲は限られている。そのため、利用者は、この狭い表示画面内に表示される地図上で目的地を探すのは困難であった。そこで、利用者は、例えば縮尺の大きな拡大図から詳細図へ、また詳細図から拡大図へ画面展開しながら目的地を探し出さなければならず、これらの操作は、利用者にとって非常にわずらわしかった。   That is, the display screen size normally used for navigation devices is about 7 inches, and the range that can be displayed on the display screen at a time is limited. Therefore, it is difficult for the user to search for a destination on the map displayed in the narrow display screen. Therefore, the user must search for a destination while developing the screen from a large scale enlarged view to a detailed view and from the detailed view to the enlarged view, and these operations are very troublesome for the user. It was.

また、第2の方法では、利用者は、目的地の住所や属性を正確に知っておく必要があった。また目的地の住所や属性を入力するには、多数の文字の文字入力操作が必要であり、これらの操作は、利用者にとって非常にわずらわしかった。   In the second method, the user needs to know the destination address and attributes accurately. Also, inputting a destination address or attribute requires a number of character input operations, which are very cumbersome for the user.

そこで、特許文献1では、地図表示手段と電子ペンを用いて地図表示手段上の位置を電子ペンで指示することによって、目的地を入力するナビゲーションシステムが提案されている。   Therefore, Patent Document 1 proposes a navigation system that inputs a destination by using a map display unit and an electronic pen to indicate a position on the map display unit with the electronic pen.

また、特許文献2では、記憶されている地図データの中心付近からドット密集ポイントを確認し、密集ポイントのデータを抜き出して地名データをピックアップし、ピックアップした地名データに対応する地図と、スキャンした地図とを比較して目的地設定を行う車載用経路誘導装置が提案されている。
特開2003−287432号公報 特開平8−54251号公報
Further, in Patent Document 2, a dot dense point is confirmed from the vicinity of the center of the stored map data, the data of the dense point is extracted, the place name data is picked up, a map corresponding to the picked up place name data, and a scanned map In-vehicle route guidance devices that perform destination setting in comparison with are proposed.
JP 2003-287432 A JP-A-8-54251

しかしながら、特許文献1に記載のナビゲーションシステムでは、このナビゲーションシステム専用の地図表示手段と電子ペンを用意する必要があった。そのため、車両内での収納スペースの問題や、装置構成が複雑化し製造コストが高くなるという問題があった。   However, in the navigation system described in Patent Document 1, it is necessary to prepare a map display means and an electronic pen dedicated to this navigation system. For this reason, there is a problem of storage space in the vehicle and a problem that the device configuration becomes complicated and the manufacturing cost increases.

また、特許文献2に記載の車載用経路誘導装置では、装置自体が、記憶されている地図データの中心付近からドット密集ポイントを確認し、密集ポイントのデータを抜き出して地名データをピックアップする。そのため、地名が詳細に記載されていない地図が用いられた場合、車載用経路誘導装置が、利用者が意図している地名ではない名称の地名データをピックアップしてしまい、適切に目的地設定ができないという問題があった。また、この車載用経路誘導装置は交差点や道路の方向の画像イメージのマッチングを行うことで、ピックアップした地名データに対応する地図とスキャンした地図とを比較するので、処理の負荷が大きくなり、レスポンスが悪いという問題があった。   Further, in the in-vehicle route guidance device described in Patent Document 2, the device itself confirms a dot dense point from the vicinity of the center of the stored map data, extracts the dense point data, and picks up place name data. Therefore, when a map where the place name is not described in detail is used, the in-vehicle route guidance device picks up place name data of a name that is not the place name intended by the user, and the destination setting is appropriately performed. There was a problem that I could not. In addition, this on-vehicle route guidance device compares the image corresponding to the picked place name data with the scanned map by matching the image image of the intersection or road direction, so the processing load increases and the response There was a problem of being bad.

本発明は、上記問題点に鑑みてなされたものであり、簡易な装置構成により、利用者にとって容易に目的地を設定させることができるナビゲーション装置及び目的地設定方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a navigation device and a destination setting method capable of easily setting a destination for a user with a simple device configuration. .

上記目的を解決するため、本発明に係るナビゲーション装置の第1の特徴は、地図データに基づいて表示手段に地図を表示させると共に、この表示された地図中から選択された地点を目的地として設定し、現在地から目的地までの自車両の経路案内を行うナビゲーション装置であって、地図データと、この地図データにおける複数の地点の名称データと、各名称データに対応する位置データとを関連付けて記憶する地図情報記憶手段と、地図に関する画像データを受信する画像受信手段と、画像受信手段により受信された画像データから文字データを抽出する文字データ抽出手段と、文字データ抽出手段により抽出された文字データと地図情報記憶手段に記憶された名称データとを照合し、一致した場合の名称データに対応する位置データを地図情報記憶手段から読み出す名称検索手段と、名称検索手段により読み出された位置データを含む地図データを地図情報記憶手段から読み出し、この読み出した地図データに基づいて地図を表示手段に表示させる出力制御手段とを備えることにある。   In order to solve the above-mentioned object, the first feature of the navigation device according to the present invention is to display a map on the display means based on the map data and to set a point selected from the displayed map as a destination. A navigation device that provides route guidance for the host vehicle from the current location to the destination, and stores map data, name data of a plurality of points in the map data, and position data corresponding to each name data. Map information storage means, image receiving means for receiving image data relating to the map, character data extracting means for extracting character data from the image data received by the image receiving means, and character data extracted by the character data extracting means Is compared with the name data stored in the map information storage means, and the position data corresponding to the name data in the case of coincidence is obtained. Name control means for reading out from the figure information storage means, and output control for reading out the map data including the position data read out by the name search means from the map information storage means and displaying the map on the display means based on the read out map data Means.

上記目的を解決するため、本発明に係るナビゲーション装置の第2の特徴は、出力制御手段が、読み出された地図データに基づいて表示される地図の表示範囲及び縮尺を決定し、これら決定した表示範囲及び縮尺に基づいて前記地図を前記表示手段に表示させると共に、この表示された地図上に画像受信手段により受信した画像データに基づく画像を子画面として重ね合わせて表示させることにある。   In order to solve the above-described object, the second feature of the navigation device according to the present invention is that the output control means determines the display range and scale of the map to be displayed based on the read map data, and determines these. The map is displayed on the display unit based on the display range and scale, and the image based on the image data received by the image receiving unit is displayed on the displayed map so as to be superimposed on the child screen.

本発明に係るナビゲーション装置及び目的地設定方法によれば、簡易な装置構成により、利用者に容易に目的地を設定させることができる。   According to the navigation device and the destination setting method of the present invention, the user can easily set the destination with a simple device configuration.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

≪第1の実施形態≫
図1は、本発明の第1の実施形態であるナビゲーション装置の構成を示したブロック図である。
<< First Embodiment >>
FIG. 1 is a block diagram showing a configuration of a navigation device according to the first embodiment of the present invention.

図1に示すように、ナビゲーション装置1は、入力装置2と、ナビゲーション本体装置3と、車両センサ4とを備えている。   As shown in FIG. 1, the navigation device 1 includes an input device 2, a navigation main body device 3, and a vehicle sensor 4.

入力装置2は、画像を撮影するカメラ部201と、カメラ部201により撮影された画像を表示する表示部202と、利用者の操作によって画像取り込み要求信号等の各種操作信号を生成する制御スイッチ部203と、カメラ部201が撮影した画像の画像データを一時的に記憶する一時記憶部204と、一時記憶部204に記憶されている画像データをナビゲーション本体装置3へ送信する入力側通信部205とを備える。   The input device 2 includes a camera unit 201 that captures an image, a display unit 202 that displays an image captured by the camera unit 201, and a control switch unit that generates various operation signals such as an image capture request signal by a user operation. 203, a temporary storage unit 204 that temporarily stores image data of an image captured by the camera unit 201, and an input-side communication unit 205 that transmits the image data stored in the temporary storage unit 204 to the navigation main body device 3. Is provided.

車両センサ4は、車速センサ401、方位センサ402、ジャイロセンサ403、GPSセンサ404等のセンサを備える。   The vehicle sensor 4 includes sensors such as a vehicle speed sensor 401, an orientation sensor 402, a gyro sensor 403, and a GPS sensor 404.

ナビゲーション本体装置3は、現在地検出部301と、本体側通信部302と、文字データ抽出部303と、名称検索部304と、ポインティング部305と、目的地登録部306と、記憶部308と、経路検索部309と、案内発生部310と、出力制御部311と、音声出力部312と、表示部313とを備える。   The navigation main body device 3 includes a current position detection unit 301, a main body side communication unit 302, a character data extraction unit 303, a name search unit 304, a pointing unit 305, a destination registration unit 306, a storage unit 308, a route A search unit 309, a guidance generation unit 310, an output control unit 311, an audio output unit 312, and a display unit 313 are provided.

車両センサ4の車速センサ401、方位センサ402、及びジャイロセンサ403は、それぞれ車両の速度、向いている方位、及び回転方向を検出し、検出した信号をナビゲーション本体装置3の現在地検出部301へ送信する。   The vehicle speed sensor 401, the direction sensor 402, and the gyro sensor 403 of the vehicle sensor 4 detect the vehicle speed, the heading direction, and the rotation direction, respectively, and transmit the detected signals to the current location detection unit 301 of the navigation main body device 3. To do.

車両センサ4のGPSセンサ404は、車両の位置を検出するためのGPS衛星からのGPS信号を受信し、受信した信号をナビゲーション本体装置3の現在地検出部301へ送信する。   The GPS sensor 404 of the vehicle sensor 4 receives a GPS signal from a GPS satellite for detecting the position of the vehicle, and transmits the received signal to the current location detection unit 301 of the navigation main body device 3.

ナビゲーション本体装置3の現在地検出部301は、車両センサ4にて検出した車両の速度、向いている方位、及び回転方向等の各検出信号から所定時間毎に自車両の現在地及び進行方向を算出し、経路検索部309へ送信する。   The current location detection unit 301 of the navigation main unit 3 calculates the current location and traveling direction of the host vehicle at predetermined time intervals from detection signals such as the vehicle speed detected by the vehicle sensor 4, the heading direction, and the rotation direction. To the route search unit 309.

本体側通信部302は、通信インタフェースであり、入力装置2の入力側通信部205から受信した画像データを文字データ抽出部303及び出力制御部311へ送信する。   The main body side communication unit 302 is a communication interface, and transmits image data received from the input side communication unit 205 of the input device 2 to the character data extraction unit 303 and the output control unit 311.

文字データ抽出部303は、本体側通信部302が受信した画像データから文字データを抽出し、名称検索部304は、文字データ抽出部303により抽出された文字データと記憶部308に記憶された名称データとを照合し、一致した場合にはこの名称データに対応する位置データを抽出する。   The character data extraction unit 303 extracts character data from the image data received by the main body side communication unit 302, and the name search unit 304 extracts the character data extracted by the character data extraction unit 303 and the name stored in the storage unit 308. The data is collated, and if they match, the position data corresponding to this name data is extracted.

ポインティング部305は、出力制御部311により表示部313に表示された表示画面への利用者によるポイント選択操作を検出し、目的地登録部306は、ポインティング部305が検出した画面上のポイントデータから地図上の位置データを算出し、目的地位置データとして経路検索部309へ送信する。   The pointing unit 305 detects a point selection operation by the user on the display screen displayed on the display unit 313 by the output control unit 311, and the destination registration unit 306 detects the point data on the screen detected by the pointing unit 305. Position data on the map is calculated and transmitted to the route search unit 309 as destination position data.

経路検索部309は、現在地検出部301にて検出された現在位置データが示す現在位置から目的地登録部306にて受信した目的地位置データが示す目的地までの経路を算出する。   The route search unit 309 calculates a route from the current position indicated by the current position data detected by the current location detection unit 301 to the destination indicated by the destination location data received by the destination registration unit 306.

案内発生部310は、経路検索部309によって算出した経路に基づいて、経路案内を行う。   The guidance generation unit 310 performs route guidance based on the route calculated by the route search unit 309.

記憶部308は、メモリやHDD等の記憶媒体であり、ナビゲーションプログラムの他、このナビゲーションプログラムを実行する上で必要な様々なデータを記憶する。例えば、記憶部308は、地図データと、この地図データにおける地点の名称データと、この名称データに対応する位置データとを関連付けて記憶する。   The storage unit 308 is a storage medium such as a memory or an HDD, and stores various data necessary for executing the navigation program in addition to the navigation program. For example, the storage unit 308 stores map data, name data of points in the map data, and position data corresponding to the name data in association with each other.

出力制御部311は、名称検索部304で検索された名称データに対応する全ての位置データを含むように地図の表示範囲及び地図の縮尺を決定し、決定した地図の表示範囲及び地図の縮尺に基づいて表示部313へ地図を表示させる。また、出力制御部311は、表示部313の表示画面内に子画面を表示させ、この子画面表示内に本体側通信部302より受信した画像データに基づいて画像を表示させる。さらに、出力制御部311は、表示部313へ表示させた地図上に現在地検出部301により算出された現在地と経路検索部309により計算された経路とを重ね合わせて表示させる。   The output control unit 311 determines a map display range and a map scale so as to include all position data corresponding to the name data searched by the name search unit 304, and sets the determined map display range and map scale to the determined map display range. Based on this, a map is displayed on the display unit 313. In addition, the output control unit 311 displays a child screen in the display screen of the display unit 313 and displays an image based on the image data received from the main body side communication unit 302 in the child screen display. Further, the output control unit 311 displays the current location calculated by the current location detection unit 301 and the route calculated by the route search unit 309 on the map displayed on the display unit 313 in an overlapping manner.

表示部313は、例えば液晶ディスプレイであり、出力制御部311からの出力信号に基づいて地図、経路及び指示案内等を表示する。   The display unit 313 is, for example, a liquid crystal display, and displays a map, a route, instruction guidance, and the like based on an output signal from the output control unit 311.

音声出力部312は、案内発生部310からの信号に基づいて、走行中に適切なタイミングで経路の音声案内を出力する。   The voice output unit 312 outputs a route voice guidance at an appropriate timing during traveling based on a signal from the guidance generation unit 310.

<入力装置2の作用>
次に図2のフローチャートに従って、第1の実施形態であるナビゲーション装置1の入力装置2における処理手順について説明する。
<Operation of Input Device 2>
Next, a processing procedure in the input device 2 of the navigation device 1 according to the first embodiment will be described with reference to the flowchart of FIG.

まず、利用者が、例えば所有する地図帳から目的地を探し出し、この地図上の目的地付近を撮影する。具体的には、利用者による入力装置2の押釦操作により制御スイッチ部203が画像取込要求信号を生成し、画像取込要求信号を受信したカメラ部201が画像を取り込む(ステップS1)。このとき、利用者は、地図上において目的地周辺の交差点名称、施設名称、河川名称、又は橋の名称などの名称がいくつか入るようなエリアを選択する。   First, a user searches for a destination from, for example, an owned map book, and photographs the vicinity of the destination on the map. Specifically, the control switch unit 203 generates an image capture request signal by a push button operation of the input device 2 by the user, and the camera unit 201 that receives the image capture request signal captures an image (step S1). At this time, the user selects an area on the map where several names such as an intersection name, a facility name, a river name, or a bridge name around the destination are entered.

そして、カメラ部201は、撮影した画像データを一時記憶部204へ供給し、入力側通信部205は、一時記憶部204が一時保存した画像データを読み出し、読み出した画像データをナビゲーション本体装置3の本体側通信部302へ送信する(ステップS2)。   The camera unit 201 supplies the captured image data to the temporary storage unit 204, and the input-side communication unit 205 reads the image data temporarily stored in the temporary storage unit 204, and reads the read image data of the navigation main body device 3. It transmits to the main body side communication unit 302 (step S2).

<ナビゲーション本体装置3の作用>
次に図3のフローチャートに従って、第1の実施形態であるナビゲーション本体装置3における処理手順について説明する。
<Operation of the navigation main unit 3>
Next, a processing procedure in the navigation main body device 3 according to the first embodiment will be described with reference to the flowchart of FIG.

ナビゲーション本体装置3の本体側通信部302は、入力装置2の入力側通信部205から画像データを受信したか否かを監視し、画像データを受信したと判定した場合は、受信した画像データを文字データ抽出部303へ送信する(ステップS11)。   The main body side communication unit 302 of the navigation main body device 3 monitors whether or not image data has been received from the input side communication unit 205 of the input device 2, and determines that the received image data has been received. It transmits to the character data extraction part 303 (step S11).

そして、画像データを受信した文字データ抽出部303は、この画像データに含まれる文字データを抽出し(ステップS12)、抽出した全ての文字データを名称検索部304へ送信する。文字データの抽出は、一般的な文字認識方法(例えば、特開2002−042055号公報に記載のカラー文書からの文字認識方法等)を用いることができる。   Then, the character data extraction unit 303 that has received the image data extracts the character data included in the image data (step S12), and transmits all the extracted character data to the name search unit 304. For the extraction of character data, a general character recognition method (for example, a character recognition method from a color document described in JP-A-2002-042055) can be used.

抽出した文字データを受信した名称検索部304は、受信した全ての文字データ各々について、この文字データに対応する位置データを記憶部308から検索し、検索により取得した位置データを出力制御部311へ送信する(ステップS13)。   Upon receiving the extracted character data, the name search unit 304 searches the storage unit 308 for position data corresponding to the character data for each received character data, and outputs the position data acquired by the search to the output control unit 311. Transmit (step S13).

次に、出力制御部311は、受信した全ての位置データを含むように記憶部308に記憶されている地図データから表示部313に表示させる地図の表示範囲及び縮尺を決定する(ステップS14)。   Next, the output control unit 311 determines the display range and scale of the map to be displayed on the display unit 313 from the map data stored in the storage unit 308 so as to include all received position data (step S14).

そして、出力制御部311は、決定した地図の表示範囲及び地図の縮尺に基づいて地図を読み出し、表示部313へ地図を表示させる。さらに、出力制御部311は、表示部313の表示画面内に子画面を表示させると共に、この子画面表示内に本体側通信部302より受信した画像データに基づいて利用者によって撮影された画像を表示させる(ステップS15)。   Then, the output control unit 311 reads the map based on the determined map display range and map scale, and causes the display unit 313 to display the map. Furthermore, the output control unit 311 displays a child screen in the display screen of the display unit 313, and displays an image photographed by the user based on the image data received from the main body side communication unit 302 in the child screen display. It is displayed (step S15).

次に、ポインティング部305は、表示部313が表示した地図上への利用者によるポイント選択操作を検出し、検出した地図上のポイントデータを目的地登録部306へ送信する。   Next, the pointing unit 305 detects a point selection operation by the user on the map displayed by the display unit 313, and transmits the detected point data on the map to the destination registration unit 306.

目的地登録部306は、受信したポイントデータに基づいて、このポイントデータが示す地図上の位置データを算出し目的地位置データとして経路検索部309へ送信する。   The destination registration unit 306 calculates position data on the map indicated by the point data based on the received point data, and transmits the calculated position data to the route search unit 309 as destination position data.

目的地位置データを受信した経路検索部309は、現在地検出部301にて検出された現在地から目的地までの経路を算出する。   The route search unit 309 that has received the destination position data calculates a route from the current location detected by the current location detection unit 301 to the destination.

そして、案内発生部310が経路検索部309によって算出した経路に基づいて、経路案内を開始する。   Then, the route generation is started based on the route calculated by the route search unit 309 by the guidance generation unit 310.

出力制御部311は、記憶部308に記憶した地図データを読み出し、この地図データに基づいて表示した地図上に現在地検出部301にて検出された現在地と経路検索部309により計算した経路とを重ね合わせ、表示部313に表示させる。   The output control unit 311 reads the map data stored in the storage unit 308, and superimposes the current location detected by the current location detection unit 301 on the map displayed based on the map data and the route calculated by the route search unit 309. These are displayed on the display unit 313.

これにより、撮影された地図を基に目的地を含む地図を読み出して表示部313に表示し、撮影された地図の画像を子画面に表示するので、利用者は、これらを見比べながら、目的地を探すことができる。   As a result, a map including the destination is read out based on the photographed map and displayed on the display unit 313, and an image of the photographed map is displayed on the sub-screen. Can be searched.

そのため、利用者は複雑な地図選択に関わる操作を伴うことなく、容易に所望の地図に辿り着くことができ、簡易な操作で目的地設定を行うことが出来る。   Therefore, the user can easily reach the desired map without performing operations related to complicated map selection, and can set the destination with a simple operation.

次に、図4及び図5に示す具体例を用いて入力装置2及びナビゲーション本体装置3の作用について説明する。   Next, operations of the input device 2 and the navigation main body device 3 will be described using specific examples shown in FIGS. 4 and 5.

図4は、入力装置2のカメラ部201が撮影する画像の選択範囲についての説明図である。   FIG. 4 is an explanatory diagram of a selection range of an image captured by the camera unit 201 of the input device 2.

図4に示すように、まず、利用者が、例えば、地図帳の地図500から目的地501を探し出す。そして、利用者は、入力装置2のカメラ部201を用いて、この地図500上における目的地501周辺の交差点名称、地域名称、施設名称、河川名称、橋の名称などの名称がいくつか入るようなエリアを選択して撮影する。   As shown in FIG. 4, first, the user searches for a destination 501 from a map 500 of a map book, for example. Then, the user uses the camera unit 201 of the input device 2 so that several names such as intersection names, area names, facility names, river names, and bridge names around the destination 501 on the map 500 are entered. Select the appropriate area and shoot.

図4に示した例では、利用者は、目的地周辺の施設名称502である“AB鉄工所”、施設名称503である“Mマート”、地域名称504である“西山手”、及び地域名称505である“山下”を含むように、撮影範囲506を決定する。   In the example shown in FIG. 4, the user has “AB ironworks” as the facility name 502 around the destination, “M Mart” as the facility name 503, “Nishiyamate” as the region name 504, and the region name. The shooting range 506 is determined so as to include “Yamashita”, which is 505.

そして、利用者が入力装置2の押釦操作することにより、制御スイッチ部203が画像取込要求信号を生成し、画像取込要求信号を受信したカメラ部201が撮影範囲506の画像を取り込む。   When the user operates the push button on the input device 2, the control switch unit 203 generates an image capture request signal, and the camera unit 201 that receives the image capture request signal captures an image in the shooting range 506.

そして、カメラ部201は、撮影範囲506の画像データを一時記憶部204へ供給し、入力側通信部205は、一時記憶部204が一時保存した画像データを読み出し、ナビゲーション本体装置3の本体側通信部302へ送信する。   Then, the camera unit 201 supplies the image data of the shooting range 506 to the temporary storage unit 204, and the input side communication unit 205 reads the image data temporarily stored in the temporary storage unit 204, and the main body side communication of the navigation main body device 3. To the unit 302.

ナビゲーション本体装置3の本体側通信部302は、入力装置2の入力側通信部205から撮影範囲506の画像データを受信すると、受信した画像データを文字データ抽出部303及び出力制御手段311へ送信する。   When the main body side communication unit 302 of the navigation main body device 3 receives the image data of the shooting range 506 from the input side communication unit 205 of the input device 2, the main body side communication unit 302 transmits the received image data to the character data extraction unit 303 and the output control means 311. .

そして、画像データを受信した文字データ抽出部303は、この画像データに含まれる文字データを抽出し、抽出した全ての文字データを名称検索部304へ送信する。   The character data extraction unit 303 that has received the image data extracts the character data included in the image data, and transmits all the extracted character data to the name search unit 304.

図4に示した例では、撮影範囲506の画像には、施設名称502である“AB鉄工所”、施設名称503である“Mマート”、地域名称504である“西山手”、及び地域名称505である“山下”の文字データが含まれているので、文字データ抽出部303は、これらの文字データを抽出し、名称検索部304へ送信する。   In the example shown in FIG. 4, the image of the shooting range 506 includes “AB Ironworks” as the facility name 502, “M Mart” as the facility name 503, “Nishiyamate” as the region name 504, and the region name. Since the character data “Yamashita” 505 is included, the character data extraction unit 303 extracts these character data and transmits them to the name search unit 304.

そして、抽出した文字データを受信した名称検索部304は、受信した全ての文字データ各々について、この文字データに対応する位置データを記憶部308から検索し、検索により取得した位置データを出力制御部311へ送信する。   Then, the name search unit 304 that has received the extracted character data searches the storage unit 308 for position data corresponding to the character data for each of the received character data, and outputs the position data acquired by the search to the output control unit. 311 is transmitted.

次に、出力制御部311は、受信した全ての位置データを含むように記憶部308に記憶されている地図データから地図上の表示範囲及び縮尺を決定し、決定した地図の表示範囲及び地図の縮尺に基づいて地図を読み出し、表示部313へ地図を表示させる。   Next, the output control unit 311 determines the display range and scale on the map from the map data stored in the storage unit 308 so as to include all received position data, and the determined map display range and map A map is read based on the scale, and the map is displayed on the display unit 313.

さらに、出力制御部311は、表示部313に利用者によって撮影された画像を表示させる。   Further, the output control unit 311 causes the display unit 313 to display an image captured by the user.

図5は、ナビゲーション本体装置3の表示部313に表示された表示画面の一例である。   FIG. 5 is an example of a display screen displayed on the display unit 313 of the navigation main body device 3.

図5に示すように、表示部313の表示画面601に、出力制御部311が決定した地図の表示範囲及び地図の縮尺に基づいて生成した地図が表示されている。さらに、子画面602には、撮影範囲506の画像が表示されている。   As shown in FIG. 5, a map generated based on the map display range and map scale determined by the output control unit 311 is displayed on the display screen 601 of the display unit 313. Further, an image of the shooting range 506 is displayed on the sub-screen 602.

そして、表示部313が表示した表示画面601上から利用者が目的地501を選択することによって、目的地が設定される。   Then, when the user selects the destination 501 from the display screen 601 displayed by the display unit 313, the destination is set.

このように、本実施形態におけるナビゲーション装置1によれば、撮影された地図を基に目的地を含む地図を読み出して表示部313の表示画面601に表示し、撮影された地図の画像を子画面602に表示するので、利用者は、これらを見比べながら、目的地501を探すことができる。   As described above, according to the navigation device 1 of the present embodiment, a map including a destination is read out based on the photographed map and displayed on the display screen 601 of the display unit 313, and the photographed map image is displayed on the child screen. Since the information is displayed in 602, the user can search for the destination 501 while comparing these.

そのため、利用者は複雑な地図選択に関わる操作を伴うことなく、容易に所望の地図に辿り着くことができ、簡易な操作で目的地設定を行うことが出来る。   Therefore, the user can easily reach the desired map without performing operations related to complicated map selection, and can set the destination with a simple operation.

また、例えば、利用者がMマートを目的地の目当ての一つとした場合であってこのMマートが全国に多く存在するチェーンストアである場合においては、本実施形態におけるナビゲーション装置1よる目的地設定方法によれば、目的地付近に存在するAB鉄工所や山下といった地名をAND条件として検索するため、多数のMマートの中から利用者の意図する店舗を容易に絞り込むことができる。   Further, for example, when the user uses the M mart as one of the destinations of the destination and the M mart is a chain store that exists in many places throughout the country, the destination setting by the navigation device 1 in the present embodiment is performed. According to the method, place names such as AB ironworks and Yamashita existing in the vicinity of the destination are searched as AND conditions, so that the store intended by the user can be easily narrowed down from a large number of M-marts.

さらに、第1の実施形態であるナビゲーション装置1によれば、撮影された地図から文字データを抽出して、抽出した文字データを基に目的地を含む地図を抽出するので、例えば、広告等に用いられるデフォルメされた地図を用いて目的地を含む地図を抽出することもできる。   Furthermore, according to the navigation device 1 of the first embodiment, character data is extracted from the photographed map, and a map including the destination is extracted based on the extracted character data. It is also possible to extract a map including the destination using the deformed map used.

図6は、入力装置2のカメラ部201が撮影する地図がデフォルメされた地図(例えば、広告紙や看板)である場合における画像の選択範囲についての説明図である。   FIG. 6 is an explanatory diagram of an image selection range when the map taken by the camera unit 201 of the input device 2 is a deformed map (for example, advertising paper or a signboard).

図6に示すように、まず、利用者は、入力装置2のカメラ部201を用いて、このデフォルメされた地図700上において目的地701周辺の交差点名称、地域名称、施設名称、河川名称、又は橋の名称などの名称がいくつか入るようなエリアを選択して撮影する。   As shown in FIG. 6, first, the user uses the camera unit 201 of the input device 2 on the deformed map 700 on the intersection name, area name, facility name, river name around the destination 701, or Select an area where several names such as the name of the bridge can be entered.

図6に示した例では、利用者は、目的地周辺の施設名称702である“AB鉄工所”、施設名称703である“Mマート”、地域名称704である“西山手”、及び地域名称705である“山下”を含むように、撮影範囲706を決定する。   In the example shown in FIG. 6, the user has “AB ironworks” as the facility name 702 around the destination, “M Mart” as the facility name 703, “Nishiyamate” as the region name 704, and the region name. The imaging range 706 is determined so as to include “Yamashita”, which is 705.

そして、撮影範囲706を撮影できるように利用者が入力装置2の押釦操作することにより、制御スイッチ部203が画像取込要求信号を生成し、画像取込要求信号を受信したカメラ部201が撮影範囲706の画像を取り込む。   Then, when the user operates the push button of the input device 2 so that the photographing range 706 can be photographed, the control switch unit 203 generates an image capture request signal, and the camera unit 201 that has received the image capture request signal captures the image. An image in the range 706 is captured.

そして、カメラ部201は、撮影した撮影範囲706の画像データを一時記憶部204へ一時保存し、入力側通信部205は、一時記憶部204に一時保存された画像データをナビゲーション本体装置3の本体側通信部302へ送信する。   The camera unit 201 temporarily saves the image data of the shooting range 706 taken in the temporary storage unit 204, and the input-side communication unit 205 stores the image data temporarily saved in the temporary storage unit 204 in the main body of the navigation main body 3. To the side communication unit 302.

ナビゲーション本体装置3の本体側通信部302は、入力装置2の入力側通信部205から撮影範囲706の画像データを受信すると、受信した画像データを文字データ抽出部303へ送信する。   When the main body side communication unit 302 of the navigation main body device 3 receives the image data of the shooting range 706 from the input side communication unit 205 of the input device 2, the main body side communication unit 302 transmits the received image data to the character data extraction unit 303.

そして、画像データを受信した文字データ抽出部303は、撮影範囲706の画像の中から施設名称702である“AB鉄工所”、施設名称703である“Mマート”、地域名称704である“西山手”、及び地域名称705である“山下”の文字データを抽出し、抽出したこれら全ての文字データを名称検索部304へ送信する。   Upon receiving the image data, the character data extraction unit 303 receives “AB Ironworks” as the facility name 702, “M Mart” as the facility name 703, and “West” as the area name 704 from the image in the shooting range 706. Character data of “Yamate” and “Yamashita” which is the area name 705 are extracted, and all the extracted character data is transmitted to the name search unit 304.

そして、抽出した文字データを受信した名称検索部304は、受信した全ての文字データ各々について、この文字データに対応する位置データを記憶部308から検索し、検索により取得した位置データを出力制御部311へ送信する。   Then, the name search unit 304 that has received the extracted character data searches the storage unit 308 for position data corresponding to the character data for each of the received character data, and outputs the position data acquired by the search to the output control unit. 311 is transmitted.

そして、出力制御部311は、受信した全ての位置データを含むように記憶部308に記憶されている地図データから地図上の表示範囲及び縮尺を決定し、決定した地図の表示範囲及び地図の縮尺に基づいて地図を読み出し、表示部313へ地図を表示させる。   Then, the output control unit 311 determines the display range and scale on the map from the map data stored in the storage unit 308 so as to include all received position data, and the determined map display range and map scale. The map is read based on the above and the map is displayed on the display unit 313.

さらに、出力制御部311は、表示部313に子画面802に、利用者によって撮影されたデフォルメされた地図の画像を表示させる。   Further, the output control unit 311 causes the display unit 313 to display a deformed map image photographed by the user on the child screen 802.

図7は、ナビゲーション本体装置3の表示部313に表示された表示画面の一例である。   FIG. 7 is an example of a display screen displayed on the display unit 313 of the navigation main body device 3.

図7に示すように、表示部313の表示画面701に、出力制御部311が決定した地図の表示範囲及び地図の縮尺に基づいて生成した地図が表示されている。さらに、表示部313の子画面802には、撮影範囲706のデフォルメされた地図の画像が表示されている。   As shown in FIG. 7, a map generated based on the map display range and map scale determined by the output control unit 311 is displayed on the display screen 701 of the display unit 313. Further, a deformed map image of the shooting range 706 is displayed on the sub-screen 802 of the display unit 313.

そして、利用者が表示部313の表示画面801上から目的地701を選択することによって、目的地が設定される。   Then, when the user selects the destination 701 from the display screen 801 of the display unit 313, the destination is set.

このように、第1の実施形態である実施形態ナビゲーション装置1によれば、撮影された地図から文字データを抽出して、抽出した文字データを基に目的地を含む地図を読み出すので、例えば、広告等に用いられるデフォルメされた地図を用いて目的地を含む地図を読み出し、目的地設定を行うこともできる。   As described above, according to the embodiment navigation apparatus 1 which is the first embodiment, character data is extracted from a photographed map, and a map including a destination is read based on the extracted character data. It is also possible to read out a map including a destination by using a deformed map used for advertisement or the like and set the destination.

これにより、撮影された地図を基に目的地を含む地図を読み出して表示部313に表示し、デフォルメされた地図の画像を子画面に表示するので、利用者は、これらを見比べながら、目的地を探すことができる。   As a result, a map including the destination is read out based on the photographed map and displayed on the display unit 313, and an image of the deformed map is displayed on the sub screen. Can be searched.

そのため、利用者は複雑な操作を伴うことなく、容易に所望の地図に辿り着くことができ、簡易な操作で目的地設定を行うことが出来る。   Therefore, the user can easily reach the desired map without complicated operations, and can set the destination with a simple operation.

≪第2の実施形態≫
図8は、本発明の第2の実施形態であるナビゲーション装置1aの構成を示した構成図である。
<< Second Embodiment >>
FIG. 8 is a configuration diagram showing the configuration of the navigation device 1a according to the second embodiment of the present invention.

第1の実施形態のナビゲーション本体装置3は、入力装置2より画像データを受信する本体側通信部302を備える構成としたが、画像データの送信元は必ずしも入力装置2に限らない。   Although the navigation main body device 3 of the first embodiment includes the main body side communication unit 302 that receives image data from the input device 2, the transmission source of the image data is not necessarily limited to the input device 2.

例えば、図8に示すように、ナビゲーション本体装置3aは、カメラ機能付きの携帯電話等の外部通信端末5からネットワーク6を介して画像データを受信する本体側通信部302aを備える構成としてもよい。   For example, as shown in FIG. 8, the navigation main body device 3 a may include a main body side communication unit 302 a that receives image data from the external communication terminal 5 such as a mobile phone with a camera function via the network 6.

例えば、外部通信端末5は撮影した画像を電子メールに添付してネットワーク6を介してナビゲーション装置1aへ送信する。   For example, the external communication terminal 5 attaches the captured image to an e-mail and transmits it to the navigation device 1a via the network 6.

そして、ネットワーク6を介して電子メールを受信したナビゲーション装置1aの本体側通信部302aは、電子メールに添付された画像データを取り込み、取り込んだ画像データを文字データ抽出部303へ送信する。   Then, the main body side communication unit 302 a of the navigation device 1 a that has received the e-mail via the network 6 takes in the image data attached to the e-mail and transmits the taken-in image data to the character data extraction unit 303.

以降の処理は、第1の実施形態であるナビゲーション装置1の処理と同様であるので、説明を省略する。   Since the subsequent processing is the same as the processing of the navigation device 1 according to the first embodiment, the description thereof is omitted.

このように、カメラ機能付きの携帯電話等の外部通信端末5からネットワーク6を介して画像データを受信し、受信した画像データを用いて目的地設定を行うことにより、汎用の外部通信端末5を入力装置として用いることができ、より装置構成を簡素化でき、製造コストの低減を図ることができる。   In this way, by receiving image data from the external communication terminal 5 such as a mobile phone with a camera function via the network 6 and performing destination setting using the received image data, the general-purpose external communication terminal 5 is It can be used as an input device, the device configuration can be further simplified, and the manufacturing cost can be reduced.

本発明に係るナビゲーション装置の一実施形態を示したブロック図である。It is the block diagram which showed one Embodiment of the navigation apparatus which concerns on this invention. 第1の実施形態であるナビゲーション装置1の入力装置2における処理手順を示すフォローチャートである。It is a follow chart which shows the process sequence in the input device 2 of the navigation apparatus 1 which is 1st Embodiment. 第1の実施形態におけるナビゲーション本体装置3における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the navigation main body apparatus 3 in 1st Embodiment. 入力装置のカメラ部が撮影する画像の選択範囲についての説明図である。It is explanatory drawing about the selection range of the image which the camera part of an input device image | photographs. ナビゲーション本体装置の表示部に表示された表示画面の一例である。It is an example of the display screen displayed on the display part of the navigation main body apparatus. 入力装置のカメラ部が撮影する地図がデフォルメされた地図であった場合における画像の選択範囲についての説明図である。It is explanatory drawing about the selection range of an image in case the map which the camera part of an input device image | photographs is a deformed map. ナビゲーション本体装置の表示部に表示された表示画面の一例である。It is an example of the display screen displayed on the display part of the navigation main body apparatus. 第2の実施形態であるナビゲーション装置の構成を示した構成図である。It is the block diagram which showed the structure of the navigation apparatus which is 2nd Embodiment.

符号の説明Explanation of symbols

1,1a…ナビゲーション装置
2…入力装置
3,3a…ナビゲーション本体装置
4…車両センサ
5…外部通信端末
6…ネットワーク
201…カメラ部
202…表示部
203…制御スイッチ部
204…一時記憶部
205…入力側通信部
301…現在地検出部
302,302a…本体側通信部
303…文字データ抽出部
304…名称検索部
305…ポインティング部
306…目的地登録部
308…記憶部(地図情報記憶手段)
309…経路検索部
310…案内発生部
311…出力制御部
312…音声出力部
313…表示部
401…車速センサ
402…方位センサ
403…ジャイロセンサ
404…GPSセンサ
DESCRIPTION OF SYMBOLS 1, 1a ... Navigation apparatus 2 ... Input apparatus 3, 3a ... Navigation main body apparatus 4 ... Vehicle sensor 5 ... External communication terminal 6 ... Network 201 ... Camera part 202 ... Display part 203 ... Control switch part 204 ... Temporary storage part 205 ... Input Side communication unit 301 ... Current location detection unit 302, 302a ... Main body side communication unit 303 ... Character data extraction unit 304 ... Name search unit 305 ... Pointing unit 306 ... Destination registration unit 308 ... Storage unit (map information storage means)
309 ... Route search unit 310 ... Guidance generating unit 311 ... Output control unit 312 ... Audio output unit 313 ... Display unit 401 ... Vehicle speed sensor 402 ... Direction sensor 403 ... Gyro sensor 404 ... GPS sensor

Claims (4)

地図データに基づいて表示手段に地図を表示させると共に、この表示された地図中から選択された地点を目的地として設定し、現在地から前記目的地までの自車両の経路案内を行うナビゲーション装置であって、
前記地図データと、この地図データにおける複数の地点の名称データと、各名称データに対応する位置データとを関連付けて記憶する地図情報記憶手段と、
地図に関する画像データを受信する画像受信手段と、
前記画像受信手段により受信された画像データから文字データを抽出する文字データ抽出手段と、
前記文字データ抽出手段により抽出された文字データと前記地図情報記憶手段に記憶された名称データとを照合し、一致した場合の名称データに対応する位置データを前記地図情報記憶手段から読み出す名称検索手段と、
前記名称検索手段により読み出された位置データを含む地図データを前記地図情報記憶手段から読み出し、この読み出した地図データに基づいて地図を前記表示手段に表示させる出力制御手段と
を備えることを特徴とするナビゲーション装置。
A navigation device that displays a map on display means based on map data, sets a point selected from the displayed map as a destination, and guides the route of the host vehicle from the current location to the destination. And
Map information storage means for storing the map data, name data of a plurality of points in the map data, and position data corresponding to each name data;
Image receiving means for receiving image data relating to the map;
Character data extracting means for extracting character data from the image data received by the image receiving means;
Name search means for collating the character data extracted by the character data extraction means with the name data stored in the map information storage means and reading out the position data corresponding to the name data in the case of matching from the map information storage means When,
Output control means for reading map data including the position data read by the name search means from the map information storage means and displaying the map on the display means based on the read map data. Navigation device.
前記出力制御手段は、
前記読み出された地図データに基づいて表示される地図の表示範囲及び縮尺を決定し、これら決定した表示範囲及び縮尺に基づいて前記地図を前記表示手段に表示させると共に、この表示された地図上に前記画像受信手段により受信した画像データに基づく画像を子画面として重ね合わせて表示させる
ことを特徴とする請求項1に記載のナビゲーション装置。
The output control means includes
A display range and a scale of a map to be displayed are determined based on the read map data, and the map is displayed on the display unit based on the determined display range and scale, and the displayed map is displayed on the displayed map. The navigation apparatus according to claim 1, wherein an image based on the image data received by the image receiving unit is superimposed and displayed as a child screen.
地図データと、この地図データにおける複数の地点の名称データと、各名称データに対応する位置データとを関連付けて記憶する地図情報記憶手段を備え、前記地図データに基づいて表示手段に地図を表示させると共に、この表示された地図中から選択された地点を目的地として設定し、現在地から前記目的地までの自車両の経路案内を行うナビゲーション装置に適用される目的地設定方法であって、
地図に関する画像データを受信する画像受信ステップと、
前記画像受信ステップにより受信された画像データから文字データを抽出する文字データ抽出ステップと、
前記文字データ抽出ステップにより抽出された文字データと前記地図情報記憶手段に記憶された名称データとを照合し、一致した場合の名称データに対応する位置データを前記地図情報記憶手段から読み出す名称検索ステップと、
前記名称検索ステップにより読み出された位置データを含む地図データを前記地図情報記憶手段から読み出し、この読み出した地図データに基づいて地図を前記表示手段に表示させる出力制御ステップと
を有することを特徴とする目的地設定方法。
Map information storage means for associating and storing map data, name data of a plurality of points in the map data, and position data corresponding to each name data, and causing the display means to display a map based on the map data A destination setting method applied to a navigation device that sets a point selected from the displayed map as a destination and performs route guidance of the host vehicle from the current location to the destination,
An image receiving step for receiving image data relating to the map;
Character data extraction step for extracting character data from the image data received by the image reception step;
A name search step of collating the character data extracted in the character data extraction step with the name data stored in the map information storage means, and reading out the position data corresponding to the name data when they match from the map information storage means When,
An output control step of reading out map data including the position data read out in the name search step from the map information storage unit, and causing the display unit to display a map based on the read-out map data. Destination setting method.
前記出力制御ステップは、
前記読み出された地図データに基づいて表示される地図の表示範囲及び縮尺を決定し、これら決定した表示範囲及び縮尺に基づいて前記地図を前記表示手段に表示させると共に、この表示された地図上に前記画像受信ステップにより受信した画像データに基づく画像を子画面として重ね合わせて表示させる
ことを特徴とする請求項3に記載の目的地設定方法。
The output control step includes
A display range and a scale of a map to be displayed are determined based on the read map data, and the map is displayed on the display unit based on the determined display range and scale, and the displayed map is displayed on the displayed map. 4. The destination setting method according to claim 3, wherein an image based on the image data received in the image receiving step is superimposed and displayed as a sub-screen.
JP2007024144A 2007-02-02 2007-02-02 Navigation device and destination setting method Pending JP2008190941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007024144A JP2008190941A (en) 2007-02-02 2007-02-02 Navigation device and destination setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007024144A JP2008190941A (en) 2007-02-02 2007-02-02 Navigation device and destination setting method

Publications (1)

Publication Number Publication Date
JP2008190941A true JP2008190941A (en) 2008-08-21

Family

ID=39751188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007024144A Pending JP2008190941A (en) 2007-02-02 2007-02-02 Navigation device and destination setting method

Country Status (1)

Country Link
JP (1) JP2008190941A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2584515A4 (en) * 2010-06-15 2017-05-17 Navitime Japan Co., Ltd. Navigation system, terminal apparatus, navigation server, navigation apparatus, navigation method, and program
JP2019215695A (en) * 2018-06-13 2019-12-19 富士ゼロックス株式会社 Image processing device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2584515A4 (en) * 2010-06-15 2017-05-17 Navitime Japan Co., Ltd. Navigation system, terminal apparatus, navigation server, navigation apparatus, navigation method, and program
JP2019215695A (en) * 2018-06-13 2019-12-19 富士ゼロックス株式会社 Image processing device and program

Similar Documents

Publication Publication Date Title
US10378913B2 (en) Navigation apparatus and navigation method
EP2317281B1 (en) User terminal for providing position and for guiding route thereof
US8374779B2 (en) Navigation device and image management method
JP4994028B2 (en) Gasoline price information collection system, gasoline price information collection method, and navigation apparatus
US20110013014A1 (en) Methods and arrangements for ascertaining a target position
US8315438B2 (en) Displaying images related to a selected target point on an electronic map based on azimuth and view angle information
JP2011094992A (en) Navigation device, navigation method and navigation program
JP2009049476A (en) Photography support information presentation device
JPWO2004081496A1 (en) Navigation device, navigation system, navigation method and program
JP6165422B2 (en) Information processing system, information processing device, server, terminal device, information processing method, and program
JP2006125871A (en) Navigation apparatus
JP2008070557A (en) Landmark display method, navigation device, on-vehicle equipment, and navigation system
JP2009124254A (en) Photographing device
JP2008190941A (en) Navigation device and destination setting method
JP2002228477A (en) Navigation apparatus and navigation system
JP2005140636A (en) Navigation system, method and program
JP2008249428A (en) Navigator and its control method
JP2006047147A (en) Information providing system
JP4026569B2 (en) Map display controller
JP2006064671A (en) Information-providing device and portable information terminal
JP2014063300A (en) Character recognition device, character recognition processing method, and program
JP5640794B2 (en) Navigation device, navigation method, and program
WO2003062917A1 (en) Apparatus and method for printing additional information relevant to image in a photograph
JP5775699B2 (en) Navigation device
JP4483454B2 (en) Car navigation system