JP2011154041A - Navigation system - Google Patents
Navigation system Download PDFInfo
- Publication number
- JP2011154041A JP2011154041A JP2011087394A JP2011087394A JP2011154041A JP 2011154041 A JP2011154041 A JP 2011154041A JP 2011087394 A JP2011087394 A JP 2011087394A JP 2011087394 A JP2011087394 A JP 2011087394A JP 2011154041 A JP2011154041 A JP 2011154041A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- current position
- target position
- landscape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
Description
本発明は、目的位置に向かって経路案内を行うナビゲーション装置に関する。 The present invention relates to a navigation device that provides route guidance toward a target position.
従来の車両用のナビゲーション装置は、現在位置、現在位置の周囲の地理、案内経路が記された地図をモニタに表示して、目的位置に向かって経路案内を行うものである。
このナビゲーション装置では、目的位置に近づくと、上述した現在位置等に加えて目的位置が記された地図がモニタに表示される。
A conventional vehicle navigation apparatus displays a map on which a current position, a geography around the current position, and a guide route are recorded, and performs route guidance toward a target position.
In this navigation device, when approaching the target position, a map in which the target position is written in addition to the above-described current position is displayed on the monitor.
そのため運転者は、このナビゲーション装置のモニタに目的位置が表示されることにより、目的位置が近づいたことを認識する。 Therefore, the driver recognizes that the target position is approaching by displaying the target position on the monitor of the navigation device.
すると、運転者は、地図に示された目的位置に対応する風景(例えば、ビル等の建物を目的地に選んだ場合は、これらの建物、公園などの場所を目的地に選んだ場合は、これらの場所等)を、運転者が現在見ている風景の中から探し出そうとする。 Then, the driver can choose a landscape corresponding to the destination shown on the map (for example, if a building such as a building is selected as the destination, if a location such as a building or park is selected as the destination, These places are searched for in the scenery that the driver is currently viewing.
しかし、地図に記された目的位置に対応する風景が、運転者が現在見ている風景の中でどこに位置するのかが、運転者にはすぐには分からないことが多い。
そのため運転者は、地図に示され、かつ、運転者が現在見ている風景の中から把握できた目標物との位置関係で目的位置にある風景を把握することが多い。
However, the driver often does not immediately know where the scenery corresponding to the target position on the map is located in the scenery that the driver is currently viewing.
For this reason, the driver often grasps the landscape at the target position based on the positional relationship with the target that is shown on the map and can be grasped from the landscape that the driver is currently viewing.
例えば、運転者が、目的位置に立っているビルから3件隣のビルを、目標物として地図でも実際の風景の中でも把握できた場合、運転者はまず、目的位置に立っているビルが、目標物となるビルから何件隣にあるかを地図で把握する。 For example, if the driver can grasp the next three buildings from the building at the target position in the map or the actual scenery as the target, the driver first determines the building at the target position. Use a map to see how many places are next to the target building.
そして運転者は、運転者が現在見ている風景の中で、目標物となるビルからビルの数を数え、目的位置に立っているビルを把握する。 Then, the driver counts the number of buildings from the target building in the scenery the driver is currently viewing, and grasps the building standing at the target position.
このように、従来の車両用のナビゲーション装置は、地図に示された目的位置に対応する風景が、運転者が現在見ている風景の中でどこに位置するかを運転者に把握させようとした場合、地図と風景とを照らし合わせる作業を運転者に行わせる必要があった。 As described above, the conventional vehicle navigation apparatus tries to make the driver know where the scenery corresponding to the target position shown on the map is located in the scenery that the driver is currently viewing. In this case, it was necessary to let the driver perform the work of comparing the map and the landscape.
しかし、地図と風景とを照らし合わせる作業は煩雑な作業である。そのため、この作業を運転中の運転者に行わせると、本来運転に向けるべき運転者の注意力を削ぐおそれがある。 However, the task of comparing the map with the landscape is a complicated task. Therefore, if this operation is performed by a driving driver, the driver's attention that should be directed to driving may be reduced.
そこで、例えば、特許文献1のナビゲーション装置は、目的位置に対応する風景を含む風景を予め撮影した画像を記憶しておき、経路案内をしているときに目的位置に近づいたら、その画像をモニタに表示することによって経路案内を行っている。
Therefore, for example, the navigation device of
地図では目的位置に対応する風景の周辺の実態(建物の色合いや、形状等)を表すことは困難だが、風景を撮影した画像には、目的位置に対応する風景の周辺の実態も表されるので、このナビゲーション装置は、従来のナビゲーション装置に比べ、運転者にとって視覚的に分かりやすい経路案内を行うことができる。 Although it is difficult to represent the actual surroundings of the landscape corresponding to the target position (such as the hue or shape of the building) on the map, the actual image of the surroundings of the landscape corresponding to the target position is also displayed in the image of the landscape. Therefore, this navigation device can perform route guidance that is visually understandable to the driver as compared with the conventional navigation device.
しかし、予め撮影した風景と運転者が現在見ている風景とでは、建物の立て替え、撮影時期(時分や季節)の違い、撮影ポイントの高さや位置、撮影方向の違いなどから、複数の相違点が生じることが多い。 However, there are a number of differences between the pre-captured landscape and the landscape that the driver is currently viewing, due to changes in buildings, differences in shooting time (hours, minutes, season), height and position of shooting points, and differences in shooting direction. Dots often occur.
この相違点が多いと、同じ風景を写しても、まったく異なる風景に見えることさえある。 If there are many differences, even if the same landscape is photographed, it may even look completely different.
そのため、運転者は、予め撮影した風景の画像を用いた経路案内を受けても、その予め撮影した風景が、運転者が現在見ている風景に合致するのか確認する作業が必要となる場合がある。 Therefore, even if the driver receives route guidance using a pre-captured landscape image, it may be necessary to check whether the pre-captured landscape matches the landscape that the driver is currently viewing. is there.
この作業は、地図と風景とを照らし合わせる作業とは異なる作業であるが、いわゆる間違い探しをするような作業であり、性質は異なっても、地図と風景とを照らし合わせる作業と同様に煩雑な作業であった。 This task is different from the task of comparing the map and the landscape, but it is a task of finding what is called a mistake. Even if the nature is different, it is as complicated as the task of comparing the map and the landscape. It was work.
ゆえに、予め撮影した風景を用いて経路案内を行うナビゲーション装置も、地図を用いて経路案内を行うナビゲーション装置と同様に、本来運転に向けるべき運転者の注意力を削ぐおそれがあった。 Therefore, a navigation device that performs route guidance using a pre-captured landscape has a risk of reducing the driver's attention that should be directed to driving, like a navigation device that performs route guidance using a map.
本発明は、上記点に鑑み、本来運転に向けるべき運転者の注意力を削ぐことなく経路案内を行うことを目的とする。 In view of the above points, an object of the present invention is to provide route guidance without reducing the driver's attention that should be directed to driving.
上記目的を達成するため、請求項1記載の発明では、現在位置から撮影方向にカメラで撮影している撮影画像について、この撮影画像に写されている風景の中で、建物が写されている位置である目的風景位置を特定している。 In order to achieve the above object, according to the first aspect of the present invention, a building is photographed in the landscape photographed in the photographed image taken by the camera in the photographing direction from the current position. The target landscape position that is the position is specified.
そして、この請求項1に記載の発明では、この目的風景位置が目的位置である建物の位置であることを示す画像を、道路の上方に合成する画像処理を撮影画像に対して行って、その処理後の撮影画像をモニタに表示している。 In the first aspect of the present invention, image processing is performed on the photographed image to synthesize an image indicating that the target landscape position is the position of the building, which is the target position, above the road. The captured image after processing is displayed on the monitor.
これにより、この請求項1に記載の発明では、運転者が現在見ている風景の中に目的位置が示された画像がモニタに表示されるので、この画像により、運転者が現在見ている風景の中で目的位置に対応する風景(例えば、上述したようなビルや交差点)がどこに位置するのかを運転者に瞬時に把握させることができる。
Thus, in the invention described in
従って、この請求項1に記載の発明では、本来運転に向けるべき運転者の注意力を削ぐことなく経路案内を行うことができる。 Therefore, according to the first aspect of the present invention, route guidance can be performed without reducing the driver's attention that should be directed to driving.
また、この請求項1に記載の発明では、現在撮影している風景の画像をリアルタイムにモニタに表示して経路案内を行っているので、初めて行く場所でも経路案内を行うことができる。 In the first aspect of the present invention, since the route image is displayed by displaying an image of the currently photographed landscape on the monitor in real time, the route guidance can be performed even at the first place to go.
さらに、この請求項1に記載の発明では、風景を撮影した画像を用いて経路案内を行っているので、運転者にとって視覚的に分かりやすい経路案内を行うことができる。 Furthermore, in the first aspect of the invention, route guidance is performed using an image obtained by photographing a landscape, so that it is possible for the driver to provide route guidance that is visually understandable.
次に、請求項2に記載の発明では、目的風景位置を指し示す指示画像を撮影画像に合成することによって、撮影画像上で目的位置に対応する風景がこの指示画像により指し示される。 According to the second aspect of the present invention, the instruction image indicating the target landscape position is combined with the photographed image, whereby the scenery corresponding to the target position on the photographed image is indicated by the instruction image.
これにより、この請求項2に記載の発明では、目的位置に対応する風景が指示画像により撮影画像上で運転者に対し分かりやすく示されるので、運転者は、目的位置に対応する風景を、実際の風景の中からでも簡単に探し当てることができる。
Thus, in the invention according to
尚、この指示画像は、目的表示位置を指し示す画像であればどのようなものでもよく、例えば、矢印や、指差しを行っている手首の画像などでもよい。 The instruction image may be any image as long as it indicates the target display position, and may be, for example, an arrow or an image of a wrist that is pointing.
次に、請求項3に記載の発明では、撮影画像に写されている風景の中で、目的位置に対応する風景に隣接する道路が写されている位置である道路位置を特定し、この道路位置の上方に指示画像を合成している。 Next, in the invention according to claim 3, a road position that is a position where a road adjacent to the scenery corresponding to the target position is photographed in the scenery photographed in the photographed image is specified, and this road The instruction image is synthesized above the position.
これにより、この請求項3に記載の発明では、建物等の他の風景がない空間である道路の上方に指示画像が合成されるので、撮影画像に写されている風景を損なうことなく、指示画像が撮影画像上に合成される。 Thus, in the invention according to claim 3, since the instruction image is synthesized above the road that is a space without other scenery such as a building, the instruction is displayed without damaging the scenery shown in the photographed image. The image is synthesized on the captured image.
従って、この請求項3に記載の発明では、運転者が、この指示画像が合成された撮影画像に写されている風景と運転者が現在見ている風景とを容易に比較できるので、モニタに表示された撮影画像を見れば、運転者は、運転者が現在見ている風景の中にある目的位置に対応する風景を非常に簡単に見つけ出すことができる。 Therefore, in the invention according to the third aspect, the driver can easily compare the scenery shown in the photographed image obtained by combining the instruction images with the scenery that the driver is currently viewing. By looking at the displayed captured image, the driver can very easily find a landscape corresponding to the target position in the landscape that the driver is currently viewing.
次に、請求項4に記載の発明では、目的位置に対応する風景をカメラが現在位置から撮影可能か否かを判定し、撮影不能であると判定された場合、目的風景位置の上方に指示画像を合成している。 Next, in the invention according to claim 4, it is determined whether or not the camera can shoot a landscape corresponding to the target position from the current position, and if it is determined that shooting is not possible, an instruction is given above the target landscape position. The image is synthesized.
これにより、この請求項4に記載の発明では、目的位置に対応する風景が現在位置から撮影不能である場合、指示画像が目的風景位置の上方に合成されるので、運転者は、指示画像が合成される位置を見れば、目的位置に対応する風景が現在位置から撮影不能な場所、すなわち運転者からは見えない場所にあるか否かを直ちに把握することができる。 Thus, in the invention according to claim 4, when the landscape corresponding to the target position cannot be photographed from the current position, the instruction image is synthesized above the target landscape position. By looking at the combined position, it is possible to immediately grasp whether or not the landscape corresponding to the target position is in a place where the current position cannot be photographed, that is, a place where the driver cannot see it.
また、この請求項4に記載の発明では、目的位置に対応する風景が現在位置から撮影不能である場合であっても、指示画像が目的風景位置の上方に合成されるので、運転者は、目的位置のあるおおよその方向を、認識することができる。 Further, in the invention according to claim 4, even when the landscape corresponding to the target position cannot be photographed from the current position, the instruction image is synthesized above the target landscape position. The approximate direction with the target position can be recognized.
尚、目的位置にあるものをカメラが現在位置から撮影できない場合とは、例えば、目的位置と現在位置との間に高いビルがある場合などである。 Note that the case where the camera cannot capture the object at the target position from the current position is, for example, a case where there is a high building between the target position and the current position.
次に、請求項5に記載の発明では、現在位置が目的位置に近づくにつれて指示画像が大きくなるように、現在位置から目的位置までの距離に応じた指示画像の大きさを設定し、その設定された大きさの指示画像を撮影画像に対し合成している。 Next, in the invention described in claim 5, the size of the instruction image is set according to the distance from the current position to the target position so that the instruction image becomes larger as the current position approaches the target position, and the setting is performed. The instruction image having the specified size is synthesized with the photographed image.
これにより、請求項5に記載された発明では、目的位置に近づくほど指示画像が撮影画像中に大きく表示されるので、目的位置が近づいていることを距離感の悪い運転者にも確実に把握させることができる。 Thus, in the invention described in claim 5, since the instruction image is displayed larger in the captured image as it approaches the target position, the driver having a poor sense of distance can reliably grasp that the target position is approaching. Can be made.
ところで、地図による経路案内を行う現在のナビゲーション装置は、最終目的位置近くまで到達した時点で経路案内を止めてしまうものが多い。 By the way, many of the current navigation devices that perform route guidance using a map stop the route guidance when reaching a position near the final destination.
これは、最終目的位置近傍に到達したときには、細かい運転操作が必要となることが多く、そのようなときに、モニタに表示された地図と風景とを見比べさせる煩雑な作業を行わせると不都合があるという理由によるものである。 This often requires a fine driving operation when the vicinity of the final destination position is reached. In such a case, it is inconvenient if a complicated operation for comparing the map displayed on the monitor with the landscape is performed. It is because there is.
しかし、ナビゲーション装置が経路案内を終了した段階では、運転者が現在見ている風景の中のどこに目的位置に対応する風景があるのか具体的に認識していないこともあり、運転者は目的位置を通り越してしまうことがあった。 However, at the stage when the navigation device finishes route guidance, the driver may not be aware of where the scenery corresponding to the target position is in the scenery currently being viewed by the driver. Sometimes passed.
一方、例えば、最終目的位置から遠い位置を車両が走行している場合、運転者は、地名やインター名等で自分達がどこを通過したのかを地図で確認できる経路案内を受ければ、経路案内としては十分であると感じることが多い。 On the other hand, for example, when a vehicle is traveling far from the final destination position, drivers can receive route guidance that allows them to check on the map where they have passed by location name or inter name. I often feel that is enough.
このように、地図による経路案内の方が、撮影画像による経路案内よりも好ましい場合もある。 In this way, route guidance using a map may be preferable to route guidance using a captured image.
そこで、請求項6に記載した発明では、現在位置と現在位置の周囲の地理と案内経路とが示された地図の画像をモニタに表示して経路案内を行うとともに、現在位置が目的位置に近づいたか否かを判定し、現在位置が目的位置に近づいたと判定された場合、モニタに表示する画像を、地図による経路案内を行うための画像から、カメラで撮影している撮影画像による経路案内を行うための画像に切り換えている。 Therefore, in the invention described in claim 6, the current position, the map around the current position, and the map image showing the guide route are displayed on the monitor for route guidance, and the current position approaches the target position. If it is determined that the current position is close to the target position, the image displayed on the monitor is routed from the image for route guidance using the map, and the route guidance is based on the captured image captured by the camera. Switching to an image to do.
これにより、請求項6に記載の発明では、現在位置が目的位置から遠いときは地図による経路案内が行われ、現在位置が目的位置から近いときはカメラで撮影した撮影画像を用いた経路案内が行われるので、目的位置までの遠近に合わせて、最適な経路案内を行うことができる。 Accordingly, in the invention described in claim 6, when the current position is far from the target position, the route guidance is performed by the map, and when the current position is near the target position, the route guidance using the photographed image taken by the camera is performed. Since it is performed, optimal route guidance can be performed according to the distance to the target position.
尚、目的位置に近づいたか否かは、請求項7に記載したように、現在位置と目的位置との距離が予め定められた一定距離内になったら目的位置に近づいたと判定してもよいし、請求項8に記載したように、現在位置から目的位置までを結ぶ道路が直線となったら、目的位置に近づいたと判定してもよい。
Whether or not the vehicle has approached the target position may be determined as described in claim 7 when the distance between the current position and the target position falls within a predetermined distance. As described in
以下では、発明を実施するための最良の形態であるカーナビゲーション装置について説明する。 Hereinafter, a car navigation device that is the best mode for carrying out the invention will be described.
ここで、図1は、本実施形態のカーナビゲーション装置の内部構成を示すブロック図である。
[内部構成]
本実施形態のカーナビゲーション装置1は、図1に示すように、中央制御装置10と、カメラ12と、モニタ14と、GPS受信機16と、方位センサ18と、傾斜センサ20と、車速センサ22と、ジャイロセンサ24と、入力装置26と、記憶装置30とを備えている。
Here, FIG. 1 is a block diagram showing an internal configuration of the car navigation apparatus of the present embodiment.
[Internal configuration]
As shown in FIG. 1, the
このうち、カメラ12とGPS受信機16、車速センサ22は、車両の所定位置に取り付けられ、それ以外のものは、カーナビゲーション装置1の本体に組み込まれている。そしてカーナビゲーション装置1の本体は、運転席と助手席との間に位置する、図示しないインパネに取り付けられる。
Among these, the
中央制御装置10は、CPU10a、ROM10b、RAM10cを備えたコンピュータ装置である。この中央制御装置10は、各装置12〜30と、バス99を介して通信可能に接続されている。
The
この中央制御装置10では、CPU10aが、各装置12〜30と通信し、必要なデータをRAM10cに一時記憶しながら、ROM10bに記憶されたプログラムを実行して、後述する各種処理を実行する。
In the
カメラ12は、車両の進行方向前方に向けられ、車両の進行方向に対して撮影方向が平行となるようにサンバイザに固定される。このようにカメラ12が固定されると、撮影方向および撮影位置が、運転者の視線の方向および目の高さとほぼ一致するので、運転者が見ている風景とほぼ同じ風景が撮影される。
The
モニタ14は、カーナビゲーション装置1の本体に組み込まれているものである。カーナビゲーション装置1は、本体がインパネに取り付けられたとき、この画面が車内側を向くように取り付けられる。
The
GPS(Global Positioning System) 受信機16は、車両の所定箇所に取り付けられ、GPS衛星から発信された位置測位用の信号を受信する装置である。
The GPS (Global Positioning System)
中央制御装置10では、GPS受信機16で位置測位用の信号が受信されるたび、その信号に基づいて現在位置を算出する処理が実行され、その算出された現在位置の位置情報はRAM10c記憶される。
In the
そして、RAM10cに記憶される現在位置の位置情報は、新しい現在位置が算出されるたびに更新される。
The position information of the current position stored in the
そのため、RAM10cには、常に最新の車両の現在位置情報が記憶されている。
Therefore, the current position information of the latest vehicle is always stored in the
尚、GPS受信機16と、上記の処理を実行する中央制御装置10とが、現在位置を特定する現在位置特定手段として機能する。
Note that the
方位センサ18は、地磁気から方位を検出するセンサで、傾斜センサ20は、車両の上下方向の傾きを検出するセンサである。ジャイロセンサ24は、車体の向きを検出するセンサである。
The
中央制御装置10では、これらセンサ18、20、24により方位等が検出されるたび、その方位等を検出したことを示す信号に基づいて車両の向きを算出する処理が実行され、その算出された車両の向きを示す方位情報がRAM10cに記憶される。
In the
そして、RAM10cに記憶される方位情報は、新しい車両の向きが算出されるたびに更新される。
The direction information stored in the
そのため、RAM10cには、常に最新の車両の向きを示す方位情報が記憶された状態となる。
Therefore, the azimuth information indicating the latest vehicle orientation is always stored in the
尚、方位情報は、本実施形態では、カメラ12が車両の前方を向いて固定されているので、カメラ12の撮影方向を示す方位情報でもある。従って、方位センサ18、傾斜センサ20、ジャイロセンサ24、及び、上記処理を実行する中央制御装置10は、カメラ12の撮影方向を特定する撮影方向特定手段として機能する。
In this embodiment, the azimuth information is also azimuth information indicating the shooting direction of the
車速センサ22は、車両のスピードを計測するセンサで、車両のスピードメータにスピードを表示するためのセンサとして使用されているものである。
入力装置26は、利用者がカーナビゲーション装置1を操作するためのヒューマンインターフェイス装置で、カーナビゲーション装置1の本体をインパネに取り付けたときに、利用者が車内側から操作可能な位置に取り付けられている。
The
The input device 26 is a human interface device for a user to operate the
記憶装置30は、カーナビゲーション装置1に内蔵されたHDD(ハードディスクドライブ)やICメモリその他の情報を記憶・消去可能な装置である。
The
この記憶装置30には、予めいくつかの情報が記憶されており、現在位置から目的位置までの案内経路を決定するための基礎となる基礎情報がデータベース部32に記憶されている。
In the
また、この記憶装置30には、カメラに関する諸情報がカメラ情報記憶部34に、指示画像が指示画像記憶部36に記憶されている。
In the
ここで基礎情報には、位置情報(緯度経度標高)、位置情報を検索するための検索情報、地図情報、及び、付帯情報等があり、データベース部32には、これらの情報が互いに関連付けられて記憶されている。
Here, the basic information includes position information (latitude and longitude elevation), search information for searching for position information, map information, supplementary information, and the like. The
このうち、検索情報は、住所、地名、施設名、電話番号等の位置情報の検索に直接必要な情報である。また、地図情報は、例えば、道路、建物等の各種施設、県境や市境、山、川などの地理が図面上に表された図面化された情報である。さらに、付帯情報は、建物の高さ、道路の幅等の情報である。 Of these, the search information is information directly required for searching for location information such as an address, place name, facility name, and telephone number. The map information is, for example, information in the form of various facilities such as roads and buildings, prefectural borders, city borders, mountains, rivers, and other geographies on the drawing. Further, the incidental information is information such as the height of the building and the width of the road.
カメラに関する諸情報とは、カメラ12の視野角や、解像度その他の情報である。
The various information regarding the camera is the viewing angle of the
指示画像とは、矢印のグラフィック画像である。
[目的位置等について]
ここで、目的位置、現在位置、撮影方向、及び、視野角について簡単に説明する。尚、これらのパラメータは、3次元パラメータではあるが、以下では、説明を簡単にするために水平方向の2次元のパラメータを用いて説明する。
The instruction image is a graphic image of an arrow.
[About the target position]
Here, the target position, the current position, the shooting direction, and the viewing angle will be briefly described. Although these parameters are three-dimensional parameters, in the following, description will be made using two-dimensional parameters in the horizontal direction for the sake of simplicity.
ここで、図2は、本実施形態のカーナビゲーション装置1で用いられるカメラ12、GPS受信機16の設置位置と、目的位置、現在位置、撮影方向、視野角について説明するための模式図である。
(目的位置)
目的位置は、建物や交差点などの経路案内用の位置である。
Here, FIG. 2 is a schematic diagram for explaining the installation position, the target position, the current position, the shooting direction, and the viewing angle of the
(Target position)
The target position is a position for route guidance such as a building or an intersection.
この目的位置は、建物や交差点等の場合は、その建物の中心位置の緯度経度標高としてもよいし、公園等の場合は、その入口の緯度経度標高としてもよい。その他、この目的位置は本実施形態の趣旨に沿えばどのような位置でもよい。
(現在位置)
現在位置は、厳密には、GPS受信機16が位置測位用の信号を受信した位置である。
The target position may be the latitude and longitude elevation of the center position of the building in the case of a building or intersection, or may be the latitude and longitude elevation of the entrance in the case of a park or the like. In addition, this target position may be any position as long as the purpose of this embodiment is met.
(present location)
Strictly speaking, the current position is a position at which the
そのため、図2に示すように、カメラ12を基点として撮影方向に対して目的位置がどの方向にあるかを算出するとき、この現在位置をカメラ12の現在位置とすると多少の誤差が生じる。
Therefore, as shown in FIG. 2, when calculating the direction of the target position with respect to the shooting direction with the
しかし、GPS受信機16とカメラ12との距離は、カメラ12と目的位置との距離に比べ非常に短い。
However, the distance between the
そこで、本実施形態では、カメラ12を基点として、目的位置が撮影方向に対してどの方向にあるかを算出するときでも、GPS受信機16で位置測位用の信号を受信した位置を、カメラ12の現在位置としている。
Therefore, in the present embodiment, the position at which the
尚、GPS受信機16の設置位置とカメラ12の設置位置との誤差を記憶装置30等に記憶しておき、その誤差を考慮して、カメラ12の現在位置を算出してもよいことはもちろんである。
(撮影方向)
撮影方向とは、図2に示すように、車両の進行方向と平行な方向であって、車両の進行方向前方に向かう方向である。
(視野角)
カメラ12が風景を撮影するとき、円錐状の広がりを持った範囲が撮影されるが、視野角とは、この円錐の円錐角のことである。本実施形態では、この視野角をθで表している。
[ナビゲーション処理]
次に、上述したカーナビゲーション装置1で実行されるナビゲーション処理について説明する。
Of course, an error between the installation position of the
(Shooting direction)
As shown in FIG. 2, the shooting direction is a direction parallel to the traveling direction of the vehicle, and is a direction toward the front of the traveling direction of the vehicle.
(Viewing angle)
When the
[Navigation process]
Next, navigation processing executed by the above-described
尚、以下の説明では、ある建物の位置を最終目的位置とする経路案内が行われ、現在位置から最終目的位置までの間の案内経路上にある交差点の位置が中間目的位置として設定される例を具体例として、説明する。 In the following description, route guidance with the position of a certain building as the final destination position is performed, and the position of the intersection on the guidance route from the current position to the final destination position is set as the intermediate destination position. Will be described as a specific example.
ここで図3及び図4は、本実施形態のカーナビゲーション装置1で実行されるナビゲーション処理のフローチャートである。
Here, FIG.3 and FIG.4 is a flowchart of the navigation process performed with the
このナビゲーション処理(S1)は、経路案内の最終目的位置が設定され、入力装置26に対して経路案内開始の操作がなされると、開始される。
このうち最終目的位置の設定は、建物の名前や住所などの検索情報が入力装置26を用いて入力されると、その建物の位置情報がデータベース部32を用いて検索され、この位置情報が最終目的位置の位置情報としてRAM10cに記憶されることによって行われる。
This navigation process (S1) is started when the final destination position of the route guidance is set and the route guidance start operation is performed on the input device 26.
Of these, the final destination position is set by searching for the location information of the building using the
この案内処理(S1)が開始されると、まず、S10の処理が実行される。 When this guidance process (S1) is started, first, the process of S10 is executed.
S10では、案内経路の決定や中間目的位置の設定、目的位置の設定が行われる。 In S10, a guide route is determined, an intermediate target position is set, and a target position is set.
このうち案内経路は、RAM10cに記憶された車両の現在位置の位置情報と、最終目的位置の位置情報と、データベース部32に記憶された基礎情報とから、周知の方法により決定される。そして、決定された案内経路の経路情報は、RAM10cに記憶される。
Among these, the guide route is determined by a known method from the position information of the current position of the vehicle stored in the
また、この案内経路が決定されると、その案内経路上にある交差点が中間目的位置として設定される。そして、この中間目的位置として抽出された交差点の位置情報が、データベース部32に記憶された基礎情報から抽出されて、その位置情報が中間目的位置の位置情報としてRAM10cに記憶される。
When this guide route is determined, an intersection on the guide route is set as an intermediate destination position. Then, the position information of the intersection extracted as the intermediate target position is extracted from the basic information stored in the
そして、S10では、これら案内経路と中間目的位置とがRAM10cに記憶されると、案内経路上で現在位置から最も近い(最終目的位置から最も遠い)交差点の位置である中間目的位置が、経路案内の最初の目的位置として設定され、その位置情報が、RAM10cに目的位置の位置情報として記憶される。
S12では、RAM10cに記憶された現在位置の位置情報及び案内経路の経路情報と、データベース部32に記憶された地図情報とから、現在位置と現在位置の周囲の地理と案内経路とが示された地図状の案内画像を所定時間毎に順次更新しながらモニタ14に表示して経路案内を行う地図案内処理が実行される。
In S10, when the guide route and the intermediate destination position are stored in the
In S12, the current position, the geography around the current position, and the guide route are shown from the position information of the current position and the route information of the guide route stored in the
S14では、RAM10cに記憶された現在位置及び目的位置の位置情報とから、現在位置が目的位置に近づいたか否かを判定する接近判定処理が実行される。
In S14, an approach determination process for determining whether or not the current position has approached the target position from the current position and target position information stored in the
このS14では、具体的には、現在位置と目的位置との間の距離が予め定められた一定距離内(1.3km内)であれば、現在位置が目的位置に近づいたと判定される。 Specifically, in S14, if the distance between the current position and the target position is within a predetermined distance (within 1.3 km), it is determined that the current position has approached the target position.
この判定(S14)で、車両が目的位置に近づいたと判定されたら(S14:YES)、S20の処理が実行される。 If it is determined in this determination (S14) that the vehicle has approached the target position (S14: YES), the process of S20 is executed.
一方、この判定(S14)で、目的位置に近づいていないと判定されたら(S14:NO)、S16の処理が実行される。 On the other hand, if it is determined in this determination (S14) that the target position is not approached (S14: NO), the process of S16 is executed.
S16では、経路案内を、地図状の案内画像を用いた経路案内から、後述する撮影画像を用いた経路案内に切り換える操作が入力装置26に対してなされたか否かを判定する処理が実行される。 In S16, processing for determining whether or not an operation for switching the route guidance from the route guidance using the map-like guidance image to the route guidance using the captured image described later has been performed on the input device 26 is executed. .
このS16で、経路案内を切り換える指示がなされると判定されたら(S16:YES)、(1)で示すように、図4のS50以下の処理が実行される。 If it is determined in S16 that an instruction to switch the route guidance is given (S16: YES), the process from S50 in FIG. 4 is executed as shown in (1).
一方、このS16で、経路案内を切り換える指示がなされていないと判定されたら(S16:NO)、S12以下の処理が実行され、地図状の案内画像を用いた経路案内が引き続き実行される。 On the other hand, if it is determined in S16 that there is no instruction to switch route guidance (S16: NO), the processing from S12 onward is executed, and the route guidance using the map-like guide image is continuously executed.
尚、図4のS50以下の処理については後述する。 Note that the processing after S50 in FIG. 4 will be described later.
S20では、カメラ12を起動して、車両前方の風景を撮影する処理が実行される。
In S20, the
S22では、カメラ12を用いて、現在位置から撮影方向に撮影している撮影画像について、この撮影画像に写されている風景の中で、目的位置に対応する風景が写されている位置である目的風景位置を特定する目的風景位置特定処理が実行される。
In S22, the photographed image photographed in the photographing direction from the current position using the
ここで、目的位置に対応する風景とは、目的位置が中間目的位置である場合、本実施形態では交差点、目的位置が最終目的位置である場合、本実施形態では、ある建物のことである。 Here, the landscape corresponding to the target position is an intersection in the present embodiment when the target position is the intermediate target position, and a building in the present embodiment when the target position is the final target position.
すなわち、S22では、撮影画像に写されている風景の中で、目的位置として設定された中間目的位置に対応する交差点や、最終目的位置に対応するある建物が写されている位置が特定される。 That is, in S22, an intersection corresponding to the intermediate target position set as the target position or a position corresponding to a certain building corresponding to the final target position in the landscape captured in the captured image is specified. .
この目的風景位置は、図2に示すように、現在位置と、目的位置と、撮影方向とから、現在位置と目的位置とを結ぶ直線と撮影方向とがなす角度αを幾何学的に計算することによって特定される。 As shown in FIG. 2, the target landscape position is geometrically calculated from the current position, the target position, and the shooting direction, and an angle α formed by a line connecting the current position and the target position and the shooting direction. Is specified by
撮影画像は、撮影方向の延長線上を中心とする撮影方向に垂直な面であるため、このS22で算出された角度αの延長線とこの面とが交差する点が目的風景位置となる。 Since the shot image is a plane perpendicular to the shooting direction centered on the extension line of the shooting direction, the point where the extension line of the angle α calculated in S22 intersects this plane is the target landscape position.
S24では、目的風景位置αが、図2に示すように、カメラ12の撮影方向から見て視野角θの範囲内に入っているか否かが判定される。
In S24, it is determined whether or not the target landscape position α is within the range of the viewing angle θ when viewed from the shooting direction of the
S24の判定で、目的風景位置αがカメラ12の視野角θの範囲内に入っていないと判定されたら、S38の処理が実行される。このS38の処理は後述する。
If it is determined in S24 that the target scenery position α is not within the range of the viewing angle θ of the
一方、S24の判定で、目的風景位置αがカメラ12の視野角θの範囲内に入っていると判定されたら(S24:YES)、S25の処理が実行される。
S 25では、目的位置が最終目的位置であるか中間目的位置であるかを判定する。
On the other hand, if it is determined in S24 that the target landscape position α is within the range of the viewing angle θ of the camera 12 (S24: YES), the process of S25 is executed.
In S25, it is determined whether the target position is the final target position or the intermediate target position.
この判定は、例えば、S10で抽出された交差点の位置情報がRAM10cに記憶されているか否かにより判定してもよい。
This determination may be made based on, for example, whether or not the intersection position information extracted in S10 is stored in the
S25の判定で、目的位置が最終目的位置である場合は、S26を実行し、目的位置が中間目的位置である場合は、S34の処理が実行される。 If it is determined in S25 that the target position is the final target position, S26 is executed. If the target position is the intermediate target position, the process of S34 is executed.
S26では、撮影画像に写されている風景の中で、最終目的位置に対応する風景、すなわちある建物に隣接する道路が写されている位置である道路風景位置を特定する道路風景位置特定処理が実行される。 In S26, a road scenery position specifying process for specifying the scenery corresponding to the final destination position among the scenery shown in the photographed image, that is, the road scenery position where the road adjacent to a certain building is shown. Executed.
具体的には、このS26では、最終目的位置に対応する風景、すなわち本実施形態ではある建物であるが、この建物に隣接する道路の位置情報を検索する処理が実行される。 Specifically, in this S26, a landscape corresponding to the final destination position, that is, a building in this embodiment, is searched, and a process for searching for positional information of a road adjacent to this building is executed.
そして、道路風景位置は、図2に示すように、現在位置と、道路の位置と、撮影方向とから、現在位置と道路の位置とを結ぶ直線と撮影方向とがなす角度βを幾何学的に計算することによって特定される。 As shown in FIG. 2, the road scenery position is obtained by geometrically setting an angle β formed by a straight line connecting the current position and the road position and the shooting direction from the current position, the road position, and the shooting direction. Specified by calculating on.
撮影画像は、撮影方向の延長線上を中心とする撮影方向に垂直な面であるため、このS26で算出された角度βの延長線とこの面とが交差する点が道路風景位置となる。そのため、本実施形態では、目的風景位置と同様、道路風景位置をこの角度βで特定している。 Since the shot image is a plane perpendicular to the shooting direction centered on the extension line of the shooting direction, the point where the extension line of the angle β calculated in S26 intersects this plane is the road landscape position. Therefore, in the present embodiment, the road landscape position is specified by this angle β, as is the target landscape position.
S28では、目的位置に対応する風景をカメラ12で撮影可能か否かを判定する撮影判定処理が実行される。
In S28, a shooting determination process is performed to determine whether or not the
このS28の処理では、例えば、現在位置及び目的位置の位置情報と、データベース部32の基礎情報とから、現在位置と目的位置とを結ぶ直線の間にビル等があるか否かを検索し、その検索されたビルの高さが、現在位置から目的位置にあるものを隠してしまうか否かを判定している。
In the process of S28, for example, from the position information of the current position and the target position and the basic information of the
このS28の処理で、撮影可能であると判定されたら(S28:YES)、S30の処理を実行し、撮影不能であると判定されたら(S28:NO)、S34の処理を実行する。 If it is determined in this process of S28 that the photographing is possible (S28: YES), the process of S30 is executed. If it is determined that the photographing is impossible (S28: NO), the process of S34 is executed.
S30では、道路風景位置の上方に矢印の指示画像を合成可能か否かを判定する処理が実行される。 In S30, a process of determining whether or not an arrow instruction image can be combined above the road scenery position is executed.
具体的には、道路風景位置βが、カメラ12の撮影方向から見て視野角θの範囲内に入っているか否かが判定される。
Specifically, it is determined whether or not the road scenery position β is within the range of the viewing angle θ when viewed from the shooting direction of the
S30の判定で、道路位置βがカメラ12の視野角θの範囲内に入っていないと判定されたら(S30:NO)、S34の処理を実行する。 If it is determined in S30 that the road position β is not within the range of the viewing angle θ of the camera 12 (S30: NO), the process of S34 is executed.
一方、S30の判定で、道路位置βがカメラ12の視野角θの範囲内に入っていると判定されたら(S30:YES)、S32の処理を実行する。
S32では、指示画像である矢印の合成位置が道路風景位置の上方に設定される。
On the other hand, if it is determined in S30 that the road position β is within the range of the viewing angle θ of the camera 12 (S30: YES), the process of S32 is executed.
In S32, the combined position of the arrow as the instruction image is set above the road scenery position.
具体的には、図5に示すように、道路の上方に指示画像の矢印yが表示されるように設定され、次にS36が実行される。 Specifically, as shown in FIG. 5, it is set so that the arrow y of the instruction image is displayed above the road, and then S36 is executed.
S34では、指示画像である矢印の合成位置が目的風景位置の上方に設定される。 In S34, the combined position of the arrow as the instruction image is set above the target landscape position.
具体的には、S25で最終目的位置でないと判定された場合は、図6(a)に示すように、交差点の上方に矢印yが表示するように設定される。S28で目的風景位置が撮影不能であると判定された場合は、図6(b)に示すように、物陰に隠れている建物の上方に指示画像である矢印yが表示されるように設定される。さらに、S30で道路風景の上方に矢印yを合成不能と判定された場合は、図6(c)に示すように、建物の上方に指示画像である矢印yが表示されるように設定される。 Specifically, when it is determined in S25 that the target position is not the final destination position, an arrow y is set to be displayed above the intersection as shown in FIG. If it is determined in S28 that the target landscape position cannot be photographed, as shown in FIG. 6B, an arrow y as an instruction image is set to be displayed above the building hidden behind the object. The Further, when it is determined in S30 that the arrow y cannot be combined above the road scenery, the arrow y as the instruction image is displayed above the building as shown in FIG. 6C. .
S36では、現在位置が目的位置に近づくにつれて指示画像が大きくなるように、現在位置から目的位置までの距離に応じた指示画像の大きさを設定する形態設定処理が実行される。 In S36, a configuration setting process for setting the size of the instruction image according to the distance from the current position to the target position is executed so that the instruction image becomes larger as the current position approaches the target position.
本実施形態では、現在位置と目的位置とが100m以内に近づいたときが最も大きく、その大きさを1とすると、300m以内であると、0.8、700m以内であると、0.5、1.3km以内であると0.3、1.3km以上であると0.1と予め定められているので、この決まりに基づいて、指示画像の大きさが設定される。 In the present embodiment, the maximum is when the current position and the target position are within 100 m, and when the size is 1, when it is within 300 m, 0.8, when within 700 m, 0.5, Since it is predetermined as 0.3 when it is within 1.3 km and 0.1 when it is 1.3 km or more, the size of the instruction image is set based on this rule.
具体的には、現在位置と目的位置が遠い場合は、図5(a)に示すように矢印yは小さく、現在位置と目的位置が近い場合は、図5(b)に示すように矢印yは大きく表示されるよう設定している。 Specifically, when the current position and the target position are far from each other, the arrow y is small as shown in FIG. 5A, and when the current position and the target position are close, the arrow y as shown in FIG. 5B. Is set to display large.
S38では、S32〜S34の処理で設定された位置に、S36の処理で設定された大きさの矢印の指示画像が、目的風景位置が目的位置であることを示すように撮影画像に対して合成される処理が実行される。 In S38, an instruction image with an arrow having a size set in the process of S36 is combined with the photographed image so that the target landscape position is the target position at the position set in the processes of S32 to S34. Processing is executed.
そして、S38では、モニタ14に表示される画像が、地図状の案内画像から指示画像を合成処理した後の撮影画像を利用した案内画像に切り替えられ、以後、後述するS46で戻し操作あり(S46:YES)と判定されるまで、指示画像を合成処理した後の撮影画像を利用した案内画像がモニタ14に表示される。
In S38, the image displayed on the
S40では、S14で判定の対象とされた目的位置に到着したか否かを判定する。この判定は、現在位置が目的位置に一致したか否かにより判定される。 In S40, it is determined whether or not the destination position determined in S14 is reached. This determination is made based on whether or not the current position matches the target position.
このS40において、目的位置に到着していないと判定されたら(S40:NO)、撮影画像による経路案内を継続するため、再びS20以下の処理が実行され、一方、目的位置に到着していると判定されたら(S40:YES)、S42の処理が実行される。 If it is determined in S40 that the vehicle has not arrived at the target position (S40: NO), the process from S20 onward is executed again to continue the route guidance using the captured image. If it is determined (S40: YES), the process of S42 is executed.
S42では、S40で判定した目的位置が、最終目的位置であるかを判定している。 In S42, it is determined whether the target position determined in S40 is the final target position.
このS42の判定で、最終目的位置であると判定されたら(S42:YES)、本処理(S1)を終了し、一方、最終目的位置でないと判定されたら(S42:NO)、S44の処理が実行される。 If it is determined in S42 that the current position is the final target position (S42: YES), the present process (S1) is terminated. On the other hand, if it is determined that the current position is not the final target position (S42: NO), the process of S44 is performed. Executed.
S44では、RAM10cに記憶されている目的位置の位置情報を、到着したばかりの目的位置(S40)の次に最終目的位置から遠い中間目的位置の位置情報に更新する処理が実行される。あるいは、中間目的位置がない場合は、RAM10cに記憶されている目的位置の位置情報は最終目的位置の位置情報に更新される。
In S44, a process of updating the position information of the target position stored in the
S46では、経路案内を、撮影画像を用いた経路案内から、地図状の案内画像を用いた経路案内に切り換える操作が入力装置26に対してなされたか否かを判定する処理が実行される。 In S46, a process of determining whether or not an operation for switching the route guidance from the route guidance using the photographed image to the route guidance using the map-like guidance image has been performed on the input device 26 is executed.
このS46で、経路案内を切り換える指示がなされていたら(S46:YES)、S12の処理を実行し、指示がなされていなかったら、(1)で示すように、図4のS50以下の処理が実行される。 If an instruction to switch route guidance is given in S46 (S46: YES), the process of S12 is executed. If the instruction is not given, the process after S50 in FIG. 4 is executed as shown in (1). Is done.
次に、図4により、S16で切替操作あり(S16:YES)、あるいはS46で戻し操作なし(S46:NO)と判定された場合のナビゲーション処理について説明する。 Next, referring to FIG. 4, the navigation process when it is determined that there is a switching operation in S16 (S16: YES) or no return operation in S46 (S46: NO) will be described.
S50では、S20と同様、カメラ12を起動して、車両前方の風景の撮影を開始する処理が実行される。
In S50, as in S20, the process of starting the
S52では、S22と同様、カメラ12を用いて、現在位置から撮影方向に撮影している撮影画像について、この撮影画像に写されている風景の中で、目的位置に対応する風景が写されている位置である目的風景位置を特定する目的風景位置特定処理が実行される。
In S52, as in S22, the
尚、S50以下の処理が実行されるときは、目的位置が現在位置から見て遠方であるため、目的位置に対応する風景、すなわち建物や交差点が、山陰に隠れてしまっている場合や、カメラの解像度から、目的位置に対応する風景を写せないほど遠方にあることがあるが、このS52では、そのような場合でも目的風景位置が特定される。 Note that when the processing of S50 and subsequent steps is executed, the target position is far from the current position, so that a landscape corresponding to the target position, that is, a building or an intersection is hidden behind the mountain, or a camera However, in S52, the target landscape position is specified even in such a case.
S54では、S24と同様、目的風景位置αが、図2に示すように、カメラ12の撮影方向から見て視野角θの範囲内に入っているか否かが判定される。
In S54, as in S24, it is determined whether or not the target landscape position α is within the range of the viewing angle θ when viewed from the shooting direction of the
S54の判定で、目的風景位置αがカメラ12の視野角θの範囲内に入っていないと判定されたら、S60の処理を実行する。
If it is determined in S54 that the target landscape position α is not within the range of the viewing angle θ of the
一方、S54の判定で、目的風景位置αがカメラ12の視野角θの範囲内に入っていると判定されたら(S54:YES)、S56の処理を実行する。 On the other hand, if it is determined in S54 that the target landscape position α is within the range of the viewing angle θ of the camera 12 (S54: YES), the process of S56 is executed.
S56では、矢印の指示画像の合成位置を目的風景位置αの上方に設定する処理が実行される。 In S56, a process of setting the composite position of the arrow instruction image above the target landscape position α is executed.
S60では、S54で目的風景位置αが視野角θの範囲内にあると判定された場合は、撮影画像に対しS56の処理を実行することによって設定された位置に矢印の指示画像が合成され、その指示画像が合成された撮影画像がモニタ14に表示される。
In S60, if it is determined in S54 that the target landscape position α is within the range of the viewing angle θ, the instruction image of the arrow is synthesized at the position set by executing the process of S56 on the captured image, A captured image obtained by combining the instruction images is displayed on the
一方、S54で目的風景位置αが視野角θの範囲内にない場合は、カメラ12で撮影された画像がそのままモニタ14に表示される。
On the other hand, if the target scenery position α is not within the range of the viewing angle θ in S54, the image captured by the
S62では、S14と同様、現在位置が目的位置に近づいたか否かを判定している。 In S62, as in S14, it is determined whether or not the current position has approached the target position.
このS62の判定で、目的位置に近づいたと判定されたら(S62:YES)、(2)で示すように、図3のS20の処理が実行される。 If it is determined in S62 that the target position is approached (S62: YES), the process of S20 in FIG. 3 is executed as shown in (2).
一方、この判定(S62)で、目的位置に近づいていないと判定されたら(S62:NO)、S50の処理が実行される。 On the other hand, if it is determined in this determination (S62) that the target position is not approached (S62: NO), the process of S50 is executed.
このS50〜S62の処理を実行すると、図7に示すように、建物や交差点が遠方にあり、そしてそれらの建物等が山陰等に隠れた位置にあっても、撮影画像上に建物等の位置を示す撮影画像がモニタ14に表示される。
[実施形態に係るカーナビゲーション装置の特徴]
本実施形態では、現在位置から撮影方向にカメラ12で撮影している撮影画像について、この撮影画像に写されている風景の中で、目的位置に対応する風景が写されている位置である目的風景位置を特定している(S22)。
When the processing of S50 to S62 is executed, as shown in FIG. 7, the position of the building or the like on the photographed image even if the building or the intersection is far away and the building or the like is hidden in the shade. Is displayed on the
[Characteristics of Car Navigation Device According to Embodiment]
In the present embodiment, for a photographed image photographed with the
そして、本実施形態では、この目的風景位置が目的位置であることを示す画像処理を撮影画像に対して行って、その処理後の撮影画像をモニタ14に表示している(S38)。 In this embodiment, image processing indicating that the target landscape position is the target position is performed on the captured image, and the captured image after the processing is displayed on the monitor 14 (S38).
これにより、本実施形態では、運転者が現在見ている風景の中に目的位置が示された画像がモニタ14に表示されるので、この画像により、運転者が現在見ている風景の中で目的位置に対応する風景(建物や交差点)がどこに位置するのかを運転者に瞬時に把握させることができる。
Accordingly, in the present embodiment, an image in which the target position is shown in the scenery that the driver is currently viewing is displayed on the
従って、本実施形態では、本来運転に向けるべき運転者の注意力を削ぐことなく経路案内を行うことができる。 Therefore, in this embodiment, route guidance can be performed without reducing the driver's attention that should be directed to driving.
また、本実施形態では、現在撮影している風景の画像をリアルタイムにモニタ14に表示して経路案内を行っているので、初めて行く場所でも経路案内を行うことができる。
Further, in the present embodiment, since the route image is displayed by displaying the image of the currently photographed landscape on the
さらに、本実施形態では、風景を撮影した画像を用いて経路案内を行っているので、運転者にとって視覚的に分かりやすい経路案内を行うことができる。 Furthermore, in the present embodiment, route guidance is performed using an image obtained by photographing a landscape, so that it is possible to perform route guidance that is easy to understand visually for the driver.
次に、本実施形態では、目的風景位置を指し示す指示画像を撮影画像に合成することによって、撮影画像上で目的位置に対応する風景がこの指示画像により指し示される(S38)。 Next, in the present embodiment, the instruction image indicating the target landscape position is combined with the photographed image, whereby the scenery corresponding to the target position on the photographed image is indicated by the instruction image (S38).
これにより、本実施形態では、目的位置に対応する風景が指示画像により撮影画像上で運転者に対し分かりやすく示されるので、運転者は、目的位置に対応する風景を、実際の風景の中からでも簡単に探し当てることができる。 Thereby, in this embodiment, since the landscape corresponding to the target position is shown in an easy-to-understand manner to the driver on the captured image by the instruction image, the driver can select the landscape corresponding to the target position from the actual landscape. But it ’s easy to find.
次に、本実施形態では、撮影画像に写されている風景の中で、目的位置に対応する風景に隣接する道路が写されている位置である道路位置を特定し(S26)、この道路位置の上方に指示画像を合成している(S32)。 Next, in the present embodiment, a road position that is a position where a road adjacent to the scenery corresponding to the target position is photographed in the scenery photographed in the photographed image is specified (S26). The instruction image is synthesized above (S32).
これにより、この本実施形態では、建物等の他の風景がない空間である道路の上方に指示画像が合成されるので、撮影画像に写されている風景を損なうことなく、指示画像が撮影画像上に合成される。 Thereby, in this embodiment, since the instruction image is synthesized above the road, which is a space without other scenery such as a building, the instruction image is captured without damaging the scenery captured in the captured image. Synthesized on top.
従って、この本実施形態では、運転者が、この指示画像が合成された撮影画像に写されている風景と運転者が現在見ている風景とを容易に比較できるので、モニタ14に表示された撮影画像を見れば、運転者は、運転者が現在見ている風景の中にある目的位置に対応する風景を非常に簡単に見つけ出すことができる。
Therefore, in this embodiment, since the driver can easily compare the scenery shown in the photographed image in which the instruction image is combined with the scenery that the driver is currently viewing, it is displayed on the
次に、本実施形態では、目的位置に対応する風景をカメラ12が現在位置から撮影可能か否かを判定し(S28)、撮影不能であると判定された場合、目的風景位置の上方に指示画像を合成している(S34)。
Next, in the present embodiment, it is determined whether or not the
これにより、この本実施形態では、目的位置に対応する風景が現在位置から撮影不能である場合、指示画像が目的風景位置の上方に合成されるので、運転者は、指示画像が合成される位置を見れば、目的位置に対応する風景が現在位置から撮影不能な場所、すなわち運転者からは見えない場所にあるか否かを直ちに把握することができる。 Thus, in this embodiment, when the landscape corresponding to the target position cannot be captured from the current position, the instruction image is combined above the target landscape position, so the driver can select the position where the instruction image is combined. , It is possible to immediately grasp whether or not the landscape corresponding to the target position is in a place where the current position cannot be photographed, that is, a place where the driver cannot see it.
また、この本実施形態では、目的位置に対応する風景が現在位置から撮影不能である場合であっても、指示画像が目的風景位置の上方に合成されるので、運転者は、目的位置のあるおおよその方向を、認識することができる。 Further, in this embodiment, even when the landscape corresponding to the target position cannot be photographed from the current position, the instruction image is synthesized above the target landscape position, so that the driver has the target position. Approximate direction can be recognized.
次に、本実施形態では、現在位置が目的位置に近づくにつれて指示画像が大きくなるように、現在位置から目的位置までの距離に応じた指示画像の大きさを設定し(S36)、その設定された大きさの指示画像を撮影画像に対し合成している(S38)。 Next, in this embodiment, the size of the instruction image corresponding to the distance from the current position to the target position is set so that the instruction image becomes larger as the current position approaches the target position (S36), and the setting is performed. An instruction image of a predetermined size is synthesized with the photographed image (S38).
これにより、本実施形態では、目的位置に近づくほど指示画像が撮影画像中に大きく表示されるので、目的位置が近づいていることを距離感の悪い運転者にも確実に把握させることができる。 Thereby, in this embodiment, since the instruction image is displayed larger in the captured image as the target position is approached, it is possible for the driver with a poor sense of distance to surely grasp that the target position is approaching.
ところで、地図による経路案内を行う現在のナビゲーション装置は、最終目的位置近くまで到達した時点で経路案内を止めてしまうものが多い。 By the way, many of the current navigation devices that perform route guidance using a map stop the route guidance when reaching a position near the final destination.
これは、最終目的位置近傍に到達したときには、細かい運転操作が必要となることが多く、そのようなときに、モニタ14に表示された地図と風景とを見比べさせる煩雑な作業を行わせるという不都合があるという理由によるものである。
This often requires a detailed driving operation when reaching the vicinity of the final destination position, and in such a case, it is inconvenient to perform a complicated operation of comparing the map displayed on the
しかし、ナビゲーション装置が経路案内を終了した段階では、運転者が現在見ている風景の中のどこに目的位置に対応する風景があるのか具体的に認識していないこともあり、運転者は目的位置を通り越してしまうことがあった。 However, at the stage when the navigation device finishes route guidance, the driver may not be aware of where the scenery corresponding to the target position is in the scenery currently being viewed by the driver. Sometimes passed.
一方、例えば、最終目的位置から遠い位置を車両が走行している場合、運転者は、地名やインター名等で自分達がどこを通過したのかを地図で確認できる経路案内を受ければ、経路案内としては十分であると感じることが多い。 On the other hand, for example, when a vehicle is traveling far from the final destination position, drivers can receive route guidance that allows them to check on the map where they have passed by location name or inter name. I often feel that is enough.
このように、地図による経路案内の方が、撮影画像による経路案内よりも好ましい場合もある。 In this way, route guidance using a map may be preferable to route guidance using a captured image.
そこで、本実施形態では、現在位置と現在位置の周囲の地理と案内経路とが示された地図の画像をモニタ14に表示して経路案内を行う(S12)とともに、現在位置が目的位置に近づいたか否かを判定し(S14)、現在位置が目的位置に近づいたと判定された場合、モニタ14に表示する画像を、地図状の案内画像から、撮影画像に切り換えている(S38)。
Therefore, in this embodiment, a map image showing the current position, the geography around the current position and the guidance route is displayed on the
これにより、本実施形態では、現在位置が目的位置から遠いときは地図による経路案内が行われ、現在位置が目的位置から近いときはカメラ12で撮影した撮影画像を用いた経路案内が行われるので、目的位置までの遠近に合わせて、最適な経路案内を行うことができる。
Thereby, in this embodiment, when the current position is far from the target position, route guidance using a map is performed, and when the current position is close to the target position, route guidance using a photographed image taken by the
また、本実施形態では、目的位置が現在位置より遠いため、目的位置に対応する風景を撮影することができなくても、目的位置に対応する風景が視野角の範囲内にあれば、撮影画像中に、その目的位置を示す矢印が表示される。 Further, in this embodiment, since the target position is far from the current position, even if the landscape corresponding to the target position cannot be captured, the captured image is captured if the landscape corresponding to the target position is within the range of the viewing angle. Inside, an arrow indicating the target position is displayed.
そのため、本実施形態では、目的位置が遠方にあっても、目的位置への現在位置からの方向を、運転者は撮影画像を見ることで把握することができる。
[実施形態と発明特定事項との対応関係]
本実施形態のGPS受信機16と現在位置を算出する処理を実行している中央制御装置10は、本発明の現在位置特定手段に相当する。
Therefore, in this embodiment, even if the target position is far away, the driver can grasp the direction from the current position to the target position by looking at the captured image.
[Correspondence between Embodiments and Invention Specific Items]
The
本実施形態の方位センサ18、傾斜センサ20、ジャイロセンサ24と現在位置を算出する処理を実行している中央制御装置10は、本発明の撮影方向特定手段に相当する。
The
本実施形態の目的風景位置特定処理(S22)は、本発明の目的風景位置特定手段が実行する処理に相当する。 The target scenery position specifying process (S22) of the present embodiment corresponds to the process executed by the target scenery position specifying means of the present invention.
本実施形態の処理画像表示処理(S38)は、本発明の処理画像表示手段が実行する処理に相当する。 The processed image display process (S38) of the present embodiment corresponds to the process executed by the processed image display means of the present invention.
本実施形態の道路風景位置特定処理(S26)は、本発明の道路位置特定手段が実行する処理に相当する。 The road scenery position specifying process (S26) of the present embodiment corresponds to the process executed by the road position specifying means of the present invention.
本実施形態の撮影判定処理(S28)は、本発明の撮影判定手段が実行する処理に相当する。 The shooting determination process (S28) of the present embodiment corresponds to the process executed by the shooting determination unit of the present invention.
本実施形態の形態設定処理(S36)は、本発明の形態設定手段が実行する処理に相当する。 The form setting process (S36) of the present embodiment corresponds to the process executed by the form setting means of the present invention.
本実施形態の地図案内処理(S12)は、本発明の地図案内手段が実行する処理に相当する。 The map guidance process (S12) of this embodiment is equivalent to the process which the map guidance means of this invention performs.
本実施形態の接近判定処理(S14)は、本発明の接近判定手段が実行する処理に相当する。
(その他の実施形態)
[カメラ12の位置]
上記実施形態では、カメラ12をサンバイザに設置したが、その他にも、インパネ上部やヘッドレスト端に設置してもよく、その実装位置は、ドライバーの視線位置に近い場所、すなわち、カメラ12を介してモニタ14に表示される風景がドライバーが見る風景と極力同じように見える位置であれば、どのような場所でもよい。
[指示画像]
上記実施形態では、目的風景位置を指し示す画像として矢印を用いたが、指差しをしている手首の画像の他、目的風景位置を指し示す態様のものであればどのようなものでもよい。
The approach determination process (S14) of the present embodiment corresponds to a process executed by the approach determination unit of the present invention.
(Other embodiments)
[Position of camera 12]
In the above embodiment, the
[Instruction image]
In the above embodiment, an arrow is used as an image indicating the target landscape position. However, any image may be used as long as it points to the target landscape position in addition to the wrist image being pointed.
また、上記実施形態では、目的風景位置を指し示す画像として矢印を用いたが、目的風景位置部分の画像の輝度や明度を、他の部分の画像に比べて強くしたり、あるいは弱くしたりしてもよい。あるいは目的位置を囲う画像を表示してもよい。 In the above embodiment, an arrow is used as an image indicating the target landscape position. However, the brightness and brightness of the image of the target landscape position are made stronger or weaker than those of other parts. Also good. Alternatively, an image surrounding the target position may be displayed.
さらに、目的位置に対応する風景が、例えば名古屋城である場合、矢印で指し示したものが名古屋城であることを文字で表示するなど、目的位置に対応する風景の名称を記載したバーチャル看板を表示するようにしてもよい。
[S14の処理]
上記実施形態のS14の処理では、現在位置と目的位置との距離が予め定められた一定距離内になったら目的位置に近づいたと判定しているが、他には、現在位置から目的位置までを結ぶ道路が直線となったら、目的位置に近づいたと判定してもよい。
In addition, if the landscape corresponding to the target location is Nagoya Castle, for example, a virtual signboard that displays the name of the landscape corresponding to the target location is displayed, such as displaying in text that the one pointed to by the arrow is Nagoya Castle You may make it do.
[Processing of S14]
In the process of S14 of the above embodiment, it is determined that the target position has been approached when the distance between the current position and the target position is within a predetermined distance. When the connecting road becomes a straight line, it may be determined that the destination position is approached.
このようにすると、例えば、図8に示すように、現在位置から目的位置までを結ぶ道路が直線でない場合は(α1の車両)、モニタ14には地図による案内画像α2が表示されるが、現在位置から目的位置までを結ぶ道路が直線である場合は(β1の車両)、モニタ14には撮影画像β2が表示され、経路案内が行われる。
[中間目的位置]
中間目的位置は、利用者が入力装置26を操作して指定してもよい。
In this way, for example, as shown in FIG. 8, when the road connecting the current position to the target position is not a straight line (vehicle of α1), the
[Intermediate destination position]
The intermediate target position may be designated by operating the input device 26 by the user.
また、中間目的位置は、交差点だけでなく、分岐路や、案内経路沿いにある名所旧跡や、案内経路の近くにある名所旧跡を眺める事が可能な位置など、どのようなものでもよい。 Further, the intermediate destination position is not limited to an intersection, and may be any position such as a branch road, a famous landmark along the guide route, or a position where a famous landmark near the guide route can be viewed.
上記実施形態では、中間目的位置が近づいている場合には、図5(c)に示すように、単に交差点を矢印で指し示す例について説明したが、例えば、交差点が複数車線からなるものである場合は、経路案内上にある車線を指し示すようにしてもよい。
[最終目的位置]
最終目的位置は、建物ばかりでなく、公園や河川、山、その他、どのようなものでもよい。
[S26の処理]
道路風景位置は、例えば、目的位置に対応する風景、すなわち上記実施形態では建物に隣接する道路の位置情報をデータベース部32から検索し、その道路の位置情報から、その道路が現在位置から見て目的位置のどちら側にあるかで特定してもよい。
In the above embodiment, when the intermediate destination position is approaching, as shown in FIG. 5C, an example has been described in which an intersection is simply indicated by an arrow. For example, when the intersection is composed of a plurality of lanes May point to a lane on the route guidance.
[Final destination position]
The final destination position is not limited to a building, but may be any park, river, mountain, or any other object.
[Processing of S26]
The road scenery position is, for example, the scenery corresponding to the target position, that is, the position information of the road adjacent to the building in the above embodiment is searched from the
以上本発明の一実施形態ついて説明したが、本発明はこの実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々なる態様で実施し得ることは勿論である。 Although one embodiment of the present invention has been described above, the present invention is not limited to this embodiment, and it is needless to say that the present invention can be implemented in various modes without departing from the gist of the present invention.
1…カーナビゲーション装置、10…中央制御装置、12…カメラ、14…モニタ、16…GPS受信機、18…方位センサ、20…傾斜センサ、22…車速センサ、24…ジャイロセンサ、26…入力装置、30…記憶装置、32…データベース部、34…カメラ情報記憶部、36…指示画像記憶部
DESCRIPTION OF
Claims (8)
カメラと、
モニタと、
現在位置を特定する現在位置特定手段と、
前記カメラの撮影方向を特定する撮影方向特定手段と、
前記現在位置から前記撮影方向に前記カメラで撮影している撮影画像について、この撮影画像に写されている風景の中で、前記建物が写されている位置である目的風景位置を特定する目的風景位置特定手段と、
前記目的風景位置が前記目的位置である前記建物の位置であることを示す画像を前記撮影画像における道路の上方に合成する画像処理を行って、その処理後の前記撮影画像を前記モニタに表示する処理画像表示手段と
を備えることを特徴とするナビゲーション装置。 In a navigation device that provides route guidance toward a building position that is a preset target position,
A camera,
A monitor,
Current position specifying means for specifying the current position;
Shooting direction specifying means for specifying the shooting direction of the camera;
For a photographed image photographed by the camera in the photographing direction from the current position, a target scenery for specifying a target scenery position that is a position where the building is photographed in the scenery photographed in the photographed image Positioning means;
Image processing is performed to synthesize an image indicating that the target landscape position is the position of the building, which is the target position, above the road in the captured image, and the captured image after the processing is displayed on the monitor And a processed image display means.
前記処理画像表示手段は、前記画像処理として、前記目的風景位置を指し示す指示画像を前記撮影画像に合成する処理を行っていることを特徴とするナビゲーション装置。 The navigation device according to claim 1, wherein
The navigation apparatus characterized in that the processed image display means performs a process of combining an instruction image indicating the target landscape position with the captured image as the image processing.
前記撮影画像に写されている風景の中で、前記目的位置に対応する風景に隣接する道路が写されている位置である道路風景位置を特定する道路風景位置特定手段を備え、
前記処理画像表示手段は、前記画像処理として、前記道路位置の上方に前記指示画像を合成する処理を行っていることを特徴とするナビゲーション装置。 The navigation device according to claim 2, wherein
Road scenery position specifying means for specifying a road scenery position that is a position where a road adjacent to the scenery corresponding to the target position is photographed among the scenery photographed in the photographed image;
The navigation apparatus characterized in that the processed image display means performs a process of synthesizing the instruction image above the road position as the image processing.
前記目的位置に対応する風景を前記カメラが前記現在位置から撮影可能か否かを判定する撮影判定手段を備え、
前記処理画像表示手段は、前記撮影判定手段で撮影不能であると判定された場合、前記画像処理として、前記目的風景位置の上方に前記指示画像を合成する処理を実行することを特徴とするナビゲーション装置。 In the navigation apparatus in any one of Claims 2-3,
Photographing determination means for determining whether or not the camera can photograph the landscape corresponding to the target position from the current position;
The processed image display means executes a process of synthesizing the instruction image above the target landscape position as the image processing when the photographing determination means determines that photographing is impossible. apparatus.
前記現在位置が前記目的位置に近づくにつれて前記指示画像が大きくなるように、前記現在位置から前記目的位置までの距離に応じた前記指示画像の大きさを設定する形態設定手段を備え、
前記処理画像表示手段は、前記画像処理として、前記形態設定手段で設定された大きさの前記指示画像を前記撮影画像に対し合成する処理を実行することを特徴とするナビゲーション装置。 The navigation device according to any one of claims 2 to 4,
Form setting means for setting the size of the instruction image according to the distance from the current position to the target position so that the instruction image becomes larger as the current position approaches the target position,
The navigation apparatus characterized in that the processed image display means executes a process of combining the instruction image having a size set by the form setting means with the photographed image as the image processing.
前記現在位置と前記現在位置の周囲の地理と案内経路とが示された地図状の案内画像を前記モニタに表示して前記経路案内を行う地図案内手段と、
前記現在位置が前記目的位置に近づいたか否かを判定する接近判定手段と、
前記処理画像表示手段は、この接近判定手段により、前記現在位置が前記目的位置に近づいたと判定された場合、前記モニタに表示する画像を、前記案内手段による前記地図状の案内画像から、前記処理後の撮影画像に切り替えて表示することを特徴とするナビゲーション装置。 In the navigation apparatus in any one of Claims 1-5,
Map guidance means for displaying the current position, a map around the current position, and a map-like guidance image showing a guidance route on the monitor to perform the route guidance;
An approach determining means for determining whether or not the current position has approached the target position;
The processed image display means, when the approach determining means determines that the current position has approached the target position, an image to be displayed on the monitor from the map-like guide image by the guide means. A navigation device characterized by switching to a later captured image for display.
前記接近判定手段は、前記現在位置と前記目的位置との距離が予め定められた一定距離内であれば、前記現在位置が前記目的位置に近づいたと判定することを特徴とするナビゲーション装置。 The navigation device according to claim 6, wherein
The navigation apparatus according to claim 1, wherein the approach determination unit determines that the current position has approached the target position if a distance between the current position and the target position is within a predetermined distance.
前記接近判定手段は、前記現在位置から前記目的位置までを結ぶ道路が直線であるか否かを判定し、前記道路が直線であると判定された場合に、前記現在位置が前記目的位置に近づいたと判定することを特徴とするナビゲーション装置。 The navigation device according to claim 6, wherein
The approach determining means determines whether or not a road connecting the current position to the destination position is a straight line, and when the road is determined to be a straight line, the current position approaches the destination position. A navigation device characterized by determining that
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011087394A JP5231595B2 (en) | 2006-03-30 | 2011-04-11 | Navigation device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095348 | 2006-03-30 | ||
JP2006095348 | 2006-03-30 | ||
JP2011087394A JP5231595B2 (en) | 2006-03-30 | 2011-04-11 | Navigation device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006201050A Division JP2007292713A (en) | 2006-03-30 | 2006-07-24 | Navigation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011154041A true JP2011154041A (en) | 2011-08-11 |
JP5231595B2 JP5231595B2 (en) | 2013-07-10 |
Family
ID=44540096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011087394A Expired - Fee Related JP5231595B2 (en) | 2006-03-30 | 2011-04-11 | Navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5231595B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014037172A (en) * | 2012-08-13 | 2014-02-27 | Alpine Electronics Inc | Display controller and display control method for head-up display |
WO2015012010A1 (en) | 2013-07-23 | 2015-01-29 | アイシン・エィ・ダブリュ株式会社 | Driving support system, method, and program |
CN110686696A (en) * | 2018-07-06 | 2020-01-14 | 本田技研工业株式会社 | Information presentation device, information presentation method, and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249024A (en) * | 2000-03-06 | 2001-09-14 | Fujitsu Ten Ltd | Automobile navigation system |
JP2003194567A (en) * | 2001-12-25 | 2003-07-09 | Equos Research Co Ltd | Information terminal device and program thereof |
JP2003269971A (en) * | 2002-03-20 | 2003-09-25 | Denso Corp | In-vehicle navigation device |
JP2005241385A (en) * | 2004-02-25 | 2005-09-08 | Sony Ericsson Mobilecommunications Japan Inc | Destination guiding system and portable terminal system |
JP2005331388A (en) * | 2004-05-20 | 2005-12-02 | Noritsu Koki Co Ltd | Navigation system and program |
-
2011
- 2011-04-11 JP JP2011087394A patent/JP5231595B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249024A (en) * | 2000-03-06 | 2001-09-14 | Fujitsu Ten Ltd | Automobile navigation system |
JP2003194567A (en) * | 2001-12-25 | 2003-07-09 | Equos Research Co Ltd | Information terminal device and program thereof |
JP2003269971A (en) * | 2002-03-20 | 2003-09-25 | Denso Corp | In-vehicle navigation device |
JP2005241385A (en) * | 2004-02-25 | 2005-09-08 | Sony Ericsson Mobilecommunications Japan Inc | Destination guiding system and portable terminal system |
JP2005331388A (en) * | 2004-05-20 | 2005-12-02 | Noritsu Koki Co Ltd | Navigation system and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014037172A (en) * | 2012-08-13 | 2014-02-27 | Alpine Electronics Inc | Display controller and display control method for head-up display |
WO2015012010A1 (en) | 2013-07-23 | 2015-01-29 | アイシン・エィ・ダブリュ株式会社 | Driving support system, method, and program |
CN105324637A (en) * | 2013-07-23 | 2016-02-10 | 爱信艾达株式会社 | Driving support system, method, and program |
US9791287B2 (en) | 2013-07-23 | 2017-10-17 | Aisin Aw Co., Ltd. | Drive assist system, method, and program |
CN105324637B (en) * | 2013-07-23 | 2018-02-27 | 爱信艾达株式会社 | Drive assist system, method and storage medium |
CN110686696A (en) * | 2018-07-06 | 2020-01-14 | 本田技研工业株式会社 | Information presentation device, information presentation method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5231595B2 (en) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007292713A (en) | Navigation device | |
JP5798392B2 (en) | Parking assistance device | |
US20080186210A1 (en) | Real-image navigation apparatus | |
JP2009020089A (en) | System, method, and program for navigation | |
JP2007080060A (en) | Object specification device | |
MX2007015348A (en) | Navigation device with camera-info. | |
WO2011100535A1 (en) | Augmented reality maps | |
JP2006242859A (en) | Information display device for vehicle | |
JP2006162442A (en) | Navigation system and navigation method | |
JP2009236844A (en) | Navigation device, navigation method, and navigation program | |
JP5955662B2 (en) | Augmented reality system | |
JP2022176234A (en) | Information display control device, information display control method, and information display control program | |
JP2014211431A (en) | Navigation device, and display control method | |
JP5231595B2 (en) | Navigation device | |
JP6186905B2 (en) | In-vehicle display device and program | |
JP5262232B2 (en) | Image orientation display method and apparatus, and photograph | |
JP2016139914A (en) | Display device, portable terminal and control method | |
JP2002213973A (en) | Image acquiring device and image acquiring method, and program for acquiring image | |
WO2019155557A1 (en) | Information display control device, information display control method, and information display control program | |
KR100833603B1 (en) | Navigation system for providing bird view and method thereof | |
JP6828934B1 (en) | Navigation devices, navigation systems, navigation methods, navigation programs | |
JP2014074627A (en) | Navigation system for vehicle | |
JP3864418B2 (en) | Image display device for vehicle | |
WO2021095198A1 (en) | Meetup assistance device and meetup assistance method | |
JP2009276266A (en) | Navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111209 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120323 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120330 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130321 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5231595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |