JP6763656B2 - Driving guide system - Google Patents

Driving guide system Download PDF

Info

Publication number
JP6763656B2
JP6763656B2 JP2015219315A JP2015219315A JP6763656B2 JP 6763656 B2 JP6763656 B2 JP 6763656B2 JP 2015219315 A JP2015219315 A JP 2015219315A JP 2015219315 A JP2015219315 A JP 2015219315A JP 6763656 B2 JP6763656 B2 JP 6763656B2
Authority
JP
Japan
Prior art keywords
information
virtual space
processing unit
traveling
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015219315A
Other languages
Japanese (ja)
Other versions
JP2017090189A (en
Inventor
利文 村田
利文 村田
Original Assignee
株式会社ソーシャル・キャピタル・デザイン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソーシャル・キャピタル・デザイン filed Critical 株式会社ソーシャル・キャピタル・デザイン
Priority to JP2015219315A priority Critical patent/JP6763656B2/en
Publication of JP2017090189A publication Critical patent/JP2017090189A/en
Application granted granted Critical
Publication of JP6763656B2 publication Critical patent/JP6763656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Description

本発明は,車両などの移動体の操作者に,移動体の走行位置および/または管理対象箇所の位置をガイドする走行ガイドシステムに関する。 The present invention relates to a traveling guide system that guides an operator of a moving body such as a vehicle to a traveling position of the moving body and / or a position of a managed portion.

事故を未然に防止するため,空港では,滑走路の路面の損傷箇所などの管理対象箇所,たとえばひび割れや陥没箇所などを迅速に発見し,修理することが求められている。従来,この作業は,滑走路を使用していないときに,保守作業担当者が車両で滑走路を走行し,目視によって管理対象箇所の発見,修理を行っていた。 In order to prevent accidents, airports are required to quickly find and repair managed areas such as damaged areas on the runway surface, such as cracks and depressions. Conventionally, in this work, when the runway is not in use, a maintenance worker travels on the runway with a vehicle and visually discovers and repairs the managed part.

しかし滑走路は,場合によっては全長3000メートル以上,幅も60メートル程度になる。そのため,目視で滑走路の小さな管理対象箇所を発見するのは困難な作業である。そこで作業の簡易化のため,滑走路の路面を撮像するための撮像装置を備えた車両で滑走路を走行し,走行時に路面を逐次,撮像して管理対象箇所を発見する,という方法が検討されている。 However, in some cases, the runway has a total length of 3000 meters or more and a width of about 60 meters. Therefore, it is a difficult task to visually find a small managed area on the runway. Therefore, in order to simplify the work, a method of traveling on the runway with a vehicle equipped with an imaging device for imaging the road surface of the runway and sequentially imaging the road surface during running to discover the management target location is considered. Has been done.

この場合,滑走路を車両で走行しながら路面を撮像することを,複数回,撮像位置を並行にずらしながら行うことが求められる。しかし,車両を運転するのは人間であるから,つねに直線的に走行することは困難である。また,走行は航空機の離着陸が行われる日中の時間帯を避けて夜間に行わなければならず,目印となるものが見えなくなることから,直線的な走行はますます困難となる。そのため,車両の走行時に,左右へのずれが発生してしまい,滑走路の路面を撮像した画像の大幅な重複や欠落が生じる可能性がある。 In this case, it is required to image the road surface while traveling on the runway with a vehicle while shifting the imaging position in parallel multiple times. However, since it is a human being who drives a vehicle, it is difficult to always drive in a straight line. In addition, traveling must be carried out at night, avoiding the daytime hours when the aircraft takes off and landing, and it becomes even more difficult to drive in a straight line because the landmarks cannot be seen. Therefore, when the vehicle is running, the vehicle may be displaced to the left or right, and there is a possibility that the images of the runway surface may be significantly duplicated or missing.

そこで,滑走路に,車両が走行するためのガイドとなるLEDを搭載したコーン(パイロン)を置き,それに沿って車両が走行する方法が考えられる。 Therefore, a method is conceivable in which a cone (pylon) equipped with an LED that serves as a guide for the vehicle to travel is placed on the runway, and the vehicle travels along the cone (pylon).

また,走行すべき経路をガイドするシステムとしてカーナビゲーションシステムがあり,それを用いることも考えられる。そしてその応用例として,人が進行すべき方向を,日陰の位置に投影することでナビゲーションをするシステムも存在する(特許文献1)。 In addition, there is a car navigation system as a system that guides the route to be traveled, and it is conceivable to use it. As an application example, there is also a system for navigating by projecting the direction in which a person should travel in a shaded position (Patent Document 1).

特開2012−2709号公報Japanese Unexamined Patent Publication No. 2012-2709

滑走路に置いたLED搭載のコーンに沿って車両が走行する方法はもっとも簡易であり,コーンに沿って走行できるので,撮像範囲の大幅な重複や欠落が生じることもない。しかし,コーンを滑走路に置く作業は保守作業担当者が行わなければならず,コーンの設置,回収の作業時間を要することとなる。また,作業終了後にはすべてのコーンを回収しなければならないが,もしコーンを回収し忘れてしまうと,滑走路を使用する飛行機にコーンが接触するなど,事故につながりかねない。そのため,安全性の観点からも問題がある。 The simplest method is for the vehicle to travel along the LED-mounted cone placed on the runway, and since it can travel along the cone, there is no significant overlap or omission of the imaging range. However, the work of placing the cone on the runway must be performed by the person in charge of maintenance work, and it takes time to install and collect the cone. In addition, all cones must be collected after the work is completed, but if the cones are forgotten to be collected, the cones may come into contact with an airplane using the runway, which may lead to an accident. Therefore, there is a problem from the viewpoint of safety.

また,カーナビゲーションシステムの場合,GPSによって現在の位置情報を測位し,現在地点から目的地点まで走行すべき道路をガイドする。そのため,道路や車線に沿って(自由度が1の状態で),ある目的地までどのように到達すべきか,という点においては有益である。しかし,滑走路のように,走行すべき地図がない場所,車線がない場所を走行する場合(自由度が2の状態の場合)や,管理対象箇所の位置を特定する場合には,カーナビゲーションシステムや特許文献1に記載のシステムを用いることはできない。 In the case of a car navigation system, the current position information is determined by GPS and the road to be traveled from the current point to the destination point is guided. Therefore, it is useful in terms of how to reach a certain destination along a road or lane (with one degree of freedom). However, when driving in a place where there is no map to drive, a place where there is no lane (when the degree of freedom is 2) such as a runway, or when specifying the position of a management target part, car navigation The system or the system described in Patent Document 1 cannot be used.

そこで本発明者は上記課題に鑑み,以下の発明をした。 Therefore, the present inventor has made the following invention in view of the above problems.

請求項1の発明は,移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,前記走行ガイドシステムは,位置情報取得装置から位置情報を取得する位置情報取得処理部と,方向情報を取得する方向情報取得処理部と,前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,管理対象箇所の位置情報を記憶する管理対象箇所記憶部と,前記取得した位置情報を用いて,前記管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部と,前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部と,前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部と,を有しており,前記仮想空間情報記憶部は,前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,前記仮想視点画像生成処理部は,前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,走行ガイドシステムである。
また請求項2の発明は,移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,前記走行ガイドシステムは,位置情報取得装置から位置情報を取得する位置情報取得処理部と,方向情報を取得する方向情報取得処理部と,前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部と,を有しており,前記仮想空間情報記憶部は,前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,前記仮想視点画像生成処理部は,前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,走行ガイドシステムである。
The invention of claim 1 is a traveling guide system that guides an operator of a moving object to a traveling position of the moving object, and the traveling guide system is a position information acquisition processing unit that acquires position information from a position information acquisition device. A virtual space corresponding to a part or all of the real space including the direction information acquisition processing unit for acquiring the direction information and the range for guiding the traveling position to the operator of the moving body, and the operator moves. A traveling guide indicating a traveling position where the body should be moved is arranged in the virtual space. The virtual space information storage unit for storing the virtual space information, and the acquired position information and the direction information are used in the virtual space. It is an image of the virtual space including the traveling guide from the virtual viewpoint in the virtual space position conversion processing unit that converts the information of the position and direction of the virtual viewpoint and the virtual space stored in the virtual space information storage unit. By referring to the management target location storage unit using the virtual viewpoint image generation processing unit that generates the virtual viewpoint image, the management target location storage unit that stores the position information of the management target location, and the acquired position information. , A management target location identification processing unit that specifies a management target location within a predetermined range, and a guide image generation processing unit that calculates the distance and / or direction to the specified management target location and generates a guide image to guide. , The virtual space information storage unit has an output processing unit that outputs the generated virtual viewpoint image and / or guide image from the projection device or the display device , and the virtual space information storage unit uses the virtual space as the virtual space information. Part or all of the above is divided into the length direction and the width direction at predetermined intervals, the length direction is represented by the distance from the reference position in the length direction, and the width direction is represented by the lane number from the reference position in the width direction. At the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space, and the virtual viewpoint image generation processing unit is the traveling guide and the traveling guide from the virtual viewpoint. This is a driving guide system that generates virtual viewpoint images including distance markers .
The invention of claim 2 is a traveling guide system that guides the operator of the moving object to the traveling position of the moving object, and the traveling guide system is a position information acquisition process for acquiring position information from the position information acquisition device. A virtual space corresponding to a part or all of a real space including a unit, a direction information acquisition processing unit for acquiring direction information, and a range for guiding a traveling position to an operator of the moving body, and the operator The virtual space using the virtual space information storage unit that stores the virtual space information in which the traveling guide indicating the traveling position where the moving body should be moved is arranged in the virtual space, and the acquired position information and direction information. In the virtual space position conversion processing unit that converts the information of the position and direction of the virtual viewpoint in the above and the virtual space stored in the virtual space information storage unit, the image of the virtual space including the traveling guide from the virtual viewpoint is used. It has a virtual viewpoint image generation processing unit that generates a certain virtual viewpoint image and an output processing unit that outputs the generated virtual viewpoint image from a projection device or a display device. The virtual space information storage unit has. As the virtual space information, a part or all of the virtual space is divided into a length direction and a width direction at predetermined intervals, the length direction is represented by a distance from a reference position in the length direction, and the width direction is defined as a width. It is represented by the lane number from the reference position in the direction, and at the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space, and the virtual viewpoint image generation processing unit is the virtual. This is a traveling guide system that generates a virtual viewpoint image including the traveling guide and the distance marker from a viewpoint .

これらの発明のように構成することで,車両などの移動体の操作者は,滑走路などの自由度が2以上の空間においても,移動体を,走行ガイドにしたがって適切に走行させることが可能となる。そのため,コーンを設置して移動体の走行位置を制御するなどの方法を採る必要がなくなり,作業時間の短縮ができ,安全性を確保することもできる。また,これらの発明のように構成することで,走行ガイドのみならず,距離標が出力される。そのため,距離やレーン番号を通じて,長さ方向,幅方向の位置を操作者は認識することができる。
By configuring as in these inventions, an operator of a moving body such as a vehicle can appropriately move the moving body according to a running guide even in a space having two or more degrees of freedom such as a runway. It becomes. Therefore, it is not necessary to install a cone to control the traveling position of the moving body, the working time can be shortened, and safety can be ensured. Further, by configuring as in these inventions, not only the traveling guide but also the distance marker is output. Therefore, the operator can recognize the positions in the length direction and the width direction through the distance and the lane number.

また,請求項1の発明では,あらかじめ特定してある損傷などの管理対象箇所の中から,所望の管理対象箇所に移動体を移動させることができる。そのため,保守作業などが容易になる。
Further, in the invention of claim 1 , the moving body can be moved to a desired management target location from the management target locations such as damages specified in advance. Therefore, maintenance work becomes easy.

請求項3の発明は,移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,前記走行ガイドシステムは,位置情報取得装置から位置情報を取得する位置情報取得処理部と,方向情報を取得する方向情報取得処理部と,前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,管理対象箇所の位置情報を記憶する管理対象箇所記憶部と,前記取得した位置情報を用いて,前記管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部と,前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部と,前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部と,を有しており,前記方向情報取得処理部は,前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,走行ガイドシステムである。
また請求項4の発明は,移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,前記走行ガイドシステムは,位置情報取得装置から位置情報を取得する位置情報取得処理部と,方向情報を取得する方向情報取得処理部と,前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部と,を有しており,前記方向情報取得処理部は,前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,走行ガイドシステムである。
The invention of claim 3 is a traveling guide system that guides the operator of the moving object to the traveling position of the moving object. The traveling guide system is a position information acquisition processing unit that acquires position information from a position information acquisition device. A virtual space corresponding to a part or all of the real space including the direction information acquisition processing unit for acquiring the direction information and the range for guiding the traveling position to the operator of the moving body, and the operator moves. A traveling guide indicating a traveling position where the body should be moved is arranged in the virtual space. The virtual space information storage unit for storing the virtual space information, and the acquired position information and the direction information are used in the virtual space. It is an image of the virtual space including the traveling guide from the virtual viewpoint in the virtual space position conversion processing unit that converts the information of the position and direction of the virtual viewpoint and the virtual space stored in the virtual space information storage unit. By referring to the management target location storage unit using the virtual viewpoint image generation processing unit that generates the virtual viewpoint image, the management target location storage unit that stores the position information of the management target location, and the acquired position information. , A management target location identification processing unit that specifies a management target location within a predetermined range, and a guide image generation processing unit that calculates the distance and / or direction to the specified management target location and generates a guide image to guide. , The output processing unit that outputs the generated virtual viewpoint image and / or guide image from the projection device or display device , and the direction information acquisition processing unit has the moving speed of the moving body and a predetermined value. If it is determined that the threshold has been exceeded by comparing with the threshold, the calculation process of the direction information using the position information is stopped, or the calculation process of the direction information is performed by the moving average of the position information in the predetermined time. It is a system.
The invention of claim 4 is a traveling guide system that guides the operator of the moving body to the traveling position of the moving body, and the traveling guide system is a position information acquisition process for acquiring position information from the position information acquisition device. A virtual space corresponding to a part or all of a real space including a unit, a direction information acquisition processing unit for acquiring direction information, and a range for guiding a traveling position to an operator of the moving body, and the operator The virtual space using the virtual space information storage unit that stores the virtual space information in which the traveling guide indicating the traveling position where the moving body should be moved is arranged in the virtual space, and the acquired position information and direction information. In the virtual space position conversion processing unit that converts the information of the position and direction of the virtual viewpoint in the above, and the virtual space stored in the virtual space information storage unit, the image of the virtual space including the traveling guide from the virtual viewpoint. It has a virtual viewpoint image generation processing unit that generates a certain virtual viewpoint image and an output processing unit that outputs the generated virtual viewpoint image from a projection device or a display device , and the direction information acquisition processing unit has. When the moving speed of the moving body is compared with a predetermined threshold and it is determined that the threshold is exceeded, the calculation process of the direction information using the position information is stopped, or the direction is determined by the moving average of the position information in the predetermined time. This is a driving guide system that calculates information.

これらの発明のように構成することで,車両などの移動体の操作者は,滑走路などの自由度が2以上の空間においても,移動体を,走行ガイドにしたがって適切に走行させることが可能となる。そのため,コーンを設置して移動体の走行位置を制御するなどの方法を採る必要がなくなり,作業時間の短縮ができ,安全性を確保することもできる。また,位置情報の測位の際には,センサの精度の限界から,誤差がランダムに生じることがある。その場合,位置情報の変化から方向情報を特定し,その方向情報を用いて出力する画像(仮想視点画像)を生成すると,ランダムに方向が歪んでしまうこととなる。そのため,移動体を高速で移動させているときには,出力された画像を操作者が見て,移動体が回転方向に揺らいでいるように感じられ,幻惑されてしまう現象が発生する場合がある。そこでこれらの発明のように構成することで,出力する仮想視点画像の方向についての揺らぎを抑えることができる。さらに,請求項3の発明では,あらかじめ特定してある損傷などの管理対象箇所の中から,所望の管理対象箇所に移動体を移動させることができる。そのため,保守作業などが容易になる。
By configuring as in these inventions, an operator of a moving body such as a vehicle can appropriately move the moving body according to a running guide even in a space having two or more degrees of freedom such as a runway. It becomes. Therefore, it is not necessary to install a cone to control the traveling position of the moving body, the working time can be shortened, and safety can be ensured. In addition, when positioning position information, errors may occur randomly due to the limit of sensor accuracy. In that case, if the direction information is specified from the change in the position information and an image (virtual viewpoint image) to be output is generated using the direction information, the direction will be randomly distorted. Therefore, when the moving body is being moved at high speed, the operator may see the output image and feel that the moving body is swaying in the rotation direction, which may cause a phenomenon of being dazzled. Therefore, by configuring as in these inventions, it is possible to suppress fluctuations in the direction of the output virtual viewpoint image. Further, in the invention of claim 3, the moving body can be moved to a desired management target location from the management target locations such as damages specified in advance. Therefore, maintenance work becomes easy.

上述の発明において,前記仮想空間情報記憶部は,前記仮想空間情報として,前記走行ガイドが,前記移動体の運転者の正面に位置するように配置されている,走行ガイドシステムのように構成することもできる。

In the above-described invention, the virtual space information storage unit is configured like a traveling guide system in which the traveling guide is arranged in front of the driver of the moving body as the virtual space information. You can also do it.

通常の道路上の走行であれば,車両の両脇にガイドとなる車線などの白線が見え,運転者はそれを目安に直線走行するが,運転者から見ると,白線は運転者の視線の正面ではなく,視線から左右方向へのオフセットがあるので,車線の中央を正確に走行するためには最適な視覚情報の与え方とはいえない。しかし,本発明のように,仮想空間情報において,走行ガイドを,運転者の正面となるように配置しておけば,運転者の視線の正面に走行ガイドが投影,表示される。そのため,運転者は走行ガイドが常に自分の正面に来るように運転すればよく,より正確な走行が可能となる。 When driving on a normal road, white lines such as guide lanes can be seen on both sides of the vehicle, and the driver travels straight with that as a guide, but from the driver's point of view, the white line is the driver's line of sight. Since there is an offset from the line of sight to the left and right instead of the front, it cannot be said that it is the optimum way to give visual information in order to drive accurately in the center of the lane. However, as in the present invention, if the driving guide is arranged so as to be in front of the driver in the virtual space information, the driving guide is projected and displayed in front of the driver's line of sight. Therefore, the driver only has to drive so that the driving guide always comes in front of him / her, and more accurate driving becomes possible.

上述の発明において,前記仮想視点画像生成処理部は,さらに,前記移動体または投影装置に備えた3軸慣性センサから3軸の角度情報を取得し,前記仮想視点の仰角,水平回転方向の方角,ねじれ角として反映させて,前記仮想視点画像を生成する,走行ガイドシステムのように構成することができる。 In the above-described invention, the virtual viewpoint image generation processing unit further acquires three-axis angle information from the three-axis inertial sensor provided in the moving body or the projection device, and obtains the elevation angle and the horizontal rotation direction of the virtual viewpoint. , It can be configured like a traveling guide system that generates the virtual viewpoint image by reflecting it as a twist angle.

移動体が移動する場所の凹凸の状況や移動体の加速,減速の状況によっては移動体に設置された投影装置の姿勢が変動し,投影する仮想視点画像の投影位置が不安定な状態となる。そこで,本発明のように構成することで,仮想視点画像の投影位置を概略同じ位置に表示することができる。 The posture of the projection device installed on the moving body changes depending on the unevenness of the place where the moving body moves and the acceleration and deceleration of the moving body, and the projection position of the virtual viewpoint image to be projected becomes unstable. .. Therefore, by configuring as in the present invention, the projection position of the virtual viewpoint image can be displayed at substantially the same position.

上述の発明において,前記管理対象箇所記憶部は,さらに,前記管理対象箇所の位置情報に対応づけて管理対象画像を記憶しており,前記出力処理部は,前記取得した位置情報と,前記管理対象箇所の位置情報とを比較することで前記移動体が前記管理対象箇所からあらかじめ定められた範囲に入ったかを判定し,前記あらかじめ定められた範囲に入ったことを判定すると,前記管理対象箇所記憶部からその管理対象箇所の管理対象画像を抽出して出力する,走行ガイドシステムのように構成することができる。 In the above-described invention, the management target location storage unit further stores the management target image in association with the position information of the management target location, and the output processing unit stores the acquired position information and the management. By comparing with the position information of the target location, it is determined whether the moving body has entered the predetermined range from the management target location, and when it is determined that the moving body has entered the predetermined range, the management target location is determined. It can be configured like a driving guide system that extracts and outputs the managed image of the managed part from the storage unit.

本発明のように構成することで,移動体が管理対象箇所に接近すると,管理対象箇所に,サイズ,位置,方向などの一以上を概略合致させた管理対象画像を出力することができる。そのため,保守作業担当者はそれをみて管理対象箇所のおおよその位置を特定し,迅速に保守作業を進めることができる。 With the configuration as in the present invention, when the moving body approaches the management target location, it is possible to output a management target image in which one or more of the size, position, direction, etc. are roughly matched to the management target location. Therefore, the person in charge of maintenance work can identify the approximate position of the managed part by looking at it and proceed with the maintenance work promptly.

請求項1の発明は,本発明のプログラムをコンピュータで実行することで実現することもできる。すなわち,移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,位置情報取得装置から位置情報を取得する位置情報取得処理部,方向情報を取得する方向情報取得処理部,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,前記取得した位置情報を用いて,管理対象箇所の位置情報を記憶する管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部,前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部,前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,前記仮想視点画像生成処理部は,前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,走行ガイドプログラムである。
請求項2の発明は,本発明のプログラムをコンピュータで実行することで実現することもできる。すなわち,移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,位置情報取得装置から位置情報を取得する位置情報取得処理部,方向情報を取得する方向情報取得処理部,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,前記仮想視点画像生成処理部は,前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,走行ガイドプログラムである。
The invention of claim 1 can also be realized by executing the program of the present invention on a computer. That is, it is a virtual space corresponding to a part or all of the real space including the range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access a storage device that stores virtual space information arranged in a virtual space, a position information acquisition processing unit that acquires position information from the position information acquisition device, a direction information acquisition processing unit that acquires direction information, and the above. A virtual space position conversion processing unit that converts information on the position and orientation of a virtual viewpoint in the virtual space using the acquired position information and direction information, and a virtual space stored in the storage device from the virtual viewpoint. Refer to the virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide, and the management target location storage unit that stores the position information of the management target location using the acquired position information. By doing so, the management target location identification processing unit that identifies the management target location within a predetermined range, the distance and / or direction to the specified management target location is calculated, and the guide image generation process that generates a guide image to guide is generated. A traveling guide program that functions as a unit, an output processing unit that outputs the generated virtual viewpoint image and / or guide image from a projection device or a display device, and is a part of the virtual space or a part of the virtual space as the virtual space information. All are divided into the length direction and the width direction at predetermined intervals, the length direction is represented by the distance from the reference position in the length direction, and the width direction is represented by the lane number from the reference position in the width direction. At the intersection of the lane numbers, a distance marker indicating the distance and the lane number is arranged in the virtual space, and the virtual viewpoint image generation processing unit includes the traveling guide and the distance marker from the virtual viewpoint. This is a driving guide program that generates a virtual viewpoint image .
The invention of claim 2 can also be realized by executing the program of the present invention on a computer. That is, it is a virtual space corresponding to a part or all of the real space including the range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access a storage device that stores virtual space information arranged in a virtual space, a position information acquisition processing unit that acquires position information from the position information acquisition device, a direction information acquisition processing unit that acquires direction information, and the above. A virtual space position conversion processing unit that converts information on the position and orientation of a virtual viewpoint in the virtual space using the acquired position information and direction information, and a virtual space stored in the storage device from the virtual viewpoint. virtual viewpoint image generation processing unit, a virtual viewpoint image which the generated travel guide to function as an output unit, output from the projection device or a display device for generating a virtual viewpoint image wherein an image of the virtual space including the travel guide In the program, as the virtual space information, a part or all of the virtual space is divided into a length direction and a width direction at predetermined intervals, and the length direction is represented by a distance from a reference position in the length direction. The width direction is represented by the lane number from the reference position in the width direction, and at the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space, and the virtual viewpoint image generation process is performed. The unit is a traveling guide program that generates a virtual viewpoint image including the traveling guide and the distance marker from the virtual viewpoint .

請求項3の発明は,本発明のプログラムをコンピュータで実行することで実現することもできる。すなわち,移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,位置情報取得装置から位置情報を取得する位置情報取得処理部,方向情報を取得する方向情報取得処理部,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,前記取得した位置情報を用いて,管理対象箇所の位置情報を記憶する管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部,前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部,前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,前記方向情報取得処理部は,前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,走行ガイドプログラムである。
請求項4の発明は,本発明のプログラムをコンピュータで実行することで実現することもできる。すなわち,移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,位置情報取得装置から位置情報を取得する位置情報取得処理部,方向情報を取得する方向情報取得処理部,前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,前記方向情報取得処理部は,前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,走行ガイドプログラムである。
The invention of claim 3 can also be realized by executing the program of the present invention on a computer. That is, it is a virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access a storage device that stores virtual space information arranged in a virtual space is a position information acquisition processing unit that acquires position information from the position information acquisition device, a direction information acquisition processing unit that acquires direction information, and the above. A virtual space position conversion processing unit that converts information on the position and orientation of a virtual viewpoint in the virtual space using the acquired position information and direction information, and a virtual space stored in the storage device from the virtual viewpoint. Refer to the virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide, and the management target location storage unit that stores the position information of the management target location using the acquired position information. By doing so, the management target location identification processing unit that identifies the management target location within a predetermined range, the distance and / or direction to the specified management target location is calculated, and the guide image generation process that generates a guide image to guide is generated. A traveling guide program that functions as a unit, an output processing unit that outputs the generated virtual viewpoint image and / or guide image from a projection device or a display device , and the direction information acquisition processing unit is a movement of the moving body. When the speed is compared with a predetermined threshold and it is determined that the threshold is exceeded, the direction information calculation process using the position information is stopped, or the direction information calculation process is performed by the moving average of the position information at the predetermined time. This is a driving guide program.
The invention of claim 4 can also be realized by executing the program of the present invention on a computer. That is, it is a virtual space corresponding to a part or all of the real space including the range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access a storage device that stores virtual space information arranged in a virtual space is a position information acquisition processing unit that acquires position information from the position information acquisition device, a direction information acquisition processing unit that acquires direction information, and the above. A virtual space position conversion processing unit that converts information on the position and orientation of a virtual viewpoint in the virtual space using the acquired position information and direction information, and a virtual space stored in the storage device from the virtual viewpoint. virtual viewpoint image generation processing unit, a virtual viewpoint image which the generated travel guide to function as an output unit, output from the projection device or a display device for generating a virtual viewpoint image wherein an image of the virtual space including the travel guide In the program, the direction information acquisition processing unit compares the moving speed of the moving body with a predetermined threshold, and if it is determined that the threshold is exceeded, the direction information calculation process using the position information is stopped. This is a travel guide program that calculates direction information based on the moving average of position information at a predetermined time .

本発明の走行ガイドシステムでは,移動体に搭載した投影装置などで走行する位置を路面に投影,あるいは表示位置に表示し,操作者はそれにしたがって車両などの移動体を走行させれば良いだけであるので,操作者にとっては簡単である。また,滑走路に滑走路にコーンなどを置く必要もないので,作業時間の短縮ができるとともに,安全性を損なうこともない。 In the traveling guide system of the present invention, the traveling position is projected on the road surface or displayed on the display position by the projection device mounted on the moving body, and the operator only needs to drive the moving body such as a vehicle accordingly. Because there is, it is easy for the operator. In addition, since it is not necessary to place a cone or the like on the runway on the runway, the working time can be shortened and the safety is not impaired.

本発明の走行ガイドシステムのシステム構成の概念の一例を模式的に示す概念図である。It is a conceptual diagram which shows typically an example of the concept of the system structure of the traveling guide system of this invention. 管理コンピュータのハードウェア構成の一例を模式的に示す概念図である。It is a conceptual diagram which shows an example of the hardware configuration of a management computer schematically. 本発明の走行ガイドシステムの処理プロセスの一例を模式的に示すフローチャートである。It is a flowchart which shows typically an example of the processing process of the traveling guide system of this invention. 走行ガイドシステムを搭載した車両が,撮像装置を備えた牽引台車を牽引している状態の一例を模式的に示す図である。It is a figure which shows typically an example of the state in which a vehicle equipped with a traveling guide system is towing a towing carriage equipped with an image pickup device. 車両が牽引台車を牽引しているときに,撮像装置で撮像をする状態の一例を模式的に示す図である。It is a figure which shows typically an example of the state which takes an image with an image pickup apparatus when a vehicle is towing a towing carriage. 撮像装置による撮像範囲の一例を模式的に示す図である。It is a figure which shows an example of the imaging range by an imaging apparatus schematically. 投影装置が車両に取り付けられた状態の一例を模式的に示す図である。It is a figure which shows typically an example of the state which the projection device is attached to a vehicle. 仮想空間情報を図として表した一例を模式的に示す図である。It is a figure which shows typically an example which represented the virtual space information as a figure. レーンの幅を模式的に示す図である。It is a figure which shows typically the width of a lane. 車両による走行経路の一例を模式的に示す図である。It is a figure which shows an example of the traveling path by a vehicle schematically. 投影装置によって画像を投影した際に,運転席からの視認状況の一例を模式的に示す図である。It is a figure which shows typically an example of the visual recognition situation from a driver's seat when an image is projected by a projection device. 投影装置によって画像を投影した場合の俯瞰図である。It is a bird's-eye view when an image is projected by a projection device. 仮想空間に配置されている走行ガイドと投影装置の投影範囲を示す上方からの図である。It is a figure from above which shows the projection range of a traveling guide and a projection device arranged in a virtual space. 投影する仮想空間の画像の一例を模式的に示す図である。It is a figure which shows an example of the image of the virtual space to be projected schematically. 投影する仮想空間の画像の一例を模式的に示す図である。It is a figure which shows an example of the image of the virtual space to be projected schematically. 走行経路の低速走行,高速走行の各領域の一例を模式的に示す図である。It is a figure which shows an example of each area of low-speed running and high-speed running of a running path schematically. 実施例4における走行ガイドシステムのシステム構成の概念の一例を模式的に示す図である。It is a figure which shows typically an example of the concept of the system structure of the traveling guide system in Example 4. 生成するガイド画像の一例を模式的に示す図である。It is a figure which shows an example of the generated guide image schematically. 実施例4における走行ガイドシステムの処理プロセスの一例を模式的に示すフローチャートである。It is a flowchart which shows typically an example of the processing process of the traveling guide system in Example 4. 管理対象箇所に接近した場合に管理対象画像を路面に投影した場合の一例を模式的に示す図である。It is a figure which shows typically an example of the case where the management target image is projected on the road surface when approaching a management target place. 仮想空間における滑走路を模式的に示した図である。It is a figure which showed typically the runway in a virtual space. 仮想空間における滑走路でのカメラ位置(仮想視点)を模式的に示す図である。It is a figure which shows typically the camera position (virtual viewpoint) on the runway in a virtual space. 仮想空間位置変換処理部23における,実空間の位置情報,方向情報を,仮想空間情報における仮想視点の位置情報と向きの情報に変換する処理を模式的に示す図である。It is a figure which shows typically the process which the virtual space position conversion processing unit 23 converts the position information and direction information of a real space into the position information and direction information of a virtual viewpoint in virtual space information.

本発明の走行ガイドシステム1は車両10などの移動体に搭載される。なお,以下の説明では移動体として車両10の場合を説明するが,それ以外の移動体であっても良い。また,移動体が車両であるので,その操作者としては運転者とする。図1に走行ガイドシステム1のシステム構成の一例の概念図を模式的に示す。また,図2に走行ガイドシステム1を構成する管理コンピュータ2のハードウェア構成の一例を模式的に示す。 The traveling guide system 1 of the present invention is mounted on a moving body such as a vehicle 10. In the following description, the case of the vehicle 10 as the moving body will be described, but other moving bodies may be used. Moreover, since the moving body is a vehicle, the operator is a driver. FIG. 1 schematically shows a conceptual diagram of an example of the system configuration of the traveling guide system 1. Further, FIG. 2 schematically shows an example of the hardware configuration of the management computer 2 constituting the traveling guide system 1.

走行ガイドシステム1は,管理コンピュータ2とGPS装置3と,投影装置4および/または表示装置5とを有する。管理コンピュータ2は,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71とを備える。場合によっては,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置が備えられていても良い。 The travel guide system 1 includes a management computer 2, a GPS device 3, a projection device 4 and / or a display device 5. The management computer 2 includes an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, and a storage device 71 such as a RAM or a hard disk that stores information. In some cases, a communication device for transmitting and receiving the processing result of the arithmetic unit 70 and the information stored in the storage device 71 via a network such as the Internet or LAN may be provided.

図1では走行ガイドシステム1が一台のコンピュータで実現される場合を示したが,複数台のコンピュータにその機能が分散配置され,実現されても良い。 Although FIG. 1 shows a case where the traveling guide system 1 is realized by one computer, the functions may be distributed and realized by a plurality of computers.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。 Each means in the present invention has only a logical distinction in its function, and may form the same area physically or substantially.

移動体としての車両10に牽引台車11が取り付けられた状態の一例を図4に模式的に示す。図4では,車両10の後方に,撮像装置6を搭載した牽引台車11を牽引しており,牽引台車11の撮像装置6で路面の撮影を行う。図5は,車両10が牽引台車11を牽引しているときに,撮像装置6で撮像をする状態を模式的に示す図である。 FIG. 4 schematically shows an example of a state in which the towing carriage 11 is attached to the vehicle 10 as a moving body. In FIG. 4, a towing carriage 11 equipped with an image pickup device 6 is towed behind the vehicle 10, and the image pickup device 6 of the towing carriage 11 photographs the road surface. FIG. 5 is a diagram schematically showing a state in which an image pickup device 6 captures an image when the vehicle 10 is towing the towing carriage 11.

牽引台車11は,鉄やステンレスなどの金属製の枠体9によって形成されており,牽引台車11の後方左右にはそれぞれ車輪が取り付けられている。また,枠体9には,撮像装置6による撮像範囲を照らすためのLEDランプなどの照明装置7を取り付けた吊具8Lと,撮像装置6を取り付けた吊具8Cが取り付けられている。さらに撮像装置6の上方にはGPS装置3が取り付けられている。撮像装置6は路面を撮像するように,レンズが路面方向に向けられて吊具8Cに取り付けられており,照明装置7も路面を光で照射するように吊具8Lに取り付けられている。図4の例では,牽引台車11の左右の方向に2台の撮像装置6a,6bが取り付けられている。以下の説明では,図4における牽引台車11の左側の撮像装置6aを第1撮像装置,右側の撮像装置6bを第2撮像装置ということがある。 The towing carriage 11 is formed of a metal frame 9 such as iron or stainless steel, and wheels are attached to the rear left and right sides of the towing carriage 11. Further, a hanger 8L to which a lighting device 7 such as an LED lamp for illuminating an image pickup range by the image pickup device 6 is attached and a hanger 8C to which the image pickup device 6 is attached are attached to the frame body 9. Further, a GPS device 3 is attached above the image pickup device 6. The image pickup device 6 is attached to the hanger 8C so that the lens is directed toward the road surface so as to image the road surface, and the lighting device 7 is also attached to the hanger 8L so as to irradiate the road surface with light. In the example of FIG. 4, two image pickup devices 6a and 6b are attached in the left-right direction of the towing carriage 11. In the following description, the image pickup device 6a on the left side of the towing carriage 11 in FIG. 4 may be referred to as a first image pickup device, and the image pickup device 6b on the right side may be referred to as a second image pickup device.

牽引台車11の照明装置7は撮像を行う際には路面を照明で照らしており,各撮像装置6a,6bが,一定時間,たとえば1/30秒ごとに路面の撮像を行う。そして車両10が牽引台車11を牽引しながら一定の速度で移動するので,図6に示すように,路面を撮像することができる。この際に,第1撮像装置6a,第2撮像装置6bの撮像範囲が一部重なるように,牽引台車11に取り付けられることがよい。撮像した画像が一部重なることによって,その重なりを検出することで,隣接する画像同士を正確に合成することができるからである。 The lighting device 7 of the tow truck 11 illuminates the road surface with illumination when taking an image, and each of the image pickup devices 6a and 6b takes an image of the road surface for a certain period of time, for example, every 1/30 second. Then, since the vehicle 10 moves at a constant speed while towing the towing carriage 11, the road surface can be imaged as shown in FIG. At this time, it may be attached to the towing carriage 11 so that the imaging ranges of the first imaging device 6a and the second imaging device 6b partially overlap. This is because the captured images partially overlap, and by detecting the overlap, adjacent images can be accurately combined.

また,撮像の時間間隔は,一つ前の撮像範囲と今回の撮像範囲とが一部重なるような間隔となることがよい。これも,撮像した画像が一部重なることによって,その重なりを検出することで,隣接する画像同士を正確に合成することができるからである。撮像間隔は,車両10の走行速度にも依存するので,車両10の走行速度と関連づけて適切な値を選んで設定することが可能である。なお,車速センサから車両10の走行速度の情報を受け取り,走行速度から撮像間隔を自動的に設定するように構成しても良い。 In addition, the time interval for imaging may be such that the previous imaging range and the current imaging range partially overlap. This is also because the captured images partially overlap, and by detecting the overlap, adjacent images can be accurately combined. Since the imaging interval also depends on the traveling speed of the vehicle 10, it is possible to select and set an appropriate value in association with the traveling speed of the vehicle 10. It should be noted that the vehicle speed sensor may be configured to receive information on the traveling speed of the vehicle 10 and automatically set the imaging interval from the traveling speed.

なお,車両10に取り付けられた管理コンピュータ2と,牽引台車11に取り付けられた各装置との間の情報の送受信は,有線または無線により適宜,行われる。また,管理コンピュータ2が牽引台車11に取り付けられていてもよい。 Information is transmitted and received between the management computer 2 attached to the vehicle 10 and each device attached to the towing carriage 11 as appropriate by wire or wirelessly. Further, the management computer 2 may be attached to the towing carriage 11.

本発明の実施例では,車両10と牽引台車11の場合を説明するが,それらが一台で構成されていてもよい。また,牽引台車11の構成は,撮像装置6で路面を撮像できる構成であれば如何なる構成であっても良い。 In the embodiment of the present invention, the case of the vehicle 10 and the towing carriage 11 will be described, but they may be composed of one vehicle. Further, the configuration of the towing carriage 11 may be any configuration as long as the road surface can be imaged by the imaging device 6.

投影装置4は,車両10の進行方向前方を投影することができる位置であれば,どの位置に設置されても良いが,たとえば車両10のルーフ,運転席や助手席の天井付近,フロントガラス付近に設置されていても良い。投影装置4が車両10に取り付けられた状態の一例を図7に模式的に示す。図7(a)は車両10のルーフに投影装置4が取り付けられた状態の一例を模式的に示しており,図7(b)は車両10の助手席に投影装置4が取り付けられた状態の一例を模式的に示している。 The projection device 4 may be installed at any position as long as it can project the front in the traveling direction of the vehicle 10. For example, the roof of the vehicle 10, the vicinity of the ceiling of the driver's seat or the passenger's seat, and the vicinity of the windshield. It may be installed in. FIG. 7 schematically shows an example of a state in which the projection device 4 is attached to the vehicle 10. FIG. 7A schematically shows an example of a state in which the projection device 4 is attached to the roof of the vehicle 10, and FIG. 7B is a state in which the projection device 4 is attached to the passenger seat of the vehicle 10. An example is schematically shown.

なお,投影装置4の位置にGPS装置3が取り付けられることが好ましいが,投影装置4とGPS装置3との取り付け位置が異なる場合,投影装置4の位置とGPS装置3の位置とに,前後,左右のそれぞれどの方向にどれだけオフセットがあるかを管理しておき,GPS装置3で取得した位置情報を上記管理しているオフセットで補正をし,投影装置4の位置を算出すると,より正確に投影装置4の位置情報を取得することができる。 It is preferable that the GPS device 3 is attached to the position of the projection device 4, but when the attachment positions of the projection device 4 and the GPS device 3 are different, the positions of the projection device 4 and the GPS device 3 are moved back and forth. It is more accurate to manage the amount of offset in each of the left and right directions, correct the position information acquired by the GPS device 3 with the above-managed offset, and calculate the position of the projection device 4. The position information of the projection device 4 can be acquired.

投影装置4としては,プロジェクタを用いることができる。たとえばセイコーエプソン社製のビジネスプロジェクタ「EB−S03」(明るさ2600lm(ルーメン),画素数800×600)を用いることができるが,それに限定されるものではない。現在の比較的安価な撮像装置6と照明装置7の性能では,路面を良好に撮像するためには,車両10は時速30キロメートル以下で走行することが好ましい。その場合,投影装置4で30メートル程度先まで投影できれば,運転者に十分なフィードバック情報を提供できる。そのため,好ましくは30メートル先程度まで投影できる程度の投影装置4の性能があればよい。また,夜の滑走路のように暗いところで投影を行う場合には,投影装置4としては,明るさが3000ルーメン以下の安価なプロジェクタを用いたとしても30メートル先まで投影することが可能となる。 A projector can be used as the projection device 4. For example, a business projector "EB-S03" (brightness 2600 lm (lumen), number of pixels 800 x 600) manufactured by Seiko Epson can be used, but the present invention is not limited thereto. With the performance of the current relatively inexpensive imaging device 6 and lighting device 7, it is preferable that the vehicle 10 travels at a speed of 30 km / h or less in order to image the road surface well. In that case, if the projection device 4 can project up to about 30 meters ahead, sufficient feedback information can be provided to the driver. Therefore, it is preferable that the performance of the projection device 4 is such that it can project up to about 30 meters away. Further, when projecting in a dark place such as a runway at night, the projection device 4 can project up to 30 meters even if an inexpensive projector having a brightness of 3000 lumens or less is used. ..

投影装置4は,投影対象,たとえば路面に投影できるように設置位置,投影角度が調整される。プロジェクタは通常,水平に設置すると斜め上向きに投影をし,水平より下はわずかな角度しか投影されない。そこで,投影装置4としてプロジェクタを用いる場合には,プロジェクタを上下逆にして設置することが好ましい。これによって,プロジェクタの水平位置より下向きに(路面方向に)投影できるため,プロジェクタによる投影範囲を広く確保することができる。 The installation position and projection angle of the projection device 4 are adjusted so that the projection device 4 can be projected onto a projection target, for example, a road surface. Projectors usually project diagonally upwards when installed horizontally, and project only a small angle below horizontal. Therefore, when a projector is used as the projection device 4, it is preferable to install the projector upside down. As a result, it is possible to project downward (toward the road surface) from the horizontal position of the projector, so that a wide projection range by the projector can be secured.

表示装置5は,車両10の運転者が視認可能な位置に取り付けられていれば良い。表示装置5として透過型ディスプレイや透過型スクリーンを用いる場合には,運転者の視線の先に表示装置5が位置するように,たとえばダッシュボードの上部付近や,運転席のルーフに設置されたサンバイザーの下方にヘッドアップディスプレイ状に設置することができる。 The display device 5 may be mounted at a position that can be visually recognized by the driver of the vehicle 10. When a transmissive display or a transmissive screen is used as the display device 5, a sun installed near the upper part of the dashboard or on the roof of the driver's seat so that the display device 5 is located in front of the driver's line of sight. It can be installed like a head-up display below the visor.

走行ガイドシステム1の管理コンピュータ2は,位置情報取得処理部20と方向情報取得処理部21と仮想空間情報記憶部22と仮想空間位置変換処理部23と仮想視点画像生成処理部24と出力処理部25とを有する。 The management computer 2 of the traveling guide system 1 includes a position information acquisition processing unit 20, a direction information acquisition processing unit 21, a virtual space information storage unit 22, a virtual space position conversion processing unit 23, a virtual viewpoint image generation processing unit 24, and an output processing unit. It has 25 and.

位置情報取得処理部20は,GPS装置3などの位置情報を取得する装置によって位置情報としての緯度,経度情報を取得する。なお,位置情報取得装置としてGPS装置3による緯度,経度情報のほかにも,ジャイロセンサなどの各種センサを用いて,走行開始位置からの位置を取得しても良い。 The position information acquisition processing unit 20 acquires latitude and longitude information as position information by a device that acquires position information such as a GPS device 3. As the position information acquisition device, in addition to the latitude and longitude information obtained by the GPS device 3, various sensors such as a gyro sensor may be used to acquire the position from the traveling start position.

方向情報取得処理部21は,GPS装置3によって車両10の進行方向の情報を取得する。なお,車両10の進行方向の情報は,ジャイロセンサや加速度センサなどの各種センサによって方向情報を取得することができるが,位置情報取得処理部20で取得した位置情報の変化によって進行方向を取得しても良い。各種センサはGPS装置3などの装置に設置されていても良いし,車両10に設置されているセンサを用いても良い。 The direction information acquisition processing unit 21 acquires information on the traveling direction of the vehicle 10 by the GPS device 3. Information on the traveling direction of the vehicle 10 can be acquired by various sensors such as a gyro sensor and an acceleration sensor, but the traveling direction is acquired by a change in the position information acquired by the position information acquisition processing unit 20. You may. The various sensors may be installed in a device such as the GPS device 3, or the sensors installed in the vehicle 10 may be used.

仮想空間情報記憶部22は,車両10の運転者に対して,後述の出力処理部25により画像を出力して走行ガイドを行う実空間の一部または全部を,2次元または3次元モデル化した空間情報(仮想空間情報)として記憶する。実空間と仮想空間とは縮尺が等倍率(1倍)であることが好ましいが,実空間とは異なる倍率の仮想空間としてモデル化され,出力処理の際などに倍率変更され,実空間に対応するように出力されても良い。 The virtual space information storage unit 22 has modeled a part or all of the real space in which the driver of the vehicle 10 outputs an image by the output processing unit 25 described later to guide the traveling in two or three dimensions. Store as spatial information (virtual space information). It is preferable that the scale of the real space and the virtual space is the same magnification (1x), but it is modeled as a virtual space with a magnification different from that of the real space, and the magnification is changed during output processing to correspond to the real space. It may be output so as to.

仮想空間情報には,さらに,実空間において車両が走行すべき位置に対応する仮想空間上の位置に,車両10の走行すべき位置や目的地となる管理対象箇所の位置を運転者に示す走行ガイドがオブジェクトとして配置されている。たとえば仮想空間情報が空港の滑走路の場合,撮像範囲の滑走路が仮想空間としてモデル化されており,仮想空間の滑走路の路面上には,走行ガイドである三角マークがオブジェクトとして,実空間で車両10が走行すべき滑走路の位置に対応するように配置されている。なお,走行ガイドとして好ましいのは進行方向を示せる三角マークであるが,それに限定されるものではなく,たとえば線や矢印,丸印などの記号や文字,数字,図形などいかなるものであっても良い。走行ガイドは,投影装置4で投影すべき場所に表示されるので,仮想空間においても,滑走路の路面上に走行ガイドが配置されると良い。 The virtual space information further indicates to the driver the position on the virtual space corresponding to the position where the vehicle should travel in the real space, the position where the vehicle 10 should travel, and the position of the management target location which is the destination. Guides are arranged as objects. For example, when the virtual space information is an airport runway, the runway in the imaging range is modeled as a virtual space, and on the road surface of the runway in the virtual space, a triangular mark, which is a travel guide, is an object in the real space. The vehicle 10 is arranged so as to correspond to the position of the runway on which the vehicle 10 should travel. A triangular mark that can indicate the direction of travel is preferable as a traveling guide, but the traveling guide is not limited to that, and any symbol such as a line, an arrow, or a circle, a character, a number, or a figure may be used. .. Since the traveling guide is displayed at the place to be projected by the projection device 4, it is preferable that the traveling guide is arranged on the road surface of the runway even in the virtual space.

仮想空間における滑走路を所定間隔で長さ,幅方向に区切り,長さ方向を滑走路の撮像範囲の所定位置からの距離(たとえば,メートル単位で0から3000)で表し,幅方向を,幅方向の基準位置からの撮影範囲を考慮した所定幅ごとのレーン番号(たとえば,中央のレーン番号0を基準として,その左右のレーン番号を−10から+10とする)で表す。そして距離,レーン番号の交点には,距離およびレーン番号を示す距離標がオブジェクトとして滑走路の路面上に配置されている。 The runway in the virtual space is divided into length and width directions at predetermined intervals, and the length direction is represented by the distance from the predetermined position of the runway imaging range (for example, 0 to 3000 in meters), and the width direction is defined as width. It is represented by a lane number for each predetermined width in consideration of the shooting range from the reference position in the direction (for example, the center lane number 0 is used as a reference, and the left and right lane numbers are -10 to +10). At the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged as an object on the road surface of the runway.

実空間の滑走路を仮想空間として3次元モデル化し,走行ガイドと距離標をオブジェクトとして滑走路の路面上に配置した場合の仮想空間情報の一例を図8に示す。図8(a)は仮想空間情報の一部を俯瞰したものであり,図8(b)は仮想空間情報の一部を上方から示したものである。なお,図8(b)では,仮想空間におけるレーンの間隔を3メートル,仮想空間の長さ方向の距離標の配置間隔を5メートルとした場合を示しているが,それに限定されない。 FIG. 8 shows an example of virtual space information when a runway in a real space is three-dimensionally modeled as a virtual space and a travel guide and a distance marker are arranged as objects on the road surface of the runway. FIG. 8A is a bird's-eye view of a part of the virtual space information, and FIG. 8B is a part of the virtual space information shown from above. Note that FIG. 8B shows a case where the distance between the lanes in the virtual space is 3 meters and the distance between the distance markers in the length direction of the virtual space is 5 meters, but the present invention is not limited to this.

レーンの幅としては,牽引台車11に取り付けられた撮像装置6による撮影範囲よりも若干,狭くなることが好ましい。これを模式的に示すのが図9である。撮像した画像に対応づけられた位置情報に基づいて隣接する画像であることを判定し,判定した画像同士の重なりを検出することで,隣接した画像を一つの画像に隣接させて組み合わせる。 The width of the lane is preferably slightly narrower than the imaging range of the image pickup device 6 attached to the towing carriage 11. This is schematically shown in FIG. By determining that they are adjacent images based on the position information associated with the captured image and detecting the overlap between the determined images, the adjacent images are combined adjacent to one image.

図8(b)および図9におけるレーン間の距離3メートルは,牽引台車11に設置した撮像装置6a,6bの2台分をあわせた撮像範囲が4メートルとした場合である。この場合,レーンを3メートル間隔として車両10が往復走行をすれば,隣のレーンを走行した場合と撮像範囲が1メートル重複する。そのため,車両10を走行させたときのぶれが左右50センチメートルに収まっていれば撮像範囲に抜けが生じないこととなる。 The distance of 3 meters between the lanes in FIGS. 8 (b) and 9 is a case where the total imaging range of the two imaging devices 6a and 6b installed on the towing carriage 11 is 4 meters. In this case, if the vehicle 10 reciprocates with the lanes at intervals of 3 meters, the imaging range overlaps with that of traveling in the adjacent lane by 1 meter. Therefore, if the blurring when the vehicle 10 is driven is within 50 cm to the left and right, the imaging range will not be missed.

仮想空間では,運転者が車両10を走行させるのに必要な最小限の情報である走行ガイドがあれば足りるが,それ以外に,上述の距離標,目標物などのオブジェクトが仮想空間情報として配置されていても良い。 In the virtual space, it is sufficient to have a driving guide, which is the minimum information necessary for the driver to drive the vehicle 10, but in addition to that, objects such as the above-mentioned distance markers and targets are arranged as virtual space information. It may have been done.

仮想空間位置変換処理部23は,位置情報取得処理部20で取得した位置情報,方向情報取得処理部21で取得した方向情報,あらかじめ設定されている投影装置4の高さ情報を用いて,仮想空間情報記憶部22に記憶する仮想空間情報における視点(仮想視点)の位置情報とその視点の向きの情報に変換処理を行う。 The virtual space position conversion processing unit 23 virtually uses the position information acquired by the position information acquisition processing unit 20, the direction information acquired by the direction information acquisition processing unit 21, and the height information of the projection device 4 set in advance. The conversion process is performed on the position information of the viewpoint (virtual viewpoint) in the virtual space information stored in the spatial information storage unit 22 and the information of the direction of the viewpoint.

仮想空間位置変換処理部23において,実空間の位置情報,方向情報を,仮想空間情報における仮想視点の位置情報と向きの情報に変換する処理は,たとえば以下のように処理を行うことで実現できる。 In the virtual space position conversion processing unit 23, the process of converting the position information and the direction information of the real space into the position information and the direction information of the virtual viewpoint in the virtual space information can be realized by performing the following processing, for example. ..

一例として,仮想空間情報記憶部22には,実空間における滑走路(幅60メートル,距離3000メートル)と縮尺が1倍である滑走路(幅60メートル,距離3000メートル)が3次元モデル化されている。そして,走行ガイドおよび距離標が仮想空間の滑走路にオブジェクトとして配置されている。このような仮想空間情報が仮想空間情報記憶部22に記憶されているとする。仮想空間としてモデル化された滑走路の一例が図21である。図21では,滑走路の幅方向にX軸,距離方向にY軸となる。そして幅60メートルのうち,その中心(端から30メートルの位置)をX=0とする。 As an example, in the virtual space information storage unit 22, a runway (width 60 meters, distance 3000 meters) in the real space and a runway (width 60 meters, distance 3000 meters) whose scale is 1 times are three-dimensionally modeled. ing. Then, the traveling guide and the distance marker are arranged as objects on the runway in the virtual space. It is assumed that such virtual space information is stored in the virtual space information storage unit 22. FIG. 21 shows an example of a runway modeled as a virtual space. In FIG. 21, the runway has an X-axis in the width direction and a Y-axis in the distance direction. Then, of the width of 60 meters, the center (position 30 meters from the edge) is set to X = 0.

投影装置4を車両10のルーフに設置した場合,出力処理部25で投影処理を行うときの投影装置4の高さは変わらない。そのため実空間における投影装置4の高さは,仮想空間におけるZ座標に対応する。したがって,仮想空間上の仮想視点(カメラ位置と向き)を制御するパラメータは,原点からのカメラ位置のオフセット(x1,y1)と,カメラの向きθとなる。これを,模式的に示すのが図22である。なお,実空間において投影装置4の高さが変わる場合には,GPS装置3から取得した高さ情報を仮想空間におけるZ座標にすればよい。 When the projection device 4 is installed on the roof of the vehicle 10, the height of the projection device 4 does not change when the output processing unit 25 performs the projection process. Therefore, the height of the projection device 4 in the real space corresponds to the Z coordinate in the virtual space. Therefore, the parameters that control the virtual viewpoint (camera position and orientation) in the virtual space are the offset of the camera position from the origin (x1, y1) and the orientation θ of the camera. This is schematically shown in FIG. When the height of the projection device 4 changes in the real space, the height information acquired from the GPS device 3 may be used as the Z coordinate in the virtual space.

このような前提のもと,仮想空間位置変換処理部23は,図23に示す変換処理を実行する。まず,位置情報取得処理部20で位置情報として緯度,経度情報を取得している場合,たとえば平成14年国土交通省告示第9号に基づいて,平面直交座標系(x,y)に変換をする。そして,平面直交座標系と仮想空間座標系とでは座標系にずれが生じているので,そのずれの角度φに基づいて,平面直交座標系(x,y)の座標を,さらに仮想空間の座標系に変換する。なお,滑走路における始点の平面直交座標系(X1,Y1)は,その位置情報としての緯度,経度情報に基づいてあらかじめ算出しておく。 Based on such a premise, the virtual space position conversion processing unit 23 executes the conversion processing shown in FIG. 23. First, when the position information acquisition processing unit 20 acquires latitude and longitude information as position information, it is converted to a plane orthogonal coordinate system (x, y) based on, for example, 2002 Ministry of Land, Infrastructure, Transport and Tourism Notification No. 9. To do. Since there is a deviation in the coordinate system between the plane orthogonal coordinate system and the virtual space coordinate system, the coordinates of the plane orthogonal coordinate system (x, y) are further added to the coordinates of the virtual space based on the angle φ of the deviation. Convert to a system. The plane orthogonal coordinate system (X1, Y1) of the start point on the runway is calculated in advance based on the latitude and longitude information as the position information.

以上のように座標系の変換処理をした後,仮想空間情報における仮想視点の位置(xc,yc)に変換を行う。このような処理をすることで,位置情報取得処理部10で取得した位置情報を仮想視点の位置に変換することができる。 After the coordinate system conversion processing is performed as described above, the conversion is performed to the position (xc, yc) of the virtual viewpoint in the virtual space information. By performing such processing, the position information acquired by the position information acquisition processing unit 10 can be converted into the position of the virtual viewpoint.

すなわち,仮想空間位置変換処理部23における位置情報の変換処理は,
xc=(X1−x)×cos(φ)−(y−Y1)×sin(φ)
yc=(X1−x)×sin(φ)+(y−Y1)×cos(φ)
を演算することで,仮想視点の位置(xc,yc)に変換できる。
なお,平面直交座標系のX軸は,座標系原点において子午線に一致する軸とし,真北に向かう値を正とし,座標系のY軸は,座標系原点において座標系のX軸に直交する軸とし,真東に向かう値を正としている。そのため,通常の座標系とX,Yが入れ替わった演算式となる。
That is, the position information conversion process in the virtual space position conversion processing unit 23 is
xc = (X1-x) x cos (φ)-(y-Y1) x sin (φ)
yc = (X1-x) × sin (φ) + (y−Y1) × cos (φ)
Can be converted to the position of the virtual viewpoint (xc, yc) by calculating.
The X-axis of the plane orthogonal coordinate system is the axis that coincides with the meridional line at the origin of the coordinate system, the value toward the true north is positive, and the Y-axis of the coordinate system is orthogonal to the X-axis of the coordinate system at the origin of the coordinate system. The axis is set, and the value toward the true east is set as positive. Therefore, the calculation formula is such that X and Y are interchanged with the normal coordinate system.

仮想視点における向きの情報は,実空間の滑走路の方角に,実空間の0度の方角とのオフセットθを加算することで変換できる。 The orientation information in the virtual viewpoint can be converted by adding the offset θ with the direction of 0 degrees in the real space to the direction of the runway in the real space.

なお,投影装置4による投影ではなく,表示装置5による表示を行う場合には,上述の投影装置4の高さ情報や位置情報などは表示装置5の高さ情報や位置情報に読み替えられる。 When the display is performed by the display device 5 instead of the projection by the projection device 4, the height information and the position information of the projection device 4 described above are read as the height information and the position information of the display device 5.

仮想視点画像生成処理部24は,仮想空間位置変換処理部23で変換した仮想視点の位置情報と向きの情報(方向情報)に基づいて,その位置情報から見える仮想空間の画像(仮想視点画像)を生成する。すなわち,仮想視点画像とは,仮想空間情報記憶部22に記憶する仮想空間情報において,仮想視点に設置したカメラから仮想空間を撮像した場合にうつる仮想空間の画像である。 The virtual viewpoint image generation processing unit 24 is based on the position information and orientation information (direction information) of the virtual viewpoint converted by the virtual space position conversion processing unit 23, and the virtual space image (virtual viewpoint image) that can be seen from the position information. To generate. That is, the virtual viewpoint image is an image of the virtual space that is transferred when the virtual space is imaged from the camera installed in the virtual viewpoint in the virtual space information stored in the virtual space information storage unit 22.

出力処理部25は,仮想視点画像生成処理部24で生成した仮想視点画像を投影装置4で路面上に投影,または表示装置5で表示を行う。 The output processing unit 25 projects the virtual viewpoint image generated by the virtual viewpoint image generation processing unit 24 on the road surface by the projection device 4 or displays it on the display device 5.

夜間は投影装置4による投影を行えるが,昼間では周囲の明るさから投影することができない。そこで,昼間には,出力処理部25は,投影装置4を用いるのではなく,車両10内に表示装置5を設け,そこに出力処理部25が表示をしても良い。 Projection can be performed by the projection device 4 at night, but cannot be projected from the ambient brightness during the daytime. Therefore, in the daytime, the output processing unit 25 may provide a display device 5 in the vehicle 10 and the output processing unit 25 may display the display device 5 instead of using the projection device 4.

なお,何らかの理由で車両10が後進しなくてはならなくなったとき,本来の進行方向と方向が逆に認識され,出力処理部25が本来の進行方向と逆向きの画像を投影する可能性がある。そのため,それまでの進行方向とは逆を向いたことを判定した場合(方向情報取得処理部21で取得した方向情報と反対方向の方向情報を取得した場合や,GPS装置3に内蔵された方位磁針の方角と,方向情報取得処理部21で取得した方向情報とを比較し,車両10が後進していると判定した場合など)には,出力処理部25における出力処理を行わないように構成しても良い。 When the vehicle 10 has to move backward for some reason, the original traveling direction and the direction may be recognized in the opposite direction, and the output processing unit 25 may project an image in the opposite direction to the original traveling direction. is there. Therefore, when it is determined that the direction is opposite to the direction of travel up to that point (when the direction information in the direction opposite to the direction information acquired by the direction information acquisition processing unit 21 is acquired, or when the direction information built in the GPS device 3 is acquired. When the direction of the magnetic needle is compared with the direction information acquired by the direction information acquisition processing unit 21 and it is determined that the vehicle 10 is moving backward, the output processing unit 25 does not perform the output processing. You may.

さらに,出力処理部25で出力処理を中止するほか,撮像装置6a,6bでの撮像処理を中止するように構成しても良い。 Further, the output processing unit 25 may be configured to stop the output processing, and the imaging devices 6a and 6b may be configured to stop the imaging processing.

つぎに本発明の走行ガイドシステム1を用いた処理プロセスの一例を図3のフローチャートを用いて説明する。 Next, an example of the processing process using the traveling guide system 1 of the present invention will be described with reference to the flowchart of FIG.

まず,走行ガイドシステム1における投影装置4を車両10の所定位置,たとえばルーフの上に設置する。この際に,投影装置4の路面からの高さの情報はあらかじめ計測しておき,それを走行ガイドシステム1に入力しておく。また,撮像装置6,照明装置7を設置した牽引台車11を車両10に取り付け,牽引可能としておく。 First, the projection device 4 in the traveling guide system 1 is installed at a predetermined position of the vehicle 10, for example, on the roof. At this time, the height information of the projection device 4 from the road surface is measured in advance and input to the traveling guide system 1. Further, a towing carriage 11 on which the imaging device 6 and the lighting device 7 are installed is attached to the vehicle 10 so that it can be towed.

車両10はあらかじめ滑走路の所定のレーン,たとえば左端のレーンから走行を開始する(S100)。たとえば図10に示すように,滑走路上の開始地点から走行を開始する。走行開始と同時に,GPS装置3では位置情報および方向情報の測位を開始する。また,牽引台車11に取り付けられた照明装置7では路面を照射しているので,撮像装置6で撮像を開始する。 The vehicle 10 starts traveling in advance from a predetermined lane on the runway, for example, the leftmost lane (S100). For example, as shown in FIG. 10, the running starts from the starting point on the runway. At the same time as the start of traveling, the GPS device 3 starts positioning of position information and direction information. Further, since the lighting device 7 attached to the tow truck 11 irradiates the road surface, the image pickup device 6 starts imaging.

位置情報取得処理部20は,GPS装置3で取得した位置情報としての緯度,経度情報を取得する(S110)。同様に,方向情報取得処理部21は,GPS装置3で取得した方向情報を取得する(S110)。このようにして取得した位置情報,方向情報と,投影装置4の高さ情報とを用いて,仮想空間位置変換処理部23は,仮想空間内のカメラ位置およびカメラ方向の情報に変換する。すなわち仮想空間内におけるカメラ位置としてのX座標,Y座標,Z座標およびカメラ方向に変換する(S120)。このカメラ位置が,実空間における投影装置4に対応する,仮想空間における仮想視点のX軸,Y軸,Z軸の各座標情報に相当し,カメラ方向が,実空間における投影装置4に対応する,仮想空間における投影方向に相当する。 The position information acquisition processing unit 20 acquires latitude and longitude information as position information acquired by the GPS device 3 (S110). Similarly, the direction information acquisition processing unit 21 acquires the direction information acquired by the GPS device 3 (S110). Using the position information and direction information acquired in this way and the height information of the projection device 4, the virtual space position conversion processing unit 23 converts the information into information on the camera position and camera direction in the virtual space. That is, it is converted into the X coordinate, the Y coordinate, the Z coordinate, and the camera direction as the camera position in the virtual space (S120). This camera position corresponds to the X-axis, Y-axis, and Z-axis coordinate information of the virtual viewpoint in the virtual space corresponding to the projection device 4 in the real space, and the camera direction corresponds to the projection device 4 in the real space. , Corresponds to the projection direction in virtual space.

そして,S120で変換した仮想空間内のカメラ位置(仮想空間におけるX座標,Y座標,Z座標)およびカメラ方向の情報に基づいて,仮想視点画像生成処理部24が,仮想空間のカメラ位置およびカメラ方向から,走行ガイド,距離標のオブジェクトを含む仮想空間の滑走路を撮影したときの仮想空間の画像を生成する(S130)。これによって,投影すべき画像(仮想視点画像)が生成できる。 Then, based on the information of the camera position (X coordinate, Y coordinate, Z coordinate in the virtual space) and the camera direction in the virtual space converted in S120, the virtual viewpoint image generation processing unit 24 determines the camera position and the camera in the virtual space. From the direction, an image of the virtual space when the runway of the virtual space including the object of the traveling guide and the distance marker is photographed is generated (S130). As a result, an image to be projected (virtual viewpoint image) can be generated.

そして,出力手段が,仮想視点画像生成処理部24で生成した画像を投影装置4から投影(出力)させる(S140)。この投影によって,仮想空間における走行ガイド,距離標が,実空間における路面に向けて投影されることとなる。投影装置4によって,仮想視点画像を滑走路に投影した際の一例が図11乃至図13である。図11は,投影装置4によって仮想視点画像を投影した際に,運転席からの視認状況の一例を模式的に示したものである。図11におけるセンターライン状のものは,滑走路にもとから引かれているラインである。図12は,投影装置4によって仮想視点画像を投影した場合の俯瞰図である。図13は,仮想空間に配置されている走行ガイドと投影装置4の投影範囲を示す上方からの図である。 Then, the output means projects (outputs) the image generated by the virtual viewpoint image generation processing unit 24 from the projection device 4 (S140). By this projection, the traveling guide and the distance marker in the virtual space are projected toward the road surface in the real space. 11 to 13 show an example when the virtual viewpoint image is projected on the runway by the projection device 4. FIG. 11 schematically shows an example of the visual recognition situation from the driver's seat when the virtual viewpoint image is projected by the projection device 4. The center line in FIG. 11 is a line originally drawn from the runway. FIG. 12 is a bird's-eye view when a virtual viewpoint image is projected by the projection device 4. FIG. 13 is a view from above showing the projection range of the traveling guide and the projection device 4 arranged in the virtual space.

以上のS110からS140の処理を,車両10が走行を停止するまで,たとえば1/10秒ごとに行う(S100)。投影の間隔はGPS装置3での位置情報などの取得間隔によって任意に定めることができ,1/10秒間隔に限定されるものではなく,それよりも短くも長くすることもできる。 The above processes S110 to S140 are performed, for example, every 1/10 second until the vehicle 10 stops traveling (S100). The projection interval can be arbitrarily determined by the acquisition interval of the position information and the like by the GPS device 3, and is not limited to the 1/10 second interval, and can be shorter or longer than that.

運転者は,投影装置4で投影される走行ガイド(図11,図12で示す三角マーク)に沿って運転を行えばよい。また,車両10が走行している場合であっても,GPS装置3では1/10秒間隔などで位置情報などを取得し,逐次,投影する画像を変更しているので,車両10の進行方向に適した走行ガイドの表示が行われる。そして,仮に車両10が走行ガイドから左右にずれたとしても,走行ガイドは,路面上にあたかもペイントされているかのように概略同じ位置に投影されるので,運転者は,車両10が走行ガイドの走行位置に復帰するように,すぐにハンドルを戻すことで車両10が本来の走行位置に復帰可能となる。さらに,距離標の表示が行われることで,目標物のない滑走路などでも自らの走行位置を的確に把握しやすくなる。 The driver may drive along the traveling guides (triangular marks shown in FIGS. 11 and 12) projected by the projection device 4. Further, even when the vehicle 10 is traveling, the GPS device 3 acquires position information and the like at 1/10 second intervals and changes the projected image sequentially, so that the traveling direction of the vehicle 10 is changed. A traveling guide suitable for the vehicle is displayed. Then, even if the vehicle 10 is displaced to the left or right from the traveling guide, the traveling guide is projected at substantially the same position as if it were painted on the road surface, so that the driver can see that the vehicle 10 is the traveling guide. The vehicle 10 can be returned to the original running position by immediately returning the steering wheel so as to return to the running position. Furthermore, by displaying the distance marker, it becomes easier to accurately grasp one's own running position even on a runway without a target.

車両10が走行している間,撮像装置6は,逐次,所定間隔で滑走路の路面を撮像している。撮像する時間間隔は任意に定めることができる。GPS装置3での位置情報などを取得する時間間隔と同じ時間間隔であっても良いし,異なる時間間隔であっても良い。また,走行距離をセンシングし,一定の距離ごとに撮像をしても良い。この際に,滑走路の路面を撮像した画像は,GPS装置3で取得した位置情報に対応づけて記憶させておくと良い。それによって,撮像した画像情報の位置を特定することができる。撮像装置6とGPS装置3とが離れた位置に設置されている場合には,それらのオフセットをあらかじめ管理しておき,GPS装置3で取得した位置情報にオフセットを演算して撮像装置6の正しい位置を算出した上で,撮像した画像情報の正確な位置を特定することが好ましい。 While the vehicle 10 is traveling, the image pickup device 6 sequentially images the road surface of the runway at predetermined intervals. The time interval for imaging can be arbitrarily determined. It may be the same time interval as the time interval for acquiring the position information or the like in the GPS device 3, or it may be a different time interval. In addition, the mileage may be sensed and images may be taken at regular intervals. At this time, it is preferable that the image of the road surface of the runway is stored in association with the position information acquired by the GPS device 3. Thereby, the position of the captured image information can be specified. When the image pickup device 6 and the GPS device 3 are installed at distant positions, their offsets are managed in advance, and the offset is calculated based on the position information acquired by the GPS device 3 to correct the image pickup device 6. It is preferable to specify the exact position of the captured image information after calculating the position.

図14および図15に,投影する仮想空間の画像の一例を模式的に示す。図14は,0番目のレーンの40メートル付近を走行している場合の仮想視点画像であり,図15は,0番目のレーンの150メートル付近を走行している場合の仮想視点画像である。したがって,0番目のレーンを走行している場合の40メートル付近では図14の仮想視点画像が仮想視点画像生成処理部24で生成され,その仮想視点画像を出力処理部25が投影装置4から投影する。また,0番目のレーンを走行している場合の150メートル付近では図15の仮想視点画像が仮想視点画像生成処理部24で生成され,その仮想視点画像を出力処理部25が投影装置4から投影する。生成された仮想視点画像は出力処理部25が投影装置4を介して投影するが,運転者が視認できるのは,実際に路面に投影された領域の画像となる。 14 and 15 schematically show an example of an image of the virtual space to be projected. FIG. 14 is a virtual viewpoint image when traveling around 40 meters in the 0th lane, and FIG. 15 is a virtual viewpoint image when traveling near 150 meters in the 0th lane. Therefore, the virtual viewpoint image of FIG. 14 is generated by the virtual viewpoint image generation processing unit 24 near 40 meters when traveling in the 0th lane, and the output processing unit 25 projects the virtual viewpoint image from the projection device 4. To do. Further, in the vicinity of 150 meters when traveling in the 0th lane, the virtual viewpoint image of FIG. 15 is generated by the virtual viewpoint image generation processing unit 24, and the output processing unit 25 projects the virtual viewpoint image from the projection device 4. To do. The generated virtual viewpoint image is projected by the output processing unit 25 via the projection device 4, but the driver can see the image of the area actually projected on the road surface.

図14では運転席(運転者)の正面に走行ガイドが表示されているので,運転者は車両10を正しい走行位置で走行させているが,図15では,走行ガイドの右側に車両10がずれている。そのため,運転者はハンドルを左に切り,走行ガイドが運転席(運転者)の正面に来るように走行位置を修正することが求められる。 In FIG. 14, since the driving guide is displayed in front of the driver's seat (driver), the driver is driving the vehicle 10 at the correct driving position, but in FIG. 15, the vehicle 10 is displaced to the right side of the driving guide. ing. Therefore, the driver is required to turn the steering wheel to the left and correct the driving position so that the driving guide is in front of the driver's seat (driver).

本発明の走行ガイドシステム1は,撮像装置6で路面を撮像するため,車両10がどのような位置を走行したら良いかを運転者に適切にガイドすることが目的であるが,たとえば図10に示すような経路で走行することとなる。この際に,直線である場所は高速走行が可能であるが,走行方向を変える場所は低速走行とならざるを得ない。これを模式的に示すのが図16である。 Since the traveling guide system 1 of the present invention captures the road surface with the imaging device 6, it is an object of the present invention to appropriately guide the driver to what position the vehicle 10 should travel. For example, in FIG. It will travel on the route shown. At this time, high-speed driving is possible in a straight line, but low-speed driving is inevitable in a place where the traveling direction is changed. This is schematically shown in FIG.

GPS装置3では,通常,位置情報の変化から方向(方向情報)を判定しているので,方向の判定精度が高くなく,方向情報の精度に限界がある。したがって,計測ごとにランダムに誤差が生じるので,その方向情報をそのまま使って出力する画像(仮想視点画像)を生成し,生成した画像を投影装置4で路面に投影したり,表示装置5で表示すると,ランダムに方向が歪んでしまう。そのため,車両10を高速に直線走行させる領域では,投影された画像を運転者が見て,車両10が回転方向に揺らいでいるように感じられ,幻惑されてしまう現象が発生する。 In the GPS device 3, since the direction (direction information) is usually determined from the change in the position information, the direction determination accuracy is not high and the accuracy of the direction information is limited. Therefore, since an error occurs randomly for each measurement, an image (virtual viewpoint image) to be output is generated by using the direction information as it is, and the generated image is projected on the road surface by the projection device 4 or displayed by the display device 5. Then, the direction is randomly distorted. Therefore, in the region where the vehicle 10 is driven in a straight line at high speed, the driver sees the projected image and feels that the vehicle 10 is swaying in the rotation direction, which causes a phenomenon of being dazzled.

そこで,本実施例では,この現象を緩和するため,走行ガイドシステム1では,位置情報と方向情報を別々に処理して出力する仮想視点画像を生成する。この場合,位置情報についてはたとえば1/10秒の頻度で更新するが,方向情報については,車速が低速走行を脱した速度,たとえば時速20キロメートルの閾値を超えるなど,高速走行している間は,方向情報取得処理部21のGPS装置3の2つの位置情報を用いた方向情報の算出処理を中止する,あるいはGPS装置3の2つの位置情報ではなく,たとえば所定時間(たとえば直近1秒間)の移動平均によって方向情報の算出処理を行うように構成してもよい。 Therefore, in this embodiment, in order to alleviate this phenomenon, the traveling guide system 1 generates a virtual viewpoint image that processes and outputs the position information and the direction information separately. In this case, the position information is updated at a frequency of 1/10 second, for example, but the direction information is updated while the vehicle is traveling at high speed, such as when the vehicle speed exceeds the threshold of 20 km / h. , The calculation process of the direction information using the two position information of the GPS device 3 of the direction information acquisition processing unit 21 is stopped, or instead of the two position information of the GPS device 3, for example, for a predetermined time (for example, the latest 1 second). It may be configured to perform the calculation process of the direction information by the moving average.

このように車速に応じて方向情報の算出処理を変更することで,出力する画像の方向についての揺らぎを抑えることができる。 By changing the direction information calculation process according to the vehicle speed in this way, it is possible to suppress fluctuations in the direction of the output image.

本実施例の処理を用いることで,運転者には正確な方向情報のフィードバックはなくなる,または遅延する(方向がずれてもすぐには仮想視点画像に反映されない)ことになるが,位置情報については通常の処理と同様の頻度,たとえば1/10秒の頻度で更新するので,車両10の走行を想定するレーンからの左右のズレについては,リアルタイムに運転者にフィードバックされ,正確な直線走行をするためには十分である。 By using the processing of this embodiment, the driver will not receive accurate feedback of the direction information or will be delayed (even if the direction is deviated, it will not be immediately reflected in the virtual viewpoint image), but the position information Is updated at the same frequency as normal processing, for example, at a frequency of 1/10 second, so the left and right deviations from the lane where the vehicle 10 is supposed to run are fed back to the driver in real time to ensure accurate straight-line driving. Enough to do.

なお,車両10が走行する想定レーンが直線ではなく,湾曲している場合には,方向情報についてのある程度のフィードバックは必要なので,方向情報取得処理部21は,方向情報の算出処理を中止する処理方法よりは,直近の所定の時間間隔の移動平均によって方向情報の算出処理を行う処理方法を用いることが好ましい。 If the assumed lane in which the vehicle 10 travels is curved instead of straight, some feedback on the directional information is required, so the directional information acquisition processing unit 21 cancels the directional information calculation process. It is preferable to use a processing method in which the direction information is calculated by the moving average of the latest predetermined time interval rather than the method.

さらに,本発明の走行ガイドシステム1で投影する画像の安定性を確保するため,3軸慣性センサを備えても良い。 Further, in order to ensure the stability of the image projected by the traveling guide system 1 of the present invention, a 3-axis inertial sensor may be provided.

すなわち,路面の凹凸の状況や車両10の加速,減速の状況によっては車両10に設置された投影装置4の姿勢が変動し,投影する画像の投影位置が不安定な状態となる。たとえば,車両10が加速,減速する場合に投影装置4が通常より上や下を向いたり,湾曲したレーンを進行するときに遠心力等で投影装置4が通常より傾いたりする場合がある。このような状態を緩和し,なるべく同一の位置に表示するため,車両10に3軸慣性センサをさらに設置しても良い。 That is, the posture of the projection device 4 installed on the vehicle 10 changes depending on the condition of the unevenness of the road surface and the conditions of acceleration and deceleration of the vehicle 10, and the projection position of the projected image becomes unstable. For example, when the vehicle 10 accelerates or decelerates, the projection device 4 may face upward or downward than usual, or when traveling in a curved lane, the projection device 4 may tilt more than usual due to centrifugal force or the like. In order to alleviate such a state and display at the same position as much as possible, a 3-axis inertial sensor may be further installed in the vehicle 10.

この場合,走行ガイドシステム1が3軸慣性センサから,画像の投影の頻度(上述の実施例では1/10秒に1回)でピッチ軸,ヨー軸,ロール軸のそれぞれの角度情報を得て,それぞれのパラメータを仮想空間上のカメラの仰角,水平回転方向の方角,ねじれ角(カメラを水平ではなく斜めに撮影する)に反映させ,仮想視点画像生成処理部24が仮想視点画像を生成し,出力処理部25が投影装置4から投影することで,仮想視点画像の投影位置を安定させることができる。 In this case, the traveling guide system 1 obtains the angle information of the pitch axis, the yaw axis, and the roll axis from the 3-axis inertial sensor at the frequency of image projection (once every 1/10 second in the above embodiment). , Each parameter is reflected in the elevation angle of the camera in the virtual space, the direction in the horizontal rotation direction, and the twist angle (the camera is photographed diagonally instead of horizontally), and the virtual viewpoint image generation processing unit 24 generates a virtual viewpoint image. , The output processing unit 25 projects from the projection device 4, so that the projection position of the virtual viewpoint image can be stabilized.

本実施例では,施設や路面の損傷箇所などの,管理対象となる管理対象箇所への走行ガイドを行う場合を説明する。この場合,走行ガイドシステム1として,撮像装置6などで撮像した画像から,管理対象箇所を抽出した画像(管理対象画像)が記憶されており,その管理対象画像を用いて,管理対象箇所のある場所まで車両10の運転者をガイドするように構成する場合である。本実施例における走行ガイドシステム1の構成の一例を図17に示す。なお,本明細書における管理対象画像とは,撮像装置6などで撮像した画像の中から画像認識等の手段により,損傷箇所などの管理対象となる箇所が認識され,その認識された箇所が二値画像化やベクトル画像化されたCAD図面などの画像である。 In this embodiment, a case where a traveling guide is provided to a managed part to be managed such as a damaged part of a facility or a road surface will be described. In this case, as the traveling guide system 1, an image (management target image) obtained by extracting the management target location from the image captured by the image pickup device 6 or the like is stored, and the management target location is used by using the management target image. This is a case where the driver of the vehicle 10 is configured to be guided to a place. An example of the configuration of the traveling guide system 1 in this embodiment is shown in FIG. The managed image in the present specification means that a part to be managed such as a damaged part is recognized by means such as image recognition from the image captured by the image pickup apparatus 6 or the like, and the recognized part is two. It is an image such as a CAD drawing that has been converted into a value image or a vector image.

本実施例の走行ガイドシステム1では,さらに,管理対象箇所記憶部26と管理対象箇所特定処理部27とガイド画像生成処理部28とを有する。なお,走行ガイドシステム1における実施例1乃至実施例3の機能に加えて上述の各機能を備えていても良いが,仮想空間情報記憶部22,仮想空間位置変換処理部23,仮想視点画像生成処理部24などの各機能の一部または全部の機能を備えていなくても良い。 The traveling guide system 1 of this embodiment further includes a management target location storage unit 26, a management target location identification processing unit 27, and a guide image generation processing unit 28. In addition to the functions of the first to third embodiments in the traveling guide system 1, each of the above-mentioned functions may be provided, but the virtual space information storage unit 22, the virtual space position conversion processing unit 23, and the virtual viewpoint image generation It is not necessary to have a part or all of the functions of the processing unit 24 and the like.

管理対象箇所記憶部26は,管理対象画像とその位置情報(緯度,経度情報,方向情報,縮尺情報)とを記憶する。なお,管理対象画像および位置情報は,それらを識別する識別情報に対応づけて記憶されていることが好ましい。管理対象画像を路面の管理対象箇所に重畳表示させる場合,管理対象画像から管理対象箇所をさらに切り出し,拡大/縮小や回転させた画像として管理していれば良い。 The management target location storage unit 26 stores the management target image and its position information (latitude, longitude information, direction information, scale information). It is preferable that the managed image and the position information are stored in association with the identification information that identifies them. When the management target image is superimposed and displayed on the management target location on the road surface, the management target location may be further cut out from the management target image and managed as an enlarged / reduced or rotated image.

管理対象箇所特定処理部27は,GPS装置3により位置情報取得処理部20で取得した位置情報(車両10の現在の位置情報)に基づいて,そこから所定範囲内にある管理対象箇所を特定する。具体的には位置情報取得処理部20で取得した位置情報と,管理対象箇所記憶部26に記憶する位置情報とを比較し,取得した位置情報から所定範囲内,たとえば半径100メートル以内にある管理対象箇所の識別情報を特定する。 The management target location identification processing unit 27 identifies a management target location within a predetermined range from the position information (current position information of the vehicle 10) acquired by the position information acquisition processing unit 20 by the GPS device 3. .. Specifically, the position information acquired by the position information acquisition processing unit 20 is compared with the position information stored in the management target location storage unit 26, and the management within a predetermined range from the acquired position information, for example, within a radius of 100 meters. Identify the identification information of the target location.

ガイド画像生成処理部28は,管理対象箇所特定処理部27で特定した管理対象箇所の識別情報に基づいて,現在地点から,特定した管理対象箇所までの距離や方向を算出し,それをガイドするガイド画像を生成する。生成するガイド画像の一例が図18である。 The guide image generation processing unit 28 calculates the distance and direction from the current position to the specified management target location based on the identification information of the management target location specified by the management target location identification processing unit 27, and guides the distance and direction. Generate a guide image. An example of the generated guide image is shown in FIG.

図18に示すガイド画像では,位置情報取得処理部20で取得した位置情報を中心として,3つの同心円を描いている。内側から第1同心円,第2同心円,第3同心円とした場合,第3同心円が,上述の取得した位置情報から所定範囲である100メートルを意味しており,各同心円が1/3ずつの距離を意味している。そして,第3同心円から各方向に伸びている矢印が管理対象箇所の存在する方向であり,矢印に付されている「♯」記号が管理対象箇所画像を示す識別情報,その隣の数字が当該管理対象箇所までの距離である。また矢印の長さは距離に比例して表示される。同心円状にある黒丸は,同心円の原点を位置情報取得処理部20で取得した位置情報としたときの,各管理対象箇所までの距離と方向を示している。すなわち,100メートルを所定範囲としたとき,どの方向と位置に管理対象箇所があるかを概略示すガイドとなる。 In the guide image shown in FIG. 18, three concentric circles are drawn centering on the position information acquired by the position information acquisition processing unit 20. When the first concentric circle, the second concentric circle, and the third concentric circle are defined from the inside, the third concentric circle means 100 meters, which is a predetermined range from the above-mentioned acquired position information, and each concentric circle is a distance of 1/3. Means. The arrows extending in each direction from the third concentric circle are the directions in which the management target location exists, the "#" symbol attached to the arrow is the identification information indicating the management target location image, and the number next to it is the relevant. The distance to the management target location. The length of the arrow is displayed in proportion to the distance. The black circles in the concentric circles indicate the distance and direction to each management target location when the origin of the concentric circles is the position information acquired by the position information acquisition processing unit 20. That is, when 100 meters is set as a predetermined range, it serves as a guide that roughly indicates in which direction and position the management target location is located.

なお,ガイド画像としては,図18に示す表示方法に限定されるのではなく,少なくとも進行方向が表示されれば,いかなる表示方法であっても良い。 The guide image is not limited to the display method shown in FIG. 18, and may be any display method as long as the traveling direction is displayed at least.

つぎに本実施例における走行ガイドシステム1の処理プロセスの一例を図19のフローチャートを用いて説明する。なお,以下の説明では,管理対象箇所記憶部26に管理対象画像,位置情報,損傷のレベル,識別情報などが記憶されているものとする。 Next, an example of the processing process of the traveling guide system 1 in this embodiment will be described with reference to the flowchart of FIG. In the following description, it is assumed that the management target image, the position information, the damage level, the identification information, and the like are stored in the management target location storage unit 26.

本実施例における走行ガイドシステム1を搭載した車両10は,GPS装置3によって位置情報取得手段が位置情報を取得する(S210)。そして取得した位置情報に基づいて,管理対象箇所特定処理部27は,取得した位置情報から所定範囲,たとえば100メートル以内の管理対象箇所があるかを特定する(S220)。 In the vehicle 10 equipped with the traveling guide system 1 in this embodiment, the position information acquisition means acquires the position information by the GPS device 3 (S210). Then, based on the acquired position information, the management target location identification processing unit 27 identifies from the acquired location information whether there is a management target location within a predetermined range, for example, 100 meters (S220).

管理対象箇所特定処理部27で所定範囲内の管理対象箇所を特定すると,ガイド画像生成処理部28は,S200で取得した位置情報と,特定した管理対象箇所の位置情報とを比較することで,方向および距離を算出する(S230)。そして特定した各管理対象箇所までの方向および距離を算出することで,ガイド画像を生成する(S240)。 When the management target location identification processing unit 27 specifies the management target location within the predetermined range, the guide image generation processing unit 28 compares the position information acquired in S200 with the location information of the specified management target location. The direction and distance are calculated (S230). Then, a guide image is generated by calculating the direction and distance to each specified management target location (S240).

ガイド画像生成処理部28で生成したガイド画像は,出力処理部25が,投影装置4で投影するS250)。 The guide image generated by the guide image generation processing unit 28 is projected by the output processing unit 25 by the projection device 4 (S250).

このようにS210からS250までの処理を,車両10が走行を終了するまで反復する。反復の頻度としては,たとえばGPS装置3で位置情報を取得する頻度,たとえば1/10秒ごとに行うと良いが,それに限定されるものではない。 In this way, the processes from S210 to S250 are repeated until the vehicle 10 finishes traveling. The frequency of repetition may be, for example, the frequency of acquiring position information by the GPS device 3, for example, every 1/10 second, but is not limited thereto.

これによって,車両10の運転者は,路面に投影されたガイド画像を見ながら運転することで,所望の管理対象箇所まで移動することができる。 As a result, the driver of the vehicle 10 can move to a desired management target location by driving while looking at the guide image projected on the road surface.

以上の処理において,さらに,車両10が特定の管理対象箇所に接近した場合,たとえば損傷から10メートル以内に近づいた場合,出力処理部25は,ガイド画像ではなく,管理対象画像記憶部から管理対象画像を抽出し,管理対象画像を路面に投影するように構成しても良い。ガイド画像の表示から切り替えを行う場合,投影装置4と管理対象画像との位置関係に基づいて切り替えタイミングを調整することもできる。すなわち,投影装置4で路面に投影をする場合,管理対象画像を投影したときに,管理対象箇所と概略一致する,投影装置4の管理対象箇所までの距離はあらかじめ定まる。そのため,管理対象箇所からのあらかじめ定められた距離を切り替えタイミングとして設定することもできる。 In the above processing, when the vehicle 10 approaches a specific management target location, for example, within 10 meters from the damage, the output processing unit 25 is managed from the management target image storage unit instead of the guide image. The image may be extracted and the managed image may be projected on the road surface. When switching from the display of the guide image, the switching timing can be adjusted based on the positional relationship between the projection device 4 and the managed image. That is, when the projection device 4 projects on the road surface, the distance to the management target location of the projection device 4, which roughly matches the management target location when the management target image is projected, is determined in advance. Therefore, a predetermined distance from the management target location can be set as the switching timing.

管理対象箇所に接近した場合に管理対象画像を路面に投影した場合の一例を図20に示す。図20では,管理対象画像に加え,管理対象箇所の識別情報,損傷の度合いを示すレベルが投影されている。本実施例の場合,正確に管理対象箇所を特定できることが好ましいが,誤差は発生し得る。そのため,正確に投影できなくても概略の位置が特定できれば,実際には十分に対応し得る。そのため,本発明のように管理対象画像を投影できることで,車両10を所望の管理対象箇所まで,迅速かつ容易にガイドすることができる。そして車両10が管理対象箇所まで到達後,保守作業担当者などが保守作業を行う。 FIG. 20 shows an example of a case where the management target image is projected on the road surface when approaching the management target location. In FIG. 20, in addition to the management target image, the identification information of the management target location and the level indicating the degree of damage are projected. In the case of this embodiment, it is preferable that the management target location can be accurately specified, but an error may occur. Therefore, even if it cannot be projected accurately, if the approximate position can be specified, it can actually be sufficiently dealt with. Therefore, since the image to be managed can be projected as in the present invention, the vehicle 10 can be quickly and easily guided to a desired location to be managed. Then, after the vehicle 10 reaches the management target location, a maintenance worker or the like performs maintenance work.

現状では,保守作業担当者は管理対象図を印刷した図面を持参し,夜間,手持ちのライト,あるいはヘルメットに装着したライトで図面を照らしながら路面の管理対象と思しきものと,管理対象図とを照合して,確認,補修すべき管理対象箇所を同定している。しかし本実施例を用いれば,管理対象箇所に管理対象画像が重畳表示されるので,参照,照合が極めて容易かつ効率的である。また,通常,管理対象画像には補修の指示等が記入されるので,その情報についても容易かつ確実に保守作業担当者に伝達できる。 At present, maintenance workers bring a printed drawing of the management target drawing, and at night, while illuminating the drawing with a light on hand or a light attached to a helmet, what seems to be the management target of the road surface and the management target drawing By collating, the parts to be managed to be confirmed and repaired are identified. However, if this embodiment is used, the managed image is superimposed and displayed on the managed location, so that reference and collation are extremely easy and efficient. In addition, since repair instructions and the like are usually written in the image to be managed, the information can be easily and surely transmitted to the person in charge of maintenance work.

さらに,本実施例を用いれば,道路の地下に埋設された施設の保守を行う場合には,地中の施設は目視で確認することができないため,施設の近傍に走行ガイドで誘導した上で設計図を路面に投影して大まかな位置を把握しながら繰り返して保守作業を行う場合に利用することができる。たとえば,道路の地下に埋設された配管が管理対象箇所となっている場合には,管理対象画像として配管図とその位置情報を記憶させておく。そして,配管の保守を行う場合には,本実施例における走行ガイドシステム1を用いることで,保守を行う配管のある場所まで容易にたどり着け,かつ配管図などの管理対象画像を路面に投影することで,保守作業を容易に行うことができる。 Furthermore, using this example, when maintaining a facility buried underground in a road, the underground facility cannot be visually confirmed, so guide the facility to the vicinity of the facility with a traveling guide. It can be used when performing maintenance work repeatedly while projecting a design drawing on the road surface and grasping the rough position. For example, if the pipe buried in the basement of the road is the management target location, the piping diagram and its position information are stored as the management target image. Then, when maintaining the piping, by using the traveling guide system 1 in this embodiment, it is possible to easily reach the place where the piping to be maintained is located, and to project a managed image such as a piping diagram on the road surface. Therefore, maintenance work can be easily performed.

上述の各実施例の説明では,本発明の走行ガイドシステム1を滑走路上の走行の場合を例として説明したが,それに限定されるものではない。砂漠やゴルフ場,海浜など「自由度2」で車両10が移動できる場所で,管理,保全,保守あるいは遊戯などの目的で運転者をガイドする場合に利用することができる。 In the description of each of the above-described embodiments, the traveling guide system 1 of the present invention has been described as an example of traveling on a runway, but the present invention is not limited thereto. It can be used to guide the driver for the purpose of management, maintenance, maintenance, or playing in a place where the vehicle 10 can move with "degree of freedom 2" such as a desert, a golf course, or a beach.

また,投影装置4は車両10に設置せずともよく,移動体としての飛行体(ヘリコプターや,ドローンなどのUAVなど)に設置しても良い。この場合,機体の高さ,すなわち対象物までの高さ方向の距離および投影装置4の仰角が変化することとなるが,GPS装置3で高さ情報を取得するとともに,実施例3のように3軸慣性センサを飛行体に設置し,画像の投影の頻度でピッチ軸,ヨー軸,ロール軸のそれぞれの角度情報を得て,それぞれのパラメータを仮想空間上のカメラの高さ,仰角,水平回転方向の方角,ねじれ角(カメラを水平ではなく斜めに撮影する)にさらに反映させ,仮想視点画像生成処理部24が仮想視点画像を生成し,出力処理部25が投影装置4から投影することで,仮想視点画像の投影位置を安定させることができる。UAVに投影装置4を搭載する場合には,車両10の走行や歩行による移動をガイドするために,上空から走行ガイドを投影するなどの目的で利用することができる。 Further, the projection device 4 does not have to be installed in the vehicle 10, and may be installed in an air vehicle (such as a helicopter or a UAV such as a drone) as a moving body. In this case, the height of the aircraft, that is, the distance to the object in the height direction and the elevation angle of the projection device 4 will change, but the height information is acquired by the GPS device 3 and as in the third embodiment. A 3-axis inertial sensor is installed on the flying object, and the angle information of the pitch axis, yaw axis, and roll axis is obtained by the frequency of image projection, and each parameter is set to the height, elevation, and horizontal of the camera in the virtual space. The direction of rotation and the twist angle (shooting the camera diagonally instead of horizontally) are further reflected, the virtual viewpoint image generation processing unit 24 generates a virtual viewpoint image, and the output processing unit 25 projects it from the projection device 4. Therefore, the projection position of the virtual viewpoint image can be stabilized. When the projection device 4 is mounted on the UAV, it can be used for the purpose of projecting a traveling guide from the sky in order to guide the traveling or walking movement of the vehicle 10.

本発明の走行ガイドシステム1では,移動体に搭載した投影装置4などで走行する位置を路面に投影し,あるいは表示位置5に表示し,操作者はそれにしたがって車両10などの移動体を走行させれば良いだけであるので,操作者にとっては簡単である。また,滑走路にコーンなどを置く必要もないので,作業時間の短縮ができるとともに,安全性を損なうこともない。 In the traveling guide system 1 of the present invention, the traveling position is projected on the road surface by the projection device 4 or the like mounted on the moving body or displayed at the display position 5, and the operator causes the moving body such as the vehicle 10 to travel accordingly. It is easy for the operator because all he has to do is do it. In addition, since it is not necessary to place a cone or the like on the runway, the working time can be shortened and the safety is not impaired.

また,実施例4における走行ガイドシステムを用いることによって,道路の地下に埋設された施設の保守を行う場合に,目視では確認できない地下施設の近傍まで走行ガイドで誘導した上で,設計図等を路面に投影して大まかな位置を把握しながら繰り返して保守作業を行うことができるので,保守作業担当者にとって作業時間の短縮ができ,安全性を損なうこともない。 In addition, by using the travel guide system in Example 4, when maintaining a facility buried underground in a road, a travel guide guides the user to the vicinity of the underground facility, which cannot be visually confirmed, and then draws a design drawing or the like. Since maintenance work can be performed repeatedly while projecting onto the road surface and grasping the rough position, the work time can be shortened for the maintenance work person, and safety is not impaired.

1:走行ガイドシステム
2:管理コンピュータ
3:GPS装置
4:投影装置
5:表示装置
6:撮像装置
7:照明装置
8:吊具
9:枠体
10:車両
11:牽引台車
20:位置情報取得処理部
21:方向情報取得処理部
22:仮想空間情報記憶部
23:仮想空間位置変換処理部
24:仮想視点画像生成処理部
25:出力処理部
26:管理対象箇所記憶部
27:管理対象箇所特定処理部
28:ガイド画像生成処理部
70:演算装置
71:記憶装置
1: Travel guide system 2: Management computer 3: GPS device 4: Projection device 5: Display device 6: Imaging device 7: Lighting device 8: Hanging tool 9: Frame body 10: Vehicle 11: Tow truck 20: Position information acquisition processing Unit 21: Direction information acquisition processing unit 22: Virtual space information storage unit 23: Virtual space position conversion processing unit 24: Virtual viewpoint image generation processing unit 25: Output processing unit 26: Management target location storage unit 27: Management target location identification processing Unit 28: Guide image generation processing unit 70: Arithmetic device 71: Storage device

Claims (11)

移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,
前記走行ガイドシステムは,
位置情報取得装置から位置情報を取得する位置情報取得処理部と,
方向情報を取得する方向情報取得処理部と,
前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,
前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,
管理対象箇所の位置情報を記憶する管理対象箇所記憶部と,
前記取得した位置情報を用いて,前記管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部と,
前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部と,
前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部と,を有しており,
前記仮想空間情報記憶部は,
前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,
前記仮想視点画像生成処理部は,
前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,
ことを特徴とする走行ガイドシステム。
It is a traveling guide system that guides the operator of a moving body to the traveling position of the moving body.
The traveling guide system is
The location information acquisition processing unit that acquires location information from the location information acquisition device, and
Direction information acquisition processing unit that acquires direction information, and
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A virtual space information storage unit that stores virtual space information arranged in space,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
In the virtual space stored in the virtual space information storage unit, a virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint.
A management target location storage unit that stores the location information of the management target location,
The management target location identification processing unit that identifies the management target location within a predetermined range by referring to the management target location storage unit using the acquired position information, and the management target location identification processing unit.
A guide image generation processing unit that calculates the distance and / or direction to the specified management target location and generates a guide image to guide.
It has an output processing unit that outputs the generated virtual viewpoint image and / or guide image from the projection device or display device.
The virtual space information storage unit
As the virtual space information, a part or all of the virtual space is divided into a length direction and a width direction at predetermined intervals, the length direction is represented by a distance from a reference position in the length direction, and the width direction is defined as a width. It is represented by the lane number from the reference position in the direction, and at the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space.
The virtual viewpoint image generation processing unit
Generate a virtual viewpoint image including the traveling guide and the distance marker from the virtual viewpoint.
A driving guide system that features this.
移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,
前記走行ガイドシステムは,
位置情報取得装置から位置情報を取得する位置情報取得処理部と,
方向情報を取得する方向情報取得処理部と,
前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,
前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,
前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部と,を有しており,
前記仮想空間情報記憶部は,
前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,
前記仮想視点画像生成処理部は,
前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,
ことを特徴とする走行ガイドシステム。
It is a traveling guide system that guides the operator of a moving body to the traveling position of the moving body.
The traveling guide system is
The location information acquisition processing unit that acquires location information from the location information acquisition device, and
Direction information acquisition processing unit that acquires direction information, and
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A virtual space information storage unit that stores virtual space information arranged in space,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
In the virtual space stored in the virtual space information storage unit, a virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint.
It has an output processing unit that outputs the generated virtual viewpoint image from a projection device or a display device.
The virtual space information storage unit
As the virtual space information, a part or all of the virtual space is divided into a length direction and a width direction at predetermined intervals, the length direction is represented by a distance from a reference position in the length direction, and the width direction is defined as a width. It is represented by the lane number from the reference position in the direction, and at the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space.
The virtual viewpoint image generation processing unit
Generate a virtual viewpoint image including the traveling guide and the distance marker from the virtual viewpoint.
A driving guide system that features this.
移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,
前記走行ガイドシステムは,
位置情報取得装置から位置情報を取得する位置情報取得処理部と,
方向情報を取得する方向情報取得処理部と,
前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,
前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,
管理対象箇所の位置情報を記憶する管理対象箇所記憶部と,
前記取得した位置情報を用いて,前記管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部と,
前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部と,
前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部と,を有しており,
前記方向情報取得処理部は,
前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,
ことを特徴とする走行ガイドシステム。
It is a traveling guide system that guides the operator of a moving body to the traveling position of the moving body.
The traveling guide system is
The location information acquisition processing unit that acquires location information from the location information acquisition device, and
Direction information acquisition processing unit that acquires direction information, and
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A virtual space information storage unit that stores virtual space information arranged in space,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
In the virtual space stored in the virtual space information storage unit, a virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint.
A management target location storage unit that stores the location information of the management target location,
The management target location identification processing unit that identifies the management target location within a predetermined range by referring to the management target location storage unit using the acquired position information, and the management target location identification processing unit.
A guide image generation processing unit that calculates the distance and / or direction to the specified management target location and generates a guide image to guide.
It has an output processing unit that outputs the generated virtual viewpoint image and / or guide image from the projection device or display device.
The direction information acquisition processing unit
When the moving speed of the moving body is compared with a predetermined threshold value and it is determined that the threshold value is exceeded, the calculation process of the direction information using the position information is stopped, or the direction is determined by the moving average of the position information in the predetermined time. Performs information calculation processing,
A driving guide system characterized by this.
移動体の操作者にその移動体の走行位置をガイドする走行ガイドシステムであって,
前記走行ガイドシステムは,
位置情報取得装置から位置情報を取得する位置情報取得処理部と,
方向情報を取得する方向情報取得処理部と,
前記移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する仮想空間情報記憶部と,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部と,
前記仮想空間情報記憶部に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部と,
前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部と,を有しており,
前記方向情報取得処理部は,
前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,
ことを特徴とする走行ガイドシステム。
It is a traveling guide system that guides the operator of a moving body to the traveling position of the moving body.
The traveling guide system is
The location information acquisition processing unit that acquires location information from the location information acquisition device, and
Direction information acquisition processing unit that acquires direction information, and
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A virtual space information storage unit that stores virtual space information arranged in space,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
In the virtual space stored in the virtual space information storage unit, a virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint.
It has an output processing unit that outputs the generated virtual viewpoint image from a projection device or a display device.
The direction information acquisition processing unit
When the moving speed of the moving body is compared with a predetermined threshold value and it is determined that the threshold value is exceeded, the calculation process of the direction information using the position information is stopped, or the direction is determined by the moving average of the position information in the predetermined time. Performs information calculation processing,
A driving guide system that features this.
前記仮想空間情報記憶部は,
前記仮想空間情報として,前記走行ガイドが,前記移動体の運転者の正面に位置するように配置されている,
ことを特徴とする請求項1から請求項4のいずれかに記載の走行ガイドシステム。
The virtual space information storage unit
As the virtual space information, the traveling guide is arranged so as to be located in front of the driver of the moving body .
The traveling guide system according to any one of claims 1 to 4, wherein the traveling guide system is characterized in that.
前記仮想視点画像生成処理部は,さらに,
前記移動体または投影装置に備えた3軸慣性センサから3軸の角度情報を取得し,前記仮想視点の仰角,水平回転方向の方角,ねじれ角として反映させて,前記仮想視点画像を生成する,
ことを特徴とする請求項1から請求項5のいずれかに記載の走行ガイドシステム。
The virtual viewpoint image generation processing unit further
The virtual viewpoint image is generated by acquiring the angle information of the three axes from the three-axis inertial sensor provided in the moving body or the projection device and reflecting it as the elevation angle, the horizontal rotation direction direction, and the twist angle of the virtual viewpoint.
The traveling guide system according to any one of claims 1 to 5, wherein the traveling guide system is characterized in that.
前記管理対象箇所記憶部は,さらに,
前記管理対象箇所の位置情報に対応づけて管理対象画像を記憶しており,
前記出力処理部は,
前記取得した位置情報と,前記管理対象箇所の位置情報とを比較することで前記移動体が前記管理対象箇所からあらかじめ定められた範囲に入ったかを判定し,
前記あらかじめ定められた範囲に入ったことを判定すると,前記管理対象箇所記憶部からその管理対象箇所の管理対象画像を抽出して出力する,
ことを特徴とする請求項1または請求項3に記載の走行ガイドシステム。
The management target location storage unit further
The management target image is stored in association with the position information of the management target location.
The output processing unit
By comparing the acquired position information with the position information of the management target location, it is determined whether the moving body is within a predetermined range from the management target location.
When it is determined that the range is within the predetermined range, the management target image of the management target location is extracted from the management target location storage unit and output.
The traveling guide system according to claim 1 or 3, wherein the traveling guide system is characterized in that.
移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,
位置情報取得装置から位置情報を取得する位置情報取得処理部,
方向情報を取得する方向情報取得処理部,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,
前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,
前記取得した位置情報を用いて,管理対象箇所の位置情報を記憶する管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部,
前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部,
前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,
前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,
前記仮想視点画像生成処理部は,
前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,
ことを特徴とする走行ガイドプログラム。
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access the storage device that stores the virtual space information located in
Location information acquisition processing unit that acquires location information from the location information acquisition device,
Direction information acquisition processing unit that acquires direction information,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
A virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint in the virtual space stored in the storage device.
The management target location identification processing unit that identifies the management target location within a predetermined range by referring to the management target location storage unit that stores the location information of the management target location using the acquired location information.
A guide image generation processing unit that calculates the distance and / or direction to the specified management target location and generates a guide image to guide.
A traveling guide program that functions as an output processing unit that outputs the generated virtual viewpoint image and / or guide image from the projection device or display device.
As the virtual space information, a part or all of the virtual space is divided into a length direction and a width direction at predetermined intervals, the length direction is represented by a distance from a reference position in the length direction, and the width direction is defined as a width. It is represented by the lane number from the reference position in the direction, and at the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space.
The virtual viewpoint image generation processing unit
Generate a virtual viewpoint image including the traveling guide and the distance marker from the virtual viewpoint.
A driving guide program characterized by this.
移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,
位置情報取得装置から位置情報を取得する位置情報取得処理部,
方向情報を取得する方向情報取得処理部,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,
前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,
前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,
前記仮想空間情報として,前記仮想空間の一部または全部を,所定間隔で長さ方向,幅方向に区切り,長さ方向を,長さ方向の基準位置からの距離で表し,幅方向を,幅方向の基準位置からのレーン番号で表し,距離とレーン番号の交点には,距離およびレーン番号を示す距離標が,前記仮想空間に配置されており,
前記仮想視点画像生成処理部は,
前記仮想視点からの,前記走行ガイドおよび前記距離標を含む仮想視点画像を生成する,
ことを特徴とする走行ガイドプログラム。
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access the storage device that stores the virtual space information located in
Location information acquisition processing unit that acquires location information from the location information acquisition device,
Direction information acquisition processing unit that acquires direction information,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
A virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint in the virtual space stored in the storage device.
A traveling guide program that functions as an output processing unit that outputs the generated virtual viewpoint image from a projection device or a display device.
As the virtual space information, a part or all of the virtual space is divided into a length direction and a width direction at predetermined intervals, the length direction is represented by a distance from a reference position in the length direction, and the width direction is defined as a width. It is represented by the lane number from the reference position in the direction, and at the intersection of the distance and the lane number, a distance marker indicating the distance and the lane number is arranged in the virtual space.
The virtual viewpoint image generation processing unit
Generate a virtual viewpoint image including the traveling guide and the distance marker from the virtual viewpoint.
A driving guide program characterized by this.
移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,
位置情報取得装置から位置情報を取得する位置情報取得処理部,
方向情報を取得する方向情報取得処理部,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,
前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,
前記取得した位置情報を用いて,管理対象箇所の位置情報を記憶する管理対象箇所記憶部を参照することで,所定範囲内にある管理対象箇所を特定する管理対象箇所特定処理部,
前記特定した管理対象箇所までの距離および/または方向を算出し,ガイドするガイド画像を生成するガイド画像生成処理部,
前記生成した仮想視点画像および/またはガイド画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,
前記方向情報取得処理部は,
前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,
ことを特徴とする走行ガイドプログラム。
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access the storage device that stores the virtual space information located in
Location information acquisition processing unit that acquires location information from the location information acquisition device,
Direction information acquisition processing unit that acquires direction information,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
A virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint in the virtual space stored in the storage device.
The management target location identification processing unit that identifies the management target location within a predetermined range by referring to the management target location storage unit that stores the location information of the management target location using the acquired location information.
A guide image generation processing unit that calculates the distance and / or direction to the specified management target location and generates a guide image to guide.
A traveling guide program that functions as an output processing unit that outputs the generated virtual viewpoint image and / or guide image from the projection device or display device.
The direction information acquisition processing unit
When the moving speed of the moving body is compared with a predetermined threshold value and it is determined that the threshold value is exceeded, the calculation process of the direction information using the position information is stopped, or the direction is determined by the moving average of the position information in the predetermined time. Performs information calculation processing,
A driving guide program characterized by this.
移動体の操作者に走行位置をガイドする範囲を含む実空間の一部または全部に対応する仮想空間であって,前記操作者が移動体を移動させるべき走行位置を示す走行ガイドがその仮想空間に配置されている仮想空間情報を記憶する記憶装置にアクセス可能なコンピュータを,
位置情報取得装置から位置情報を取得する位置情報取得処理部,
方向情報を取得する方向情報取得処理部,
前記取得した位置情報と方向情報とを用いて,前記仮想空間における仮想視点の位置と向きの情報に変換する仮想空間位置変換処理部,
前記記憶装置に記憶する仮想空間において,前記仮想視点からの,前記走行ガイドを含む前記仮想空間の画像である仮想視点画像を生成する仮想視点画像生成処理部,
前記生成した仮想視点画像を,投影装置または表示装置から出力する出力処理部,として機能させる走行ガイドプログラムであって,
前記方向情報取得処理部は,
前記移動体の移動速度と所定の閾値とを比較し,閾値を超えたと判定した場合には,位置情報を用いた方向情報の算出処理を中止する,または所定時間における位置情報の移動平均によって方向情報の算出処理を行う,
ことを特徴とする走行ガイドプログラム。
A virtual space corresponding to a part or all of the real space including a range for guiding the traveling position to the operator of the moving body, and the traveling guide indicating the traveling position where the operator should move the moving body is the virtual space. A computer that can access the storage device that stores the virtual space information located in
Location information acquisition processing unit that acquires location information from the location information acquisition device,
Direction information acquisition processing unit that acquires direction information,
A virtual space position conversion processing unit that converts the acquired position information and direction information into information on the position and orientation of the virtual viewpoint in the virtual space.
A virtual viewpoint image generation processing unit that generates a virtual viewpoint image that is an image of the virtual space including the traveling guide from the virtual viewpoint in the virtual space stored in the storage device.
A traveling guide program that functions as an output processing unit that outputs the generated virtual viewpoint image from a projection device or a display device.
The direction information acquisition processing unit
When the moving speed of the moving body is compared with a predetermined threshold value and it is determined that the threshold value is exceeded, the calculation process of the direction information using the position information is stopped, or the direction is determined by the moving average of the position information in the predetermined time. Performs information calculation processing,
A driving guide program characterized by this.
JP2015219315A 2015-11-09 2015-11-09 Driving guide system Active JP6763656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015219315A JP6763656B2 (en) 2015-11-09 2015-11-09 Driving guide system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015219315A JP6763656B2 (en) 2015-11-09 2015-11-09 Driving guide system

Publications (2)

Publication Number Publication Date
JP2017090189A JP2017090189A (en) 2017-05-25
JP6763656B2 true JP6763656B2 (en) 2020-09-30

Family

ID=58768973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015219315A Active JP6763656B2 (en) 2015-11-09 2015-11-09 Driving guide system

Country Status (1)

Country Link
JP (1) JP6763656B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6778008B2 (en) * 2016-03-31 2020-10-28 倉敷紡績株式会社 Navigation device and navigation method
JP7304016B2 (en) * 2019-07-29 2023-07-06 株式会社ソーシャル・キャピタル・デザイン Image processing system
JP7317299B2 (en) * 2019-07-29 2023-07-31 株式会社ソーシャル・キャピタル・デザイン Image processing system
CN113744335B (en) * 2021-08-24 2024-01-16 北京体育大学 Motion guiding method, system and storage medium based on field mark

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10138719A1 (en) * 2001-08-07 2003-03-06 Siemens Ag Method and device for displaying driving instructions, especially in car navigation systems
JP5095321B2 (en) * 2007-09-11 2012-12-12 クラリオン株式会社 Sightseeing information display device, navigation device, and sightseeing information display system

Also Published As

Publication number Publication date
JP2017090189A (en) 2017-05-25

Similar Documents

Publication Publication Date Title
JP7125214B2 (en) Programs and computing devices
JP7020728B2 (en) System, method and program
JP4696248B2 (en) MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
US9933515B2 (en) Sensor calibration for autonomous vehicles
JP2022553491A (en) Systems and methods for vehicle navigation
JP2024045389A (en) Lane mapping and navigation
JP2020085886A (en) Vehicle, vehicle positioning system, and method for positioning vehicle
CN112654836A (en) System and method for vehicle navigation
CN115867767A (en) System and method for vehicle navigation
JP6763656B2 (en) Driving guide system
CN114729813A (en) System and method for vehicle navigation
CN107615201A (en) Self-position estimation unit and self-position method of estimation
CN110491156A (en) A kind of cognitive method, apparatus and system
JP2006047291A (en) Device for marking digital lane
JP5801014B2 (en) Navigation device
CN113924462A (en) Navigation system and method for determining dimensions of an object
JP7008040B2 (en) Methods for creating mappings of environmental models, as well as vehicle control systems and corresponding vehicles
CN117387614A (en) System and method for dynamic road geometry modeling and navigation
CN112567264A (en) Apparatus and method for acquiring coordinate transformation information
JP2023504604A (en) System and method for selectively decelerating a vehicle
JP2021020626A (en) Display control device
CN114930123A (en) System and method for detecting traffic lights
CN117677972A (en) System and method for road segment drawing
JP2014211431A (en) Navigation device, and display control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6763656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350