JP2004046875A - Transportation automatic guiding device - Google Patents

Transportation automatic guiding device Download PDF

Info

Publication number
JP2004046875A
JP2004046875A JP2003270519A JP2003270519A JP2004046875A JP 2004046875 A JP2004046875 A JP 2004046875A JP 2003270519 A JP2003270519 A JP 2003270519A JP 2003270519 A JP2003270519 A JP 2003270519A JP 2004046875 A JP2004046875 A JP 2004046875A
Authority
JP
Japan
Prior art keywords
data
image
transportation
image data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003270519A
Other languages
Japanese (ja)
Inventor
Kazuo Iwane
岩根 和郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE KENKYUSHO KK
Original Assignee
IWANE KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE KENKYUSHO KK filed Critical IWANE KENKYUSHO KK
Priority to JP2003270519A priority Critical patent/JP2004046875A/en
Publication of JP2004046875A publication Critical patent/JP2004046875A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a transportation automatic guiding device capable of automatically recognizing temporally changing ambient conditions of transportation such as an automobile, and automatically guiding a travel path such as a road. <P>SOLUTION: In the transportation automatic guiding device 1, image data, sound data or the like regarding the ambient conditions of the running transportation acquired from an input device 2 is compared with image data prestored in a database by a comparing device 4. When the image data, sound data or the like matches as a result of comparison, contents of the data are recognized by a recognition device 5, and a recognized result is notified to an operator or the like by an output device 6 by characters, image, sound or the like. <P>COPYRIGHT: (C)2004,JPO

Description

 本発明は、運行する交通機関のおかれた状況を自動的に認識し、その状況を運行者等に文字、画像、音声等によって通知し、運行経路を案内し、かつ、運行する際の適切な動作を指示する交通機関自動案内装置に関する。 The present invention automatically recognizes the situation of the operating transportation system, notifies the operator of the situation by letters, images, sounds, etc., guides the operation route, and is suitable for operation. The present invention relates to a transportation automatic guidance device for instructing various actions.

 従来、道路に設置された標識、標示等を自動的に読み取り、その意味内容を認識したり、道路を走行する並進車両、追越車両、対向車両等の状況を認識して、自車両のおかれた状況を運転者又は同乗者に自動的に通知し、道路を案内する装置は存在しなかった。そこで、助手席に座った同乗者が、道路に設置された標識、標示等を読んで、運転者にその内容を知らせたり、道路を走行する並進車両、追越車両、対向車両等を見て、運転者にその状況を知らせたり、さらに、場合によっては、ブレーキを踏む等の操作を指示したりした。
 一方、近年における自動操縦技術の進歩によって、路肩に付設された白線を検知し、その白線に沿って自動車を自動走行させる装置が実用化されている。又、先行車両との距離を何らかの手段で検出し、所定距離を保持して自動車を自動走行させる装置、道路に設置されたビーコンに従って自動車を自動走行させる装置等が研究されており、実用化に近づいている(例えば、特許文献1参照)。
 何れにしても、道路に設置された標識、標示等、又、道路を走行する並進車両、追越車両、対向車両等を認識し、自動車が走行する道路を自動的に案内する装置は、これまで存在しなかった。
 このような従来の技術については、自動車等の路面を走行する車両に限らず、列車等の軌道を走行する車両、さらには、航空機等の空間を航行する機体、船舶等の海上を航行する船体においても同様であった。
Conventionally, signs and signs installed on roads are automatically read and their meanings are recognized, and the situation of translational vehicles, overtaking vehicles, oncoming vehicles, etc. traveling on the road is recognized, There is no device that automatically informs the driver or passenger of the situation and provides guidance on the road. Therefore, the passenger sitting in the passenger seat reads the signs and signs installed on the road, informs the driver of the contents, and looks at the translation vehicles, overtaking vehicles, oncoming vehicles, etc. running on the road. The driver was informed of the situation, and in some cases, instructed an operation such as stepping on a brake.
On the other hand, in recent years, with the advance of the autopilot technology, a device that detects a white line attached to a road shoulder and automatically drives an automobile along the white line has been put into practical use. In addition, a device that detects the distance from the preceding vehicle by some means and automatically drives the vehicle while maintaining a predetermined distance, a device that automatically drives the vehicle according to a beacon installed on the road, and the like have been studied. It is approaching (for example, see Patent Document 1).
In any case, a device that recognizes signs, signs, etc. installed on the road, and recognizes a translational vehicle, an overtaking vehicle, an oncoming vehicle, etc., traveling on the road, and automatically guides the road on which the automobile travels, Did not exist until.
Such conventional technologies are not limited to vehicles running on the road surface such as automobiles, but also vehicles running on tracks such as trains, and further, airframes such as aircraft, hulls navigating the sea such as ships, etc. The same was true for.

特開平10−162285号公報JP-A-10-162285

 ここで、道路に設置された標識、標示等、又、道路を走行する先行車両、後続車両、並進車両、追越車両、対向車両等の自車両のおかれた状況を自動的に認識するためには、自車両の周囲の状況を画像、音声等として経時的に取り込み、取り込んだ画像データ、音声データ等を高速で処理しなければならない。
 しかし、時々刻々と変化する自車両の周囲の状況を自動的に認識し、道路を自動的に案内するには、膨大な量の画像データ、音声データ等を処理する必要があり、とても高速で処理するのは困難であった。ましてや、リアルタイムで処理するのは到底不可能であった。
 このような問題点については、自動車等の路面を走行する車両に限らず、列車等の軌道を走行する車両、さらには、航空機等の空間を航行する機体、船舶等の海上を航行する船体においても同様であった。
Here, signs and signs installed on the road, and also automatically recognizes the situation of own vehicle such as preceding vehicle, following vehicle, translation vehicle, overtaking vehicle, oncoming vehicle, etc. In this method, the situation around the vehicle must be captured over time as images, sounds, and the like, and the captured image data, sound data, and the like must be processed at high speed.
However, in order to automatically recognize the situation around the vehicle that changes every moment and automatically guide the road, it is necessary to process a huge amount of image data, audio data, etc. It was difficult to process. Moreover, it was impossible to process in real time.
Such problems are not limited to vehicles traveling on road surfaces such as automobiles, vehicles traveling on tracks such as trains, and furthermore, aircraft traveling in space such as aircraft, and hulls traveling on the sea such as ships. And so on.

 本発明は、かかる従来の問題点に鑑みて為されたものであり、膨大な量の画像データ、音声データ等を高速に処理することができて、時々刻々と変化する自動車等の交通機関の周囲の状況を自動的に認識し、道路等の運行経路を自動的に案内することができる交通機関自動案内装置を提供することを目的とする。 The present invention has been made in view of such conventional problems, and is capable of processing an enormous amount of image data, audio data, and the like at a high speed, and is capable of processing an ever-changing transportation system such as an automobile. It is an object of the present invention to provide a transportation automatic guidance device capable of automatically recognizing surrounding conditions and automatically guiding an operation route such as a road.

 上記目的を達成するために、本発明の交通機関自動案内装置は、運行する交通機関の周囲の状況を画像、音声等として取得する入力装置と、その交通機関に関する画像データ、音声データ等を予め格納したデータベースと、前記入力装置によって取得した画像データ、音声データ等を前記データベース内に格納した画像データ、音声データ等と比較する比較装置と、画像データ、音声データ等を比較した結果が一致した場合にそのデータの内容を認識し、特定する認識装置と、前記認識装置によって認識し、特定した結果を運行者等に文字、画像、音声等によって通知する出力装置とから構成されることを特徴とする。 In order to achieve the above object, a transportation automatic guidance device of the present invention includes an input device that acquires the surroundings of an operating transportation as an image, a sound, and the like, and an image data and a voice data related to the transportation in advance. The result of comparing the stored database, the image data acquired by the input device, the audio data, etc. with the image data, the audio data, etc. stored in the database and the comparison device, which compared the image data, the audio data, etc., were in agreement. In this case, the apparatus is characterized by comprising a recognition device for recognizing and specifying the content of the data and an output device for recognizing the specified result by the recognition device and notifying the operator of the result by text, image, voice, or the like. And

 さらに、前記入力装置によって取得された対象物に対応する画像データ、音声データ等が前記データベース内に存在しない場合に、その新たな対象物に対応する画像データ、音声データ等を地図上の位置と対応させて前記データベースに新たに格納する記憶装置と、対象物に対応する画像データ、音声データ等が前記データベース内に格納された画像データ、音声データ等と相違する場合に、新しい画像データ、音声データ等に更新して前記データベースに格納するデータ更新装置を有することが好ましい。
 又、前記認識装置によって認識又は特定された事項に基づいて何等かの判断を行い、前記出力装置によって運行者等に判断結果に基づく指示を文字、画像、音声等で通知する判断装置をも有するのが好ましい。
 さらに、前記判断装置は、前記認識装置によって認識又は特定された事項に基づいて何等かの判断を行い、さらに、その判断結果に基づいて前記出力装置に所定の動作を指示し、制動装置、操縦装置等を自動的に作動させるものであることが好ましい。
Further, when the image data corresponding to the object acquired by the input device, audio data, and the like do not exist in the database, the image data corresponding to the new object, the audio data, and the like are defined as a position on the map. A storage device to be newly stored in the database in correspondence with the image data, audio data, and the like stored in the database; It is preferable to have a data updating device that updates the data and the like and stores the updated data in the database.
In addition, there is also provided a determination device that makes some determination based on the items recognized or specified by the recognition device and notifies the operator or the like of an instruction based on the determination result by text, image, voice, or the like by the output device. Is preferred.
Further, the determination device makes some determination based on the items recognized or specified by the recognition device, and further instructs the output device to perform a predetermined operation based on the determination result, and controls the braking device, It is preferable that the device automatically operates.

 又、前記交通機関自動案内装置において、これを構成する一又は複数の装置を他の装置と通信回線を介して接続するようにしてもよい。 In the transportation automatic guidance device, one or more devices constituting the device may be connected to another device via a communication line.

 さらに、前記入力装置によって取得された交通機関の周囲の状況についての遠近法画像データを、遠近感を排除した平面画像データに変換する平面画像変換装置と、前記比較装置によって、変換された平面画像データを前記データベース内に格納してある画像データと比較した結果に基づいて、そのデータの内容を認識し、特定する平面画像認識装置と、この平面画像認識装置によって認識、特定された対象物に関して、種々の空間的物理量を計測する画像内容計測装置と、から構成される平面展開処理装置を付設してもよい。
 又、前記平面画像変換装置は、前記入力装置によって取得された交通機関の周囲の状況についての360度全周囲画像データをも、平面画像データに変換する機能を有するようにしてもよい。
Furthermore, a plane image conversion device that converts perspective image data about the surroundings of the transportation system acquired by the input device into plane image data that eliminates perspective, and a plane image converted by the comparison device. Based on the result of comparing the data with the image data stored in the database, a planar image recognition device that recognizes and specifies the contents of the data, and an object recognized and identified by the planar image recognition device And an image content measuring device for measuring various spatial physical quantities, and a plane development processing device may be additionally provided.
Further, the plane image conversion device may have a function of converting 360-degree omni-directional image data on the surroundings of the transportation system acquired by the input device into plane image data.

 さらに、交通機関の周囲の状況を画像データ、計測データ等として取得する交通情報検出装置を交通機関の運行経路に設置して、前記交通情報検出装置によって取得した画像データ、計測データ等を受信できるようにしてもよい。
 ここで、前記交通情報検出装置は、取得された画像データ、計測データに基づいてコンピュータグラフィック化するグラフィック化装置を有することが好ましい。
Furthermore, a traffic information detecting device that acquires the surroundings of the transportation facility as image data, measurement data, and the like can be installed on an operation route of the transportation facility, and image data, measurement data, and the like acquired by the traffic information detection device can be received. You may do so.
Here, it is preferable that the traffic information detection device has a graphic device for performing computer graphics based on the acquired image data and measurement data.

 さらに、交通機関に搭載した入力装置によって映像を取得する画像取得部と、取得した映像をある期間記録する画像一時記録部と、画像内に対応点を取るための手掛り点を自動抽出する手掛り点自動抽出部と、距離差のある二以上の画像を取り出し、各画像内の複数の手掛り点の対応点を求める対応点検出部と、検出された複数の対応点から、入力装置の位置及び方向を演算する入力装置位置方向計測部と、求められた入力装置位置の三次元座標の相対距離値を、実測値を用いて絶対距離値に変換する実測スケール変換部と、から構成される位置関係認識装置を付設してもよい。 Further, an image acquisition unit for acquiring a video by an input device mounted on a transportation facility, an image temporary recording unit for recording the acquired video for a certain period, and a cue point for automatically extracting a cue point for obtaining a corresponding point in the image. An automatic extraction unit, a corresponding point detection unit that extracts two or more images having a distance difference and obtains corresponding points of a plurality of clue points in each image, and a position and a direction of the input device from the detected corresponding points. And a measurement scale conversion unit that converts the relative distance value of the obtained three-dimensional coordinates of the input device position into an absolute distance value using the measurement value. A recognition device may be provided.

 以下、本発明の交通機関自動案内装置の好適な実施形態について、図面を参照して詳細に説明する。
本発明の交通機関自動案内装置1は、図1に示すように、入力装置2と、データベース3と、比較装置4と、認識装置5と、出力装置6と、判断装置7と、記憶装置8と、データ更新装置9と、から構成される。
Hereinafter, a preferred embodiment of a transportation automatic guidance device of the present invention will be described in detail with reference to the drawings.
As shown in FIG. 1, the transportation automatic guidance device 1 of the present invention includes an input device 2, a database 3, a comparison device 4, a recognition device 5, an output device 6, a determination device 7, and a storage device 8. And a data updating device 9.

 入力装置2は、交通機関を運行する際に、その交通機関の周囲の状況を画像、音声等として取得するものである。例えば、画像はビデオカメラによって、音声はマイクロフォンによって取得する。 The input device 2 is for acquiring a situation around the transportation as an image, a sound or the like when operating the transportation. For example, images are acquired by a video camera, and sound is acquired by a microphone.

 データベース3には、予め、自動車の場合には、道路標識、道路標示、交通案内板等、又、自動車等に関する画像データ、音声データ等を格納してある。列車の場合には、踏切面、踏切信号、自動車等の移動障害物、プラットフォーム等、又、列車等に関する画像データ、音声データ等を格納してある。航空機の場合には、空港形状、空港の滑走路、誘導路、管制塔等の構造物、自動車等の移動障害物、又、航空機等に関する画像データ、音声データ等を格納してある。船舶の場合には、港湾形状、港湾の岸壁、埠頭、航路標識、又、船舶等に関する画像データ、音声データ等を格納してある。 The database 3 stores in advance, in the case of a car, a road sign, a road sign, a traffic information board, and the like, and image data, audio data, and the like regarding the car and the like. In the case of a train, a railroad crossing surface, a railroad crossing signal, a moving obstacle such as a car, a platform, and the like, and image data, voice data, and the like regarding the train and the like are stored. In the case of an aircraft, an airport shape, an airport runway, a taxiway, a structure such as a control tower, a moving obstacle such as a car, a moving obstacle such as an automobile, and image data and audio data related to an aircraft are stored. In the case of a ship, the port shape, port quay, wharf, seaway sign, image data, sound data, and the like regarding the ship are stored.

 比較装置4は、入力装置2によって取得した画像データ、音声データ等をデータベース3内に格納してある画像データ、音声データ等と比較する。 The comparison device 4 compares the image data, audio data, and the like acquired by the input device 2 with the image data, audio data, and the like stored in the database 3.

 認識装置5は、画像データ、音声データ等を比較した結果に基づいて、そのデータの内容を認識し、特定する。 (4) The recognition device 5 recognizes and specifies the content of the data based on the result of comparing the image data, the audio data, and the like.

 出力装置6は、認識装置5によって認識し、特定した結果を、運行者等に文字
、画像、音声等によって通知するものである。
The output device 6 notifies the operator of the result recognized and recognized by the recognition device 5 using characters, images, sounds, or the like.

 記憶装置8は、入力装置2によって取得された対象物に対応する画像データ、音声データ等がそもそもデータベース3内に存在しない場合に、その新たな対象物に対応する画像データ、音声データ等を、地図上の位置と対応させて、データベース3に新たに格納するものである。 The storage device 8 stores the image data, the audio data, and the like corresponding to the new object when the image data, the audio data, and the like corresponding to the target acquired by the input device 2 do not exist in the database 3 in the first place. It is newly stored in the database 3 in association with the position on the map.

 データ更新装置9は、地図上の所定位置に対象物が存在していても、その対象物に対応する画像データ、音声データ等がデータベース3内に格納された画像データ、音声データ等と相違する場合に、新しい画像データ、音声データ等に更新して、データベース3に格納するものである。 The data updating device 9 is different from the image data, the audio data, and the like, in which the image data, the audio data, and the like corresponding to the object are stored in the database 3 even if the target exists at a predetermined position on the map. In such a case, the data is updated to new image data, audio data, and the like and stored in the database 3.

 判断装置7は、認識装置5によって認識又は特定された事項に基づいて、何等かの判断を行い、出力装置6によって運行者等に判断結果に基づく指示を文字、画像、音声等で通知するものである。
 さらに、判断装置7は、判断結果に基づいて、出力装置6に所定の動作を指示し、ブレーキ等の制動装置、ハンドル等の操縦装置を自動的に作動させる場合もある。
The judging device 7 makes some judgment based on the items recognized or specified by the recognizing device 5 and notifies the operator based on the judgment result by text, image, sound, or the like by the output device 6. It is.
Further, the determination device 7 may instruct the output device 6 to perform a predetermined operation based on the determination result, and automatically operate a braking device such as a brake and a steering device such as a steering wheel.

 次に、交通機関が自動車の場合について、交通機関自動案内装置1が、自車両のおかれた状況を自動的に認識し、その状況を運転者又は同乗者に文字、画像、音声等によって通知し、道路を案内し、又、道路を走行する際の適切な動作を指示する例について、具体的に説明する。 Next, when the transportation is an automobile, the automatic transportation apparatus 1 automatically recognizes the situation where the vehicle is placed and notifies the driver or passenger of the situation by text, image, sound, or the like. Then, an example of guiding the road and instructing an appropriate operation when traveling on the road will be specifically described.

 図2に示すように、入力装置2によって制限速度50kmの道路標識12が画像データとして取得された場合、先ず、比較装置4によってデータベース3内に格納してある画像データと比較され、認識装置5によって制限速度50kmの道路標識データであると認識、特定される。
 次いで、その認識結果に基づいて、出力装置6によって制限速度が50kmであることが運転者又は同乗者に文字、画像、音声等で通知される。
As shown in FIG. 2, when a road sign 12 having a speed limit of 50 km is acquired as image data by the input device 2, the road sign 12 is first compared with the image data stored in the database 3 by the comparison device 4, and the recognition device 5. Is recognized and specified as the road sign data at the speed limit of 50 km.
Next, based on the recognition result, the output device 6 notifies the driver or the fellow passenger that the speed limit is 50 km by text, image, sound, or the like.

 このように、交通機関自動案内装置1によれば、運転者又は同乗者が道路標識12を見逃してしまった場合にも、現在走行中の道路では制限速度が50kmであることを確実に知ることができ、速度超過による交通違反を未然に防止することができるとともに、追突事故等の発生をも防止することができる。 As described above, according to the automatic transportation apparatus 1, even if the driver or the passenger misses the road sign 12, it is possible to surely know that the speed limit is 50 km on the currently traveling road. It is possible to prevent traffic violations due to excessive speed, and to prevent rear-end collisions and the like.

 図2に示すように、入力装置2によって自車両11の右側に他車両13が画像データとして取得された場合、先ず、比較装置4によってデータベース3内に格納してある画像データと比較され、認識装置5によってその他車両13は追越車両であると認識される。
 次いで、その認識結果に基づいて、判断装置7は他車両13が追越中には加速しないという判断を行い、出力装置6によって運転者又は同乗者に、加速しないようにという指示が、文字、画像、音声等で通知される。
As shown in FIG. 2, when another vehicle 13 is acquired as image data on the right side of the own vehicle 11 by the input device 2, first, the comparison device 4 compares the image data with the image data stored in the database 3 and performs recognition. The device 5 recognizes that the other vehicle 13 is an overtaking vehicle.
Next, based on the recognition result, the determination device 7 determines that the other vehicle 13 does not accelerate during the overtaking, and the output device 6 instructs the driver or the fellow passenger to not accelerate the vehicle. The notification is made by an image, a sound, or the like.

 このように、交通機関自動案内装置1によれば、運転者又は同乗者が自車両11の右側に他車両13が存在することに気が付かなかった場合にも、他車両13が追越中であることを確実に知ることができ、又、加速しないようにという指示によって、何等慌てることもなく、衝突事故等の発生を防止することができる。 As described above, according to the automatic transportation apparatus 1, even when the driver or the passenger does not notice that the other vehicle 13 exists on the right side of the own vehicle 11, the other vehicle 13 is overtaking. In addition, by giving an instruction not to accelerate, it is possible to prevent a collision accident or the like without any panic.

 図2に示すように、入力装置2によって、前方に存在する、赤色灯が点滅し、警報機が鳴っている踏切信号14が、画像データ、音声データとして取得された場合、先ず、比較装置4によってデータベース3内に格納してある画像データ、音声データと比較され、認識装置5によって、前方の踏切信号14の赤色灯が点滅し、警報機が鳴っていることが認識される。
 次いで、その認識結果に基づいて、判断装置7は停止しなければならないという判断を行い、さらに、踏切に進入するのは危険であり、法律でも禁止されていることを考慮し、出力装置6にブレーキを作動するように指示する。これによって、出力装置6がブレーキを作動させるため、自動車は踏切手前の安全な位置に自動的に停止する。
As shown in FIG. 2, when the input device 2 acquires a railroad crossing signal 14 in front of which the red light is blinking and the alarm is sounding as image data and audio data, first, the comparison device 4 Is compared with the image data and the audio data stored in the database 3, and the recognition device 5 recognizes that the red light of the front crossing signal 14 is blinking and the alarm is sounding.
Next, based on the recognition result, the determination device 7 makes a determination that the vehicle must stop, and further, considering that it is dangerous to enter a railroad crossing and is prohibited by law, the output device 6 Instruct the driver to apply the brake. As a result, the vehicle is automatically stopped at a safe position before the railroad crossing because the output device 6 operates the brake.

 このように、交通機関自動案内装置1によれば、運転者又は同乗者が前方において踏切信号14の赤色灯が点滅し、警報機が鳴っていることに気が付かなかった場合にも、さらには、気が付いていても適切な処置を取らなかった場合にも、踏切信号14の赤色灯が点滅し、警報機が鳴っていて、踏切に進入することは危険であることを確実に通知し、自動的に停止させるという適切な処置を指示し、実行させることができるので、甚大な被害を及ぼす事故等の発生を未然に防止することができる。 As described above, according to the transportation automatic guidance apparatus 1, even when the driver or the passenger does not notice that the red light of the railroad crossing signal 14 is flashing ahead and the alarm is sounding, Even if you do not take appropriate measures even if you notice, the red light of the level crossing signal 14 will flash, the alarm will sound, and it will be notified that entering the level crossing is dangerous, Therefore, it is possible to instruct and execute an appropriate action of stopping the vehicle, thereby preventing the occurrence of an accident or the like that causes enormous damage.

 次に、交通機関が列車の場合について、交通機関自動案内装置1が、自車両のおかれた状況を自動的に認識し、その状況を運転者又は同乗者に文字、画像、音声等によって通知し、線路を案内し、又、線路を走行する際の適切な動作を指示する例について、具体的に説明する。 Next, when the transportation is a train, the automatic transportation guidance device 1 automatically recognizes the situation where the own vehicle is placed, and notifies the driver or passenger of the situation by text, image, voice, or the like. An example of guiding a track and instructing a proper operation when traveling on the track will be specifically described.

 図3に示すように、入力装置2によって自車両の前方にプラットフォーム21が画像データとして取得された場合、先ず、比較装置4によってデータベース3内に格納してある画像データと比較され、認識装置5によって停車駅が近づいたことが認識される。
 次いで、その認識結果に基づいて、判断装置7は停車駅が近づいたので減速するという判断を行い、出力装置6によって運転者又は同乗者に、減速するようにという指示が、文字、画像、音声等で通知される。
As shown in FIG. 3, when the platform 21 is obtained as image data in front of the host vehicle by the input device 2, first, the comparison device 4 compares the image with the image data stored in the database 3, and It is recognized that the stop station is approaching.
Next, based on the recognition result, the determination device 7 determines that the vehicle is decelerating because the stopping station is approaching, and the output device 6 instructs the driver or a passenger to decelerate, and outputs a character, image, or voice. And so on.

 このように、交通機関自動案内装置1によれば、運転者又は同乗者が自車両の前方にプラットフォーム21が存在することに気が付かなかった場合にも、停車駅が近づいたことを確実に知ることができ、又、減速するようにという指示によって、過誤により停車駅を通過してしまうミスを防止することができる。 As described above, according to the automatic transportation apparatus 1, even when the driver or the passenger does not notice that the platform 21 exists in front of the own vehicle, the driver or the passenger can surely know that the stop station is approaching. In addition, by giving an instruction to decelerate, it is possible to prevent a mistake of passing a stop station due to an error.

 図3に示すように、入力装置2によって、自車両の前方に踏切面22、踏切信号23及び自動車等の移動障害物24が画像データ、音声データとして取得された場合、先ず、比較装置4によって、データベース3内に格納してある画像データ、音声データと比較され、認識装置5によって、前方の踏切信号23の赤色灯が点滅し、警報機が鳴っていること、及び、踏切面22に自動車等の移動障害物24が存在することが認識される。
 次いで、その認識結果に基づいて、判断装置7は緊急停止しなければならないという判断を行い、さらに、踏切面22に進入するのは危険であることを考慮し、出力装置6にブレーキを直ちに作動するように指示する。これによって、出力装置6がブレーキを直ちに作動させるため、自車両は踏切面22手前の安全な位置に自動的に急停止する。
As shown in FIG. 3, when the level crossing surface 22, the level crossing signal 23, and the moving obstacle 24 such as a car are acquired as image data and audio data in front of the own vehicle by the input device 2, first, the comparison device 4 Is compared with the image data and the audio data stored in the database 3, and the red light of the forward crossing signal 23 flashes and the alarm sounds by the recognition device 5, and the vehicle is displayed on the crossing surface 22. It is recognized that there is a moving obstacle 24 such as.
Next, based on the recognition result, the determination device 7 determines that an emergency stop must be performed, and furthermore, considering that it is dangerous to enter the railroad crossing surface 22, immediately activates the brake on the output device 6. To do so. As a result, the output device 6 immediately activates the brake, so that the host vehicle is automatically suddenly stopped at a safe position before the railroad crossing surface 22.

 このように、交通機関自動案内装置1によれば、運転者又は同乗者が前方の踏切信号23の赤色灯が点滅し、警報機が鳴っていること、及び、踏切面22に自動車等の移動障害物24が存在することに気が付かなかった場合にも、さらには、気が付いていても適切な処置を取らなかった場合にも、踏切信号23の赤色灯が点滅し、警報機が鳴っていて、踏切面22に進入することは危険であることを確実に通知し、自動的に急停止させるという適切な処置を指示し、実行させることができるので、甚大な被害を及ぼす踏切事故等の発生を未然に防止することができる。 As described above, according to the automatic transportation apparatus 1, the driver or the fellow passenger blinks the red light of the level crossing signal 23 in front, sounds the alarm, and moves the vehicle or the like to the level crossing surface 22. The red light of the railroad crossing signal 23 flashes and the alarm sounds even when the driver does not notice that the obstacle 24 is present, or even when he does not take appropriate measures even if he does. Since it is possible to reliably notify that entering the railroad crossing surface 22 is dangerous, and to instruct and execute an appropriate measure of automatically stopping the vehicle suddenly, the occurrence of a railroad crossing accident or the like that causes enormous damage can be prevented. It can be prevented before it happens.

 次に、交通機関が航空機の場合について、交通機関自動案内装置1が、自機体のおかれた状況を自動的に認識し、その状況を操縦者又は同乗者に文字、画像、音声等によって通知し、航路、空港内を案内し、又、航路を航行し、空港内を走行する際の適切な動作を指示する例について、具体的に説明する。 Next, in the case where the transportation means is an aircraft, the automatic transportation means 1 automatically recognizes the situation where the own body is placed, and notifies the situation to the pilot or the passenger by text, image, sound, or the like. An example of guiding the navigation route and the inside of the airport, and navigating the navigation route and instructing an appropriate operation when traveling in the airport will be specifically described.

 図4に示すように、入力装置2によって、自機体31の前方に他機体32、自動車33等の移動障害物が画像データ、音声データとして取得された場合、先ず、比較装置4によって、データベース3内に格納してある画像データ、音声データと比較され、認識装置5によって、前方に他機体32、自動車33等の移動障害物が存在することが認識される。
 次いで、その認識結果に基づいて、判断装置7は緊急停止しなければならないという判断を行い、さらに、前方に移動するのは危険であることを考慮し、出力装置6にブレーキを直ちに作動するように指示する。これによって、出力装置6がブレーキを直ちに作動させるため、自機体31は移動障害物手前の安全な位置に自動的に急停止する。
As shown in FIG. 4, when moving obstacles such as another body 32 and a car 33 are acquired as image data and audio data in front of the own body 31 by the input device 2, first, the comparison device 4 uses the database 3. It is compared with the image data and the audio data stored therein, and the recognizing device 5 recognizes that there is a moving obstacle such as the other body 32 or the automobile 33 in front.
Next, based on the recognition result, the determination device 7 determines that an emergency stop must be performed, and further considers that it is dangerous to move forward, so that the output device 6 immediately activates the brake. To instruct. As a result, the output device 6 immediately activates the brake, so that the own body 31 automatically stops suddenly at a safe position in front of the moving obstacle.

 このように、交通機関自動案内装置1によれば、操縦者又は同乗者が自機体31の前方に他機体32、自動車33等の移動障害物が存在することに気が付かなかった場合にも、さらには、気が付いていても適切な処置を取らなかった場合にも、前方に移動障害物が存在し、前方に移動することは危険であることを確実に通知し、自動的に急停止させるという適切な処置を指示し、実行させることができるので、甚大な被害を及ぼす航空機事故等の発生を未然に防止することができる。 As described above, according to the automatic transportation apparatus 1, even when the pilot or the passenger does not notice that there is a moving obstacle such as the other body 32 or the car 33 in front of the own body 31, furthermore, Is to ensure that even if you are aware and do not take appropriate action, there is a moving obstacle ahead and that it is dangerous to move forward Since such measures can be instructed and executed, it is possible to prevent the occurrence of an aircraft accident or the like that causes enormous damage.

 次に、交通機関が船舶の場合について、交通機関自動案内装置1が、自船体のおかれた状況を自動的に認識し、その状況を操縦者又は同乗者に文字、画像、音声等によって通知し、航路、港湾内を案内し、又、航路、港湾内を航行する際の適切な動作を指示する例について、具体的に説明する。 Next, in the case where the transportation is a ship, the transportation automatic guidance device 1 automatically recognizes the situation where the own hull is placed, and notifies the pilot or passenger of the situation by text, image, sound, or the like. An example of guiding a navigation channel and a harbor and instructing an appropriate operation when navigating the navigation channel and a harbor will be specifically described.

 図5に示すように、船舶41が港湾45内で着岸するために航行する際に、入力装置2によって、水路、埠頭43、岸壁44が画像データとして取得された場合、先ず、比較装置4によってデータベース3内に格納してある画像データ、音声データと比較され、認識装置5によって、水路、埠頭43、岸壁44が認識される。
 次いで、その認識結果に基づいて、判断装置7は、岸壁44の着岸位置及び船舶41の現在位置並びに港則法、海上交通安全法等の関係法令から航行経路を判断し、出力装置6によって、操縦者又は同乗者に、航行経路についての指示が文字、画像、音声等で通知される。
As shown in FIG. 5, when the waterway, the quay 43, and the quay 44 are acquired as image data by the input device 2 when the ship 41 sails to berth in the port 45, first, the comparison device 4 The image data and audio data stored in the database 3 are compared with each other, and the waterway, the pier 43, and the quay 44 are recognized by the recognition device 5.
Next, based on the recognition result, the determination device 7 determines the navigation route from the docking position of the quay 44, the current position of the ship 41, and the relevant laws and regulations such as the Port Regulation Law, the Marine Traffic Safety Law, and the like. The instruction about the navigation route is notified to the pilot or the passenger by characters, images, sounds, or the like.

 このように、交通機関自動案内装置1によれば、操縦者又は同乗者が港湾45内の形状について不案内であった場合にも、岸壁44の着岸位置までの航行経路を容易に知得でき、岸壁44に円滑に着岸することができて、港湾45内における船舶の混雑を緩和することができる。 As described above, according to the transportation automatic guidance device 1, even when the pilot or the passenger is not informed about the shape of the port 45, the navigation route to the berth 44 at the berth position can be easily obtained. Berth 44 can be smoothly berthed, and congestion of ships in the harbor 45 can be reduced.

 図5に示すように、入力装置2によって、自船舶41の前方に他船舶42、埠頭43、岸壁44、浅瀬等が画像データ、音声データとして取得された場合、先ず、比較装置4によって、データベース3内に格納してある画像データ、音声データと比較され、認識装置5によって、他船舶42、埠頭43、岸壁44、浅瀬等が存在することが認識される。
 次いで、その認識結果に基づいて、判断装置7は、緊急停止又は航路変更しなければならないという判断を行い、さらに、このまま航行するのは危険であることを考慮し、出力装置6に船舶41を緊急停止又は航路変更する処置を直ちに取るように指示する。これによって、出力装置6が船舶41を緊急停止又は航路変更させるため、船舶41は安全な位置に自動的に停止するか、安全な位置に移動する。
As shown in FIG. 5, when the other device 42, the pier 43, the quay 44, the shallow water, and the like are acquired as image data and audio data in front of the own ship 41 by the input device 2, first, the comparison device 4 uses the database. The image data and the audio data stored in the storage device 3 are compared with each other, and the recognition device 5 recognizes that the other ship 42, the pier 43, the quay 44, the shallow water, and the like exist.
Next, based on the recognition result, the determination device 7 makes a determination that an emergency stop or a change in route is necessary, and further considers that it is dangerous to sail as it is, so that the ship 41 is output to the output device 6. Instruct emergency stop or route change immediately. As a result, the output device 6 causes the ship 41 to perform an emergency stop or route change, so that the ship 41 automatically stops at a safe position or moves to a safe position.

 このように、交通機関自動案内装置1によれば、操縦者又は同乗者が前方に他船舶42、埠頭43、岸壁44、浅瀬等が存在することに気が付かなかった場合にも、さらには、気が付いていても適切な処置を取らなかった場合にも、他船舶42、埠頭43、岸壁44、浅瀬等が存在して、そのまま航行することは危険であることを確実に通知し、自動的に緊急停止、航路変更させるという適切な処置を指示し、実行させることができるので、甚大な被害を及ぼす船舶事故等の発生を未然に防止することができる。 As described above, according to the automatic transportation apparatus 1, even when the pilot or the passenger does not notice that the other ship 42, the pier 43, the quay 44, the shallows, and the like exist in front, the driver or the passenger further notices. Even if the ship does not take appropriate measures, it is informed that other vessels 42, wharves 43, quays 44, shallows, etc. are present and that it is dangerous to sail as it is Since appropriate measures such as stopping and changing the route can be instructed and executed, it is possible to prevent the occurrence of marine accidents or the like that cause enormous damage.

 尚、交通機関自動案内装置1において、それを構成する入力装置2、データベース3、比較装置4、認識装置5、出力装置6、判断装置7、記憶装置8、データ更新装置9の何れか一の装置又は複数の装置を、交通機関自動案内装置1を構成する他の装置と通信回線を介して接続するようにしてもよい。
 かかる構成によれば、中央管制センター等において交通機関を遠隔制御することも可能となる。
In the transportation automatic guidance device 1, any one of the input device 2, the database 3, the comparison device 4, the recognition device 5, the output device 6, the determination device 7, the storage device 8, and the data update device 9 constituting the device is provided. The device or a plurality of devices may be connected to other devices constituting the automatic transportation guidance device 1 via a communication line.
According to such a configuration, it is also possible to remotely control the transportation at a central control center or the like.

 以上述べたように、本発明の交通機関自動案内装置によれば、膨大な量の画像データ、音声データ等を高速に処理することができ、時々刻々と変化する交通機関の周囲の状況を自動的に認識し、運行経路を自動的に案内することができる。 As described above, according to the transportation automatic guidance device of the present invention, a huge amount of image data, audio data, and the like can be processed at high speed, and the situation around the transportation that changes every moment can be automatically detected. And automatically guide the operating route.

 又、本発明の交通機関自動案内装置1には、平面展開処理装置51を付設することもできる。 平面 Further, the automatic transportation guide device 1 of the present invention may be provided with a plane development processing device 51.

平面展開処理装置51は、運行する交通機関の周囲の状況について入力装置2によって取得された遠近法画像を、平面展開することによって遠近感を排除した平面画像に変換し、これに基づいて距離、面積等の計測処理を実行するものであり、図6に示すように、平面画像変換装置52と、平面画像認識装置53と、平面画像結合装置54と、画像内容計測装置55と、から構成される。   The plane development processing device 51 converts the perspective image acquired by the input device 2 with respect to the situation around the operating transportation system into a plane image in which perspective is eliminated by performing plane development, and based on this, the distance, As shown in FIG. 6, the measurement processing of the area and the like is performed. The measurement processing includes a planar image conversion device 52, a planar image recognition device 53, a planar image combining device 54, and an image content measuring device 55. You.

 交通機関を運行する際に、その交通機関の周囲の状況は、入力装置2によって遠近法画像として取得される。
 平面画像変換装置52は、この取得された遠近法画像を平面展開することによって、遠近感を排除した平面画像に変換するものである。
When operating a transportation facility, the situation around the transportation facility is acquired by the input device 2 as a perspective image.
The plane image conversion device 52 converts the acquired perspective image into a plane image in which perspective is eliminated by expanding the plane into a plane.

 入力装置2であるビデオカメラによって取得された遠近法画像は、例えば、図7に示す変数を用いて、以下の式(1),(2)によって平面展開され、遠近感を排除した平面画像に変換される。

 y=v・21/2・h・cos(π/4−θ)・cos(β−θ)/
   (f・sinβ)                 ・・・・・(1)
 x=u・h・cos(β−θ)/(f・sinβ)    ・・・・・(2)

 ここで、θはカメラの光軸と道路面等の平面との為す角度、fはカメラの焦点距離、hはカメラの高さ、βはカメラの真下からh+yの距離にある点とカメラとを結ぶ線分と道路面等の平面との為す角度、vはカメラの映写面上の原点から縦方向の座標、uはカメラの映写面上の原点から横方向の座標、yは道路面等の平面におけるカメラの真下からh進んだ点を原点とした縦方向の座標、xは道路面等の平面における横方向の座標である。
The perspective image acquired by the video camera as the input device 2 is flattened by the following equations (1) and (2) using, for example, the variables shown in FIG. Is converted.

y = v · 2 1/2 · h · cos (π / 4−θ) · cos (β−θ) /
(F · sinβ) (1)
x = u · h · cos (β−θ) / (f · sinβ) (2)

Here, θ is the angle between the optical axis of the camera and a plane such as a road surface, f is the focal length of the camera, h is the height of the camera, β is the point at a distance of h + y from directly below the camera and the camera. The angle between the connecting line segment and a plane such as a road surface, v is the vertical coordinate from the origin on the camera projection surface, u is the horizontal coordinate from the origin on the camera projection surface, and y is the road surface etc. The coordinates in the vertical direction with the point advanced h from directly below the camera on the plane as the origin, and x are the coordinates in the horizontal direction on a plane such as a road surface.

 平面画像認識装置53は、比較装置4によって、変換された平面画像データをデータベース3内に格納してある画像データと比較した結果に基づいて、そのデータの内容を認識し、特定するものである。 The plane image recognition device 53 recognizes and specifies the contents of the converted plane image data based on the result of comparison by the comparison device 4 with the image data stored in the database 3. .

 平面画像結合装置54は、変換された平面画像データを適宜結合させて、大画面の平面画像データを生成するものである。 The plane image combining device 54 appropriately combines the converted plane image data to generate large-screen plane image data.

 画像内容計測装置55は、平面画像認識装置53によって認識、特定された対象物に関して、種々の空間的物理量を計測するものである。空間的物理量としては、位置、距離、面積、高さ、奥行、体積、速度、加速度等が挙げられる。 The image content measuring device 55 measures various spatial physical quantities of the object recognized and specified by the planar image recognizing device 53. Examples of the spatial physical quantity include a position, a distance, an area, a height, a depth, a volume, a speed, an acceleration, and the like.

 次に、交通機関が自動車等の路面を走行する車両の場合について、平面展開処理装置51によって所定の空間的物理量を計測処理する例について、具体的に説明する。 Next, an example in which a predetermined spatial physical quantity is measured and processed by the plane development processing device 51 when the transportation means is a vehicle running on a road surface such as an automobile will be specifically described.

 図8(A)に示すように、入力装置2によって自車両の前方に延長する走行車線56が遠近法画像データとして取得された場合、先ず、平面画像変換装置52によって、図8(B)に示すように、遠近感を排除した鉛直上方から見た平面画像データに変換される。ここで、平面画像認識装置53によって、変換された平面画像データの内容が認識、特定され、平面画像内には走行車線56が存在することが認識、特定される。
 次いで、画像内容計測装置55によって、図8(B)に示すように、対象物である走行車線56に関して、車線幅、車線の平行度等の種々の空間的物理量が計測される。又、入力装置2によってリアルタイムに遠近法画像データを取得すれば、時間当たりの移動距離を計測することによって、自車両の進行速度を計測することができる。
As shown in FIG. 8A, when the traveling lane 56 extending in front of the host vehicle is acquired as the perspective image data by the input device 2, first, the plane image conversion device 52 converts the traveling lane 56 into FIG. As shown in the figure, the image data is converted into planar image data viewed from above vertically without perspective. Here, the plane image recognition device 53 recognizes and specifies the contents of the converted plane image data, and recognizes and specifies that the traveling lane 56 exists in the plane image.
Next, as shown in FIG. 8B, various spatial physical quantities such as the lane width and the parallelism of the lane are measured by the image content measuring device 55, as shown in FIG. 8B. If the perspective image data is acquired in real time by the input device 2, the traveling speed of the host vehicle can be measured by measuring the moving distance per time.

 次に、交通機関が列車等の軌道を走行する車両の場合について、平面展開処理装置51によって所定の空間的物理量を計測処理する例について、具体的に説明する。 Next, an example in which a predetermined spatial physical quantity is measured and processed by the plane development processing device 51 in a case where the transportation means is a vehicle running on a track such as a train will be specifically described.

 図9(A)に示すように、入力装置2によって自車両の前方に延長する線路57が遠近法画像データとして取得された場合、先ず、平面画像変換装置52によって、図9(B)に示すように、遠近感を排除した鉛直上方から見た平面画像データに変換される。ここで、平面画像認識装置53によって、変換された平面画像データの内容が認識、特定され、平面画像内には線路57が存在することが認識、特定される。
 次いで、画像内容計測装置55によって、図10に示すように、対象物である線路57に関して、レール幅、レール平行度等の種々の空間的物理量が計測される。又、入力装置2によってリアルタイムに遠近法画像データを取得すれば、時間当たりの移動距離を計測することによって、自車両の進行速度を計測することができる。
As shown in FIG. 9A, when the input device 2 acquires the line 57 extending in front of the own vehicle as perspective image data, first, the plane image converter 52 shown in FIG. 9B. As described above, the image data is converted into the planar image data viewed from above vertically without the perspective. Here, the contents of the converted plane image data are recognized and specified by the plane image recognition device 53, and the existence of the line 57 in the plane image is recognized and specified.
Next, as shown in FIG. 10, various spatial physical quantities such as a rail width, a rail parallelism, and the like are measured by the image content measuring device 55 as shown in FIG. 10. If the perspective image data is acquired in real time by the input device 2, the traveling speed of the host vehicle can be measured by measuring the moving distance per time.

 このように、平面展開処理装置51によれば、交通機関自動案内装置1に付随して、交通機関を運行する際に、その交通機関の周囲の状況に関する種々の空間的物理量を取得することができる。
 又、この取得された空間的物理量に基づいて、交通機関自動案内装置1において、より適切な通知、指示を出すことも可能となる。
As described above, according to the plane development processing device 51, it is possible to acquire various spatial physical quantities related to the situation around the transportation when operating the transportation, accompanying the transportation automatic guidance device 1. it can.
Further, based on the acquired spatial physical quantity, the automatic transportation guide device 1 can issue more appropriate notification and instruction.

 平面展開処理装置51は、遠近法画像を平面画像に変換する機能を有するだけでなく、360度全周囲画像(球面画像)を平面画像に変換する機能を有するものとしてもよい。
 360度全周囲画像とは、運行する交通機関の全周囲、すなわち、前後、左右、上下、全ての方向を捉えた画像であって、例えば、1)複数のカメラで撮影した画像を合成する、2)カメラの前面に曲面ミラーを設置し、曲面ミラーに映った画像を撮影する、3)1台のカメラを回動させ、各位置で撮影した画像を合成する、4)カメラに魚眼レンズを装着し、広範囲に撮影した画像を処理する、等の方法によって取得できる。
The plane development processing device 51 may have not only a function of converting a perspective image to a plane image but also a function of converting a 360-degree omnidirectional image (spherical image) to a plane image.
The 360-degree all-around image is an image that captures the entire periphery of the operating transportation system, that is, the front, rear, left, right, up, down, and all directions. For example, 1) combining images captured by a plurality of cameras, 2) A curved mirror is installed in front of the camera to capture images reflected on the curved mirror. 3) One camera is rotated to combine images captured at each position. 4) A fisheye lens is attached to the camera. Then, the image can be obtained by a method of processing an image captured in a wide range.

 前記360度全周囲画像を、図11に示すように、仮想の球面上に貼り付けられた画像と見做せば、変換された平面画像は、所望の視点から見た平面に投影された画像と捉えることができる。
 路面を走行する自動車の周囲の状況を、上記のような方法で360度全周囲画像として取得した場合にあって、自動車の上方を視点として平面画像に変換した例を図12に示す。
Assuming that the 360-degree omnidirectional image is an image pasted on a virtual spherical surface as shown in FIG. 11, the converted plane image is an image projected on a plane viewed from a desired viewpoint. It can be regarded as.
FIG. 12 shows an example in which a situation around a car traveling on a road surface is acquired as a 360-degree omnidirectional image by the above-described method, and is converted into a plane image from the viewpoint of the top of the car.

 尚、以上においては、交通機関として自動車等の路面を走行する車両、列車等の軌道を走行する車両を例に挙げて説明したが、航空機、船舶等においても同様に適用することができる。 In the above description, a vehicle running on a road surface such as an automobile and a vehicle running on a track such as a train have been described as examples of transportation. However, the present invention can be similarly applied to an aircraft and a ship.

 さらに、別途、交通機関の運行経路に交通情報検出装置61を設置して、交通情報検出装置61によって取得した画像データ、計測データ等を交通機関自動案内装置1に送信するようにしてもよい。 Furthermore, a traffic information detection device 61 may be separately installed on the route of transportation, and image data, measurement data, and the like acquired by the traffic information detection device 61 may be transmitted to the automatic transportation device 1.

 交通情報検出装置61は、交通機関自動案内装置1における入力装置2、データベース3、比較装置4、認識装置5、記憶装置8、データ更新装置9、平面展開処理装置51、さらに、グラフィック化装置62から構成される。 The traffic information detecting device 61 includes the input device 2, the database 3, the comparing device 4, the recognizing device 5, the storage device 8, the data updating device 9, the plane development processing device 51, and the graphic device 62 in the automatic transportation guide device 1. Consists of

 グラフィック化装置62は、入力装置2から取得された画像データ、計測データに基づいてコンピュータグラフィック(CG)化するものである。 The graphic conversion device 62 converts the image data and measurement data obtained from the input device 2 into computer graphics (CG).

 次に、交通機関が自動車の場合について、運行経路に設置した交通情報検出装置61によって取得した画像データ、計測データ等を交通機関自動案内装置1に送信する例について、具体的に説明する。 Next, an example of transmitting image data, measurement data, and the like acquired by the traffic information detection device 61 installed on the operation route to the transportation automatic guidance device 1 when the transportation is an automobile will be specifically described.

 自動車の場合には、交通情報検出装置61は、例えば図13に示すように、道路に付設されたゲート63、照明灯64等に設置される。そして、図14に示すように、交通情報検出装置61によって取得した画像データ、計測データ等は、先ず、データを集中管理するために設置された基地局65に送信され、次に、適宜場所に複数設置された端末局66に配信され、端末局66から交通機関自動案内装置1を搭載した各車両へと送信される。 In the case of a car, the traffic information detecting device 61 is installed at a gate 63, a lighting lamp 64, and the like attached to a road, for example, as shown in FIG. Then, as shown in FIG. 14, the image data, measurement data, and the like acquired by the traffic information detection device 61 are first transmitted to the base station 65 installed for centrally managing the data, and then transmitted to an appropriate location. The information is distributed to a plurality of terminal stations 66 installed and transmitted from the terminal station 66 to each vehicle equipped with the automatic transportation apparatus 1.

 交通情報検出装置61から基地局65、端末局66を介して交通機関自動案内装置1を搭載した各車両へ配信される画像データ、計測データ等は、コンピュータグラフィック画像(CG)化されて図形、数値等とともに送信されるから、各車両の交通機関自動案内装置1においては、出力装置6によって、図15に示すように、図形、数値、文字等で理解し易く表示され、極めて便利である。 Image data, measurement data, and the like distributed from the traffic information detection device 61 to each vehicle equipped with the automatic transportation system 1 via the base station 65 and the terminal station 66 are converted into computer graphic images (CG), Since the information is transmitted together with numerical values and the like, in the automatic transportation guidance device 1 of each vehicle, as shown in FIG.

 コンピュータグラフィック化された出力画面においては、自車両の座標は適宜位置に固定され、走行する自車両の周囲の状況、すなわち道路標識、道路標示、交通案内板、他車両等の位置又表示は、交通情報検出装置61を通過する毎に、時々刻々と変化するようになっている。
 尚、出力画面に表示されるものは、平面的なコンピュータグラフィック画像に限らず、立体的なコンピュータグラフィック画像(3DCG)であってもよく、平面展開された実画像と合成されたものであってもよい。
On the computerized output screen, the coordinates of the own vehicle are fixed at appropriate positions, and the surroundings of the running own vehicle, that is, the position or display of road signs, road signs, traffic information boards, other vehicles, etc. Each time it passes through the traffic information detection device 61, it changes every moment.
It should be noted that what is displayed on the output screen is not limited to a planar computer graphic image, and may be a three-dimensional computer graphic image (3DCG), which is synthesized with a real image developed on a plane. Is also good.

 図15に示す出力画面は、予め設定された自車両の安全圏を侵害する又は侵害する虞れのある他車両がある場合であって、「追い越し車両あり 時速:140km」等、文字、音声等によって運転者又は同乗者に通知される。 The output screen shown in FIG. 15 shows a case where there is another vehicle that infringes or is likely to infringe the safety area of the own vehicle that has been set in advance. Is notified to the driver or passenger.

 交通情報検出装置61から交通機関自動案内装置1への送信によって交通情報を認識することは、図16に示すように、特に、交叉点等において自車両からは左右道路が死角となる場合に、その左右道路の交通状況を容易に把握することができ、交通安全対策上極めて有益である。
 図16に示す出力画面は、自車両からは左右道路が死角となる位置に他車両がある場合であって、「前方右折車あり」等、文字、音声等によって運転者又は同乗者に通知される。
Recognition of traffic information by transmission from the traffic information detection device 61 to the automatic transportation guide device 1 is, as shown in FIG. 16, particularly when the left and right roads are blind from the own vehicle at an intersection or the like. The traffic conditions on the left and right roads can be easily grasped, which is extremely useful for traffic safety measures.
The output screen shown in FIG. 16 is a case where another vehicle is located at a position where the left and right roads are blind spots from the own vehicle, and is notified to the driver or passenger by characters, voice, etc., such as "there is a right turn ahead". You.

 尚、以上においては、交通機関として路面を走行する自動車を例に挙げて説明したが、列車等の軌道を走行する車両、航空機、船舶等においても同様に適用することができる。 In the above description, an example has been described in which a vehicle that travels on a road surface is used as a means of transportation, but the present invention can be similarly applied to a vehicle that travels on a track such as a train, an aircraft, a ship, and the like.

 さらに、交通機関自動案内装置1において、運行する交通機関と周囲との位置関係を正確に認識できる装置を付設すれば、より効果的に交通機関を自動案内することができる。
 以下においては、交通機関として自動車等の路面を走行する車両の場合について、運行する交通機関と周囲との位置関係を正確に認識できる位置関係認識装置101について説明する。
Furthermore, if a device capable of accurately recognizing the positional relationship between the operating transportation system and the surroundings is provided in the automatic transportation system 1, the transportation system can be automatically guided more effectively.
In the following, a description will be given of a positional relationship recognition device 101 that can accurately recognize the positional relationship between a running transportation system and the surroundings in the case of a vehicle running on a road surface such as an automobile as a transportation system.

 運行する車両の位置関係を認識し、車両を案内する装置としては、搭載したカメラによって取得された映像から道路に付設された白線を検出し、その白線からはみ出さないように車両を案内する装置が既に開発されている。
 この装置にあっては、白線という特殊な対象物に限定して、自車両を白線との関係においてのみ位置付けているから、白線を付設していない道路では、位置認識機能及び自動案内機能は停止するし、白線が曲がって形成されていれば、誤作動をする虞れもある。又、交差点等白線に沿って進行することが必ずしも目的に沿わない場合には、位置認識機能及び自動案内機能は全く意味をもたないものとなってしまう。さらに、白線以外のものを白線と誤認識する危険もあり、白線に沿って走行していても、障害物が存在した場合には、それを回避することはできない。
As a device for recognizing the positional relationship of a running vehicle and guiding the vehicle, a device that detects a white line attached to a road from an image acquired by a mounted camera and guides the vehicle so as not to protrude from the white line. Has already been developed.
In this device, the vehicle is positioned only in relation to the white line, and is limited to a special object such as the white line. Therefore, on roads without white lines, the position recognition function and the automatic guidance function are stopped. However, if the white line is bent, there is a risk of malfunction. In addition, when traveling along a white line such as an intersection does not always meet the purpose, the position recognition function and the automatic guidance function have no meaning at all. Furthermore, there is a risk that something other than the white line may be erroneously recognized as a white line. Even if the vehicle is running along the white line, if an obstacle exists, it cannot be avoided.

 本発明における位置関係認識装置101は、道路に付設した白線のみならず、カメラによって取得された映像中の全ての対象物を利用して、自車両の三次元的位置を認識し、しかも、周囲の状況の中に自車両を三次元的に位置付けることができるようにしたものである。
 すなわち、位置関係認識装置101においては、道路に付設した白線のみならず、映像中に存在する全ての対象物が三次元計測の手掛りとなる。又、対象物そのものではなく、対象物中にあって画像処理によって抽出しやすい部分を手掛りとする。又、対象物中にあって、三次元計測の手掛りとなりそうな部分を複数抽出する。さらに、当初から対象物を特定するのではなく、検出できた対象物を手掛りとする、という点にも特徴がある。
The positional relationship recognition device 101 according to the present invention recognizes the three-dimensional position of the vehicle using not only the white line attached to the road, but also all the objects in the image acquired by the camera, and furthermore, recognizes the surroundings. In this situation, the vehicle can be positioned three-dimensionally.
That is, in the positional relationship recognition apparatus 101, not only the white line attached to the road, but also all the objects existing in the video are clues for the three-dimensional measurement. Also, not the target object itself but a part in the target object that is easily extracted by image processing is used as a clue. In addition, a plurality of portions that are likely to be clues for three-dimensional measurement in the object are extracted. Another feature is that a detected object is used as a clue instead of specifying the object from the beginning.

 映像中の前記手掛りの部分を、車両の進行によって生成される連続画像の各画像中において、マッチング法等の画像処理技術を適用して自動追跡する。ここで、追跡に成功するものもあれば、追跡に失敗して逃すものもあるが、追跡に成功した手掛りの部分のみを三次元計測の対象とすればよい。
 そして、車両が適当な距離移動する間に追跡に成功した複数の手掛りの部分に基づいて、所定の演算をすることによって、自車両の三次元的位置及び方向を検出、認識する。
The cue part in the video is automatically tracked by applying an image processing technique such as a matching method in each of the continuous images generated by the traveling of the vehicle. Here, there are some which succeed in tracking, and others which miss due to failure in tracking, but only the clue which succeeded in tracking may be subjected to three-dimensional measurement.
Then, based on a plurality of clues successfully tracked while the vehicle travels an appropriate distance, a predetermined calculation is performed to detect and recognize the three-dimensional position and direction of the own vehicle.

 又、複数のカメラを互いの視野が重なるように搭載して、重なる視野の中で対応点を検出して三次元計測を行い、周囲の手掛りとなる部分から構成された三次元座標の中に、又は、他の方法で取得された周囲の三次元画像の中に、自車両の三次元位置及び方向を位置付ける。 In addition, multiple cameras are mounted so that their fields of view overlap, detect corresponding points in the overlapping fields of view, perform three-dimensional measurement, and place them in three-dimensional coordinates composed of surrounding clues. Alternatively, the three-dimensional position and direction of the vehicle are located in the surrounding three-dimensional image acquired by another method.

 本発明における位置関係認識装置101によれば、
 1)大きな視差を得ることができるので、遠方の対象物について計測精度が向上する。
 2)誤差の累積を少なくすることができる。
 3)カメラ位置を演算により計測できるので、装置構成が簡単になり、カメラの設定が極めて簡易になる。
 4)カメラによって撮影した過去の映像データから、三次元計測が可能になるので、過去の映像資料を活用することができる。
 5)過去に走行して取得した特徴となる点のデータから、その特徴点を手掛りとして、自車両の位置を演算により三次元的に求めることができる。
 6)映像には映っていない領域の車両位置及び方向を演算によって求めることができる。
 このように、位置関係認識装置101によれば、白線のみによる自車両の位置検出によっては決して為し得ない、様々な機能を発揮することができる。
 そして、周囲の交通状況を判断し、それを運行者に伝達し、又は、それに基づいて直接に車両を制御し、より高度な自動案内を実現することができ、交通安全に効果的に貢献することができる。
According to the positional relationship recognition device 101 of the present invention,
1) Since a large parallax can be obtained, the measurement accuracy of a distant object is improved.
2) Accumulation of errors can be reduced.
3) Since the camera position can be measured by calculation, the device configuration is simplified, and the setting of the camera is extremely simplified.
4) Since three-dimensional measurement can be performed from past video data captured by a camera, past video data can be used.
5) The position of the own vehicle can be obtained three-dimensionally from the data of the characteristic points obtained by traveling in the past, using the characteristic points as clues.
6) The position and direction of the vehicle in an area not shown in the video can be obtained by calculation.
As described above, according to the positional relationship recognition device 101, it is possible to exhibit various functions that cannot be performed by detecting the position of the vehicle using only the white line.
Then, it can judge the surrounding traffic situation and transmit it to the operator, or control the vehicle directly based on it, and realize more advanced automatic guidance, effectively contributing to traffic safety. be able to.

 本発明の位置関係認識装置101は、車両に搭載したビデオカメラ等の入力装置によって撮影される道路面、周囲物体等の映像情報に基づいて、道路面、周囲物体等及び自車両の三次元的位置を検出し、道路面との位置関係を認識することができるようにしたものであり、車両に搭載した入力装置によって画像を取得する画像取得部102と、取得した画像をある期間記録する画像一時記録部103と、画像内に対応点を取るための手掛り点を自動抽出する手掛り点自動抽出部104と、距離差のある二以上の画像から、各画像内の複数の手掛り点の対応点を検出する対応点検出部105と、検出された複数の対応点から、入力装置の位置及び方向を演算する入力装置位置方向計測部106と、演算された入力装置の位置の三次元座標における相対距離を、実測値を用いて絶対距離に変換する実測スケール変換部107と、から構成されることを特徴とする。 The positional relationship recognition device 101 of the present invention is based on image information of a road surface, surrounding objects, and the like captured by an input device such as a video camera mounted on a vehicle. An image acquisition unit 102 for detecting a position and recognizing a positional relationship with a road surface, for acquiring an image by an input device mounted on a vehicle, and an image for recording the acquired image for a certain period of time. A temporary recording unit 103, a cue point automatic extraction unit 104 for automatically extracting cue points for obtaining corresponding points in an image, and corresponding points of a plurality of cue points in each image from two or more images having a distance difference. A corresponding point detecting unit 105 for detecting the position of the input device from a plurality of detected corresponding points, an input device position / direction measuring unit 106 for calculating the position and direction of the input device, and three-dimensional coordinates of the calculated position of the input device. The relative distance that a measured scale converter 107 for converting the absolute distance using measured values, characterized in that it is composed of.

 画像取得部102と画像一時記録部103によれば、自車両に搭載したビデオカメラ等の入力装置からの映像を記録することができ、時間軸上に並べることによって、車両の進行とともに時間的に変化する画像が得られる。つまり、静止対象物に関しては、複数のカメラを車両が進行する道路上に並べて撮影したと同様の結果となる。このようにして、カメラを一台使用するだけであっても、カメラを移動することにより、複数の視差を得ることができる。 According to the image acquisition unit 102 and the image temporary recording unit 103, it is possible to record a video from an input device such as a video camera mounted on the own vehicle. A changing image is obtained. In other words, for a stationary object, the same result is obtained as when a plurality of cameras are arranged and photographed on the road on which the vehicle is traveling. In this way, even if only one camera is used, a plurality of parallaxes can be obtained by moving the camera.

 次に、手掛り点自動抽出部104によって、画像内の特徴的な部分を手掛り点とするために、画像の輪郭を抽出し、又は色の領域に分割する等して、画像内の特徴的な部分を自動抽出する。
 ここで、手掛り点とは、位置の異なる地点で撮影した画像間での対応点を求めるために、その対応点となる画像内の特徴点を意味する。手掛り点は、対象物そのものである場合もあるが、対象物の一部分である場合の方が多い。又、ここにいう特徴点は、人間にとっての特徴点ではなく、画像処理するコンピュータにとっての特徴点でよいので、画像処理は極めて有利となる。
 当初から検出する手掛り点を特定しておく必要はなく、その時現場において容易に検出できた対象物又はその一部分を手掛り点とすることができる。さらに、検出された複数の手掛り点について、当初から追跡する手掛り点を特定しておく必要はなく、追跡できた手掛り点のみを三次元計測の演算対象の手掛り点とすることができる。これらの特徴によって、位置関係認識装置101による位置関係の認識が実現可能となっている。
Next, the automatic cue point extraction unit 104 extracts the contour of the image or divides it into color regions in order to make a characteristic portion in the image a cue point, and so on. Automatically extract parts.
Here, the clue point means a feature point in the image that is the corresponding point in order to find a corresponding point between images captured at different points. The clue point may be the target object itself, but is often a part of the target object. In addition, the feature point here may be a feature point for a computer that performs image processing, not a feature point for a human, and thus image processing is extremely advantageous.
It is not necessary to specify a key point to be detected from the beginning, and an object or a part thereof that can be easily detected at the site at that time can be set as a key point. Further, it is not necessary to specify the cue points to be tracked from the beginning for the plurality of cue points detected, and only the cue points that can be tracked can be set as the cue points to be calculated in the three-dimensional measurement. With these features, the positional relationship recognition device 101 can realize the positional relationship recognition.

 次に、対応点検出部105と入力装置位置方向計測部106とによって、複数の対応点を画像マッチング法等によって検出し、各対応点の座標に基づいて、演算によってカメラ等の入力装置位置及び方向を求める。
 ここで、入力装置の位置及び方向を連続して求めることによって、入力装置の速度、すなわち、車両速度、車両加速度、車両進行方向を求めることができる。
 対応点のうちには、車両の移動とともに隠れたりするものもあるが、十分に多くの手掛り点を選択しておき、最終的に数個の手掛り点さえ残れば、それで十分に演算は可能である。
 又、静止座標系に固定した対象物を手掛り点に選択しなければならないが、十分に多くの手掛り点を選択しておき、それらに統計処理を施して、異常値を示すものを削除し、有効な手掛り点のみを残すことによって、三次元計測が可能となる。
Next, the corresponding point detecting unit 105 and the input device position / direction measuring unit 106 detect a plurality of corresponding points by an image matching method or the like, and calculate the position of the input device such as a camera based on the coordinates of each corresponding point. Find the direction.
Here, by continuously obtaining the position and the direction of the input device, the speed of the input device, that is, the vehicle speed, the vehicle acceleration, and the vehicle traveling direction can be obtained.
Some of the corresponding points may be hidden with the movement of the vehicle, but if a sufficient number of clue points are selected and finally only a few clue points are left, the calculation can be performed sufficiently. is there.
Also, the object fixed in the stationary coordinate system must be selected as a clue point, but a sufficient number of clue points are selected, statistical processing is performed on them, and those indicating abnormal values are deleted. By leaving only effective clue points, three-dimensional measurement becomes possible.

 演算によって得られたカメラ位置のデータは相対距離であり、絶対距離に変換するためには、計測対象とする対応点座標又は車両位置座標に関して、何処か一カ所以上の既知の距離が必要となるが、車両の走行によって距離に変更がない値として、例えば、カメラの設置高さ又は画像内で当初から既知の距離を用いて、較正をしておけばよい。又、カメラを複数台設置する場合には、そのカメラ間の距離を既知の距離とすることができる。さらに、画像内の対象物中に実測値が既知のものが存在すれば、それを既知の距離として、実測スケール変換部107によって、絶対距離に変換することができる。
 以上のようにして、カメラ位置及び方向を三次元的に計測することができる。
The camera position data obtained by the calculation is a relative distance, and in order to convert the data into an absolute distance, one or more known distances are required for the corresponding point coordinates or the vehicle position coordinates to be measured. However, as a value that does not change the distance due to the running of the vehicle, calibration may be performed using, for example, the installation height of the camera or a known distance from the beginning in the image. When a plurality of cameras are installed, the distance between the cameras can be a known distance. Furthermore, if any of the objects in the image has a known measured value, the measured value can be converted into an absolute distance by the measured scale conversion unit 107 as a known distance.
As described above, the camera position and direction can be measured three-dimensionally.

 前記位置関係認識装置101に、複数の手掛り点の各画像内の対応点から、複数の手掛り点を三次元計測し、それらとカメラ位置との関係を三次元座標として求める対応点三次元計測部108を付加してもよい。 A corresponding point three-dimensional measuring unit that performs three-dimensional measurement of a plurality of cue points from corresponding points in each image of the plurality of cue points, and obtains a relationship between the plurality of cue points and a camera position as three-dimensional coordinates. 108 may be added.

 対応点三次元計測部108によれば、カメラの位置及び方向の三次元データを求める演算過程で、同時に、手掛り点の三次元データも求まる。これによって、複数の手掛り点の三次元位置、三次元配列、三次元分布の中にカメラ位置を配置することが可能になる。すなわち、周囲の複数の手掛り点の三次元分布と同じ三次元座標系の中に、車両の位置及び方向を三次元的に配置することができる。
 よって、周囲の静止座標系内の静止対象物の中に、言い換えれば、周囲のビル、電柱、道路等を含む三次元座標の中に、自車両、正確には自車両に搭載されたカメラの位置を三次元的に位置付けることができる。
According to the corresponding point three-dimensional measuring unit 108, the three-dimensional data of the clue point is also obtained at the same time in the calculation process of obtaining the three-dimensional data of the position and direction of the camera. This makes it possible to arrange camera positions in the three-dimensional positions, three-dimensional arrays, and three-dimensional distributions of a plurality of clue points. That is, the position and direction of the vehicle can be three-dimensionally arranged in the same three-dimensional coordinate system as the three-dimensional distribution of a plurality of surrounding clue points.
Therefore, in the stationary object in the surrounding stationary coordinate system, in other words, in the three-dimensional coordinates including the surrounding buildings, telephone poles, roads, etc., the own vehicle, to be precise, the camera mounted on the own vehicle. The position can be positioned three-dimensionally.

 又、対応点三次元計測部108によって得られた対応点の三次元座標を記録する三次元データ記録部109を付加してもよい。 {Circle around (3)} A three-dimensional data recording unit 109 for recording the three-dimensional coordinates of the corresponding points obtained by the corresponding point three-dimensional measuring unit 108 may be added.

 演算で求められた手掛り点の三次元データを記録して残すことで、後にその周辺を走行する場合に、既に三次元座標を取得している手掛り点を、車両の位置及び方向の演算の指標として参考にすることができる。
 現実的には、前もって専用装置を搭載した車両を走行させ、手掛り点のより正確な三次元データを収集しておくことで、それらを後に多くの車両が利用することができる。
By recording and storing the three-dimensional data of the clue points obtained by the calculation, the clue points for which the three-dimensional coordinates have already been acquired when traveling around the area later are used as indices for calculating the position and direction of the vehicle. As a reference.
In practice, by driving a vehicle equipped with a dedicated device in advance and collecting more accurate three-dimensional data of clue points, those vehicles can be used later by many vehicles.

 さらに、三次元データ記録部109に蓄積した手掛り点の三次元データを、次回以降の周辺の走行時に、三次元データ記録部109から読み出す三次元データ読み出し部110と、それらデータと次回以降の走行時に取得された三次元データとを比較して、一致点を求めて、車両位置の演算精度を高める対応点比較部111とを付加してもよい。 Further, the three-dimensional data reading unit 110 reads out the three-dimensional data of the clue points accumulated in the three-dimensional data recording unit 109 from the three-dimensional data recording unit 109 when the vehicle travels around the next time. A corresponding point comparison unit 111 that compares the obtained three-dimensional data with the three-dimensional data obtained at that time to obtain a coincidence point and improves the calculation accuracy of the vehicle position may be added.

 三次元データ記録部109から三次元データ読み出し部110によって、三次元データを読み出し、その後の走行の度に、以前の手掛り点の座標に変更があれば、その座標を更新して新しいデータとして再度記録しておくのがよい。
 同一場所付近の走行を重ねるにつれて、三次元データ記録部109のデータを更新し、新規に追加をすることで、手掛り点が増加し、又は位置精度が向上し、車両の位置及び方向の演算精度も向上する。
 前もって専用装置で精度の高い三次元データを生成しておき、それを後に他の車両が利用することによって、手掛り点の位置精度が極めて高くなる。さらに、前もって専用装置で手掛り点を画素単位まで拡張した三次元地図データを生成しておけば、走行路周辺の三次元空間が構成され、その中に車両の位置及び方向を配置できる。
The three-dimensional data is read out from the three-dimensional data recording unit 109 by the three-dimensional data reading unit 110, and if there is a change in the coordinates of the previous clue point every time the vehicle travels thereafter, the coordinates are updated and new data is re-created. It is good to record.
By updating the data of the three-dimensional data recording unit 109 and adding new data as the vehicle travels near the same place, the number of clue points increases or the position accuracy improves, and the calculation accuracy of the position and direction of the vehicle is improved. Also improve.
By generating high-precision three-dimensional data using a dedicated device in advance and using it later by another vehicle, the positional accuracy of the clue point becomes extremely high. Furthermore, if three-dimensional map data in which the clue points are extended to pixel units is generated in advance by a dedicated device, a three-dimensional space around the traveling road is formed, and the position and direction of the vehicle can be arranged therein.

 又、絶対座標が既知である対象物を対応点に選択し、前記入力位置方向計測部106及び対応点三次元計測部108によって取得した三次元データに絶対座標を与える絶対座標変換部112と、ある地域に存在する手掛り点の三次元座標を絶対座標系に統合する座標統合部113とを付加してもよい。 An absolute coordinate conversion unit 112 that selects an object whose absolute coordinates are known as a corresponding point, and gives absolute coordinates to the three-dimensional data acquired by the input position direction measuring unit 106 and the corresponding point three-dimensional measuring unit 108; A coordinate integrating unit 113 that integrates three-dimensional coordinates of clue points existing in a certain area into an absolute coordinate system may be added.

 絶対座標変換部112によれば、例えば、GPSでカメラ位置の絶対座標を取得するとか、既に緯度経度の既知である対象物を手掛りとして、相対距離として得られた三次元データを絶対座標に変換することができる。
 又、座標統合部113によれば、幾つかの手掛り点の座標を共通の絶対座標系に統一して表示でき、直ちに、三次元データは絶対座標を取得したことになる。
 手掛り点が絶対座標を取得すれば、次回以降も、或いは他の車両でも、手掛り点の共通の三次元データとして利用することができる。
 手掛り点を集めた三次元データと一致した現場データは、手掛り点の位置、配列、分布に一致したことで、絶対座標を得たことになる。そこから直ちに、カメラ位置、すなわち、車両の絶対座標が取得できることになる。
 さらに、ある地域全体の地図の中に手掛り点による三次元座標を落とし込むことによって、地図と手掛り点が結合し、新たなデータベースができあがり、多くの車両が、共通データとして自車両の位置及び方向のデータを記録する地図を取得できることになる。
According to the absolute coordinate conversion unit 112, for example, the absolute coordinates of the camera position are acquired by GPS, or the three-dimensional data obtained as the relative distance is converted into the absolute coordinates by using the object whose latitude and longitude are already known as a clue. can do.
Further, according to the coordinate integrating unit 113, the coordinates of several clue points can be unified and displayed in a common absolute coordinate system, and the three-dimensional data immediately acquires the absolute coordinates.
If the clue point obtains the absolute coordinates, it can be used as common three-dimensional data of the clue point after the next time or in another vehicle.
The site data that matches the three-dimensional data in which the clue points are collected matches the position, arrangement, and distribution of the clue points, and thus the absolute coordinates are obtained. From there, the camera position, that is, the absolute coordinates of the vehicle, can be obtained immediately.
Furthermore, by dropping the three-dimensional coordinates of the clue points in the map of a certain area, the map and the clue points are combined, a new database is created, and many vehicles use common data as the position and direction of the vehicle as common data. You will be able to get a map to record the data.

 又、手掛り点の名称及び属性を手掛り点の位置データに対応付けて記録保存し、各手掛り点の属する対象物の名称及び属性を当該手掛り点の座標データに付加する名称属性付加部114と、付加された手掛り点の座標、名称及び属性を地図の中に関係付けて書き込み、記録保存するデータベース115とを付加してもよい。 A name attribute adding unit 114 that records and saves the name and attribute of the clue point in association with the position data of the clue point, and adds the name and attribute of the object to which the clue point belongs to the coordinate data of the clue point; The database 115 for writing the coordinates, names, and attributes of the added clue points in the map in association with each other and recording and storing the coordinates may be added.

 手掛り点が属する対象物の名称及び属性が前もって分かっていれば、又は、画像認識により名称が分かれば、対象物の名称とその一般的性質やその対象物固有の性質も属性データとして取得することができる。
 つまり、計測時の手掛り点とデータベース内の手掛り点との対応が付けば、その手掛り点の対象物の名称や性質を読み取ることができる。
If the name and attribute of the object to which the clue point belongs are known in advance, or if the name is known by image recognition, the name of the object and its general properties and properties specific to the object should also be acquired as attribute data. Can be.
That is, if the clue point at the time of measurement is associated with the clue point in the database, the name or property of the object at the clue point can be read.

 又、前記各種演算結果を適宜、運転者等に表示して知らせる表示部116を付加してもよい。 A display unit 116 for displaying and informing the driver or the like of the various calculation results as appropriate may be added.

 取得したデータ、車両位置及び方向、手掛り点の属する対象物の名称及び属性等を表示部116によって表示すれば、それらを運転者や管理者が観察して、状況を判断することができる。 (4) If the acquired data, the position and direction of the vehicle, the names and attributes of the objects to which the clue points belong, and the like are displayed on the display unit 116, the driver and the administrator can observe them to determine the situation.

 前記演算結果により、周囲と自車両の位置関係及び道路と自車両の位置関係から車両の状況を自動判断する状況判断部117と、状況判断した結果を用いて、自動的に車両の目的にあった操作(ブレーキ操作、スピードコントロール操作、ハンドル操作、警報操作等)を自動的に行う自動車両制御部118を付加してもよい。 Based on the calculation result, a situation determination unit 117 that automatically determines the situation of the vehicle from the positional relationship between the surroundings and the own vehicle and the positional relationship between the road and the own vehicle, and automatically matches the purpose of the vehicle using the result of the situation determination. An automatic vehicle control unit 118 that automatically performs other operations (brake operation, speed control operation, steering wheel operation, alarm operation, etc.) may be added.

 状況判断部117によれば、自車両の位置及び方向、手掛り点の属する対象物の名称及び属性、それら手掛り点の名称及び属性、路面と車両との位置関係、標識、道路標示等を総合的に判断して、車両のおかれている状況を判断することができる。
 これによって、自動車両制御部118を介して、車両を自動的に又は半自動的に運行させることができる。又、周囲の状況と車両の位置関係を判断して、運転者等に車両の位置情報を伝達することができる。
According to the situation determination unit 117, the position and direction of the vehicle, the names and attributes of the objects to which the clue points belong, the names and attributes of the clue points, the positional relationship between the road surface and the vehicle, signs, road markings, and the like are comprehensively determined. , The situation where the vehicle is placed can be determined.
Thereby, the vehicle can be operated automatically or semi-automatically via the automatic vehicle control unit 118. Further, it is possible to determine the positional relationship between the surrounding situation and the vehicle and transmit the vehicle position information to the driver or the like.

 又、カメラを複数台設置して画像を取り込み、それぞれのカメラの視野の一部若しくは全部を重複させた複数カメラ画像取得部119と、単一カメラよる移動距離による視差から演算される三次元距離計測と、複数カメラによるカメラ間視差から演算される三次元距離計測と、の両方を併用し、複数カメラの視野重複方式で得られた手掛り点の三次元距離データを基準長として、単一カメラの移動による移動距離視差方式で得られた三次元距離データを較正することによって、絶対距離に変換するキャリブレーション部120と、を付加してもよい。 In addition, a plurality of cameras are installed to capture an image, a plurality of camera image acquisition units 119 in which a part or all of the field of view of each camera are overlapped, and a three-dimensional distance calculated from a parallax based on a moving distance by a single camera. A combination of measurement and three-dimensional distance measurement calculated from camera-to-camera parallax by multiple cameras, and using the three-dimensional distance data of clue points obtained by the overlapped view of multiple cameras as a reference length, a single camera And a calibration unit 120 for converting the three-dimensional distance data obtained by the moving distance parallax method based on the movement of the moving object to an absolute distance.

 車両の周囲を観察できるように、車両を取り巻く形で複数のカメラを車両に設置し、各カメラの視野が一部他のカメラの視野と重複するようにすれば、重複部分ではカメラ間視差を発生させることができる。
 複数カメラ視野重複方式による三次元距離計測の最大の特徴は、移動物体をも計測できることである。又、複数カメラ視野重複方式によれば、短距離の計測において高い精度が出せる。
 一方、単一カメラ移動距離方式によれば、複数カメラ方式におけるカメラ間距離を実質的に長距離とすることが可能であるため、長距離の三次元距離計測をする際に有利である。例えば、車載カメラにおけるカメラ間距離は、せいぜい1m程度であるが、カメラ移動距離方式におけるカメラ間距離は、1m、10m、100mのみならず、1km、10kmとすることが可能である。
 そこで、近距離は視野重複方式によって三次元計測し、遠距離は視差の大きく取れるカメラ移動距離方式によって三次元計測する。
 基本的に、単数の場合も複数の場合も計測の原理は同じであるが、視野重複する複数カメラ方式の場合の特徴として、視差による計測において、基準長としてカメラ間距離をとることができるので、絶対距離計測ができ、しかも、視差による距離計測から得られた中間距離計測の距離データによって、単一カメラ移動方式による計測距離を較正することができるので、短距離から長距離まで正確な計測が可能となる。すなわち、前方を走行する車両の位置、速度、加速度、進行方向を計測することができる。
If multiple cameras are installed around the vehicle so that the surroundings of the vehicle can be observed, and the field of view of each camera partially overlaps the field of view of other cameras, the camera-to-camera parallax can be reduced at the overlapped portion. Can be generated.
The greatest feature of the three-dimensional distance measurement by the multiple camera view overlapping method is that it can measure a moving object. In addition, according to the multiple camera visual field overlapping method, high accuracy can be obtained in the measurement of a short distance.
On the other hand, according to the single camera moving distance method, the distance between cameras in the multiple camera method can be made substantially long, which is advantageous when measuring a long distance three-dimensional distance. For example, the distance between cameras in a vehicle-mounted camera is at most about 1 m, but the distance between cameras in the camera moving distance method can be not only 1 m, 10 m, and 100 m but also 1 km and 10 km.
Therefore, the short distance is measured three-dimensionally by the overlapping visual field method, and the long distance is measured three-dimensionally by the camera moving distance method that can obtain a large parallax.
Basically, the principle of measurement is the same for both singular and multiple cases.However, as a feature of the multiple camera method with overlapping visual fields, the distance between cameras can be taken as the reference length in measurement by parallax. It can measure absolute distance, and it can calibrate the measurement distance by single camera movement method with the distance data of intermediate distance measurement obtained from distance measurement by parallax, so accurate measurement from short distance to long distance Becomes possible. That is, the position, speed, acceleration, and traveling direction of the vehicle traveling ahead can be measured.

 又、手掛り点の属する対象物の三次元形状を、表示画面の中に定義された座標系中の正しい位置に、三次元コンピュータグラフィックスで配置して表現し、必要に応じて名称、属性、他の対象物、自車両を、その表示画面中に表示する、三次元空間を再現する形状座標属性表示部120と、前記表示画面中に表現された各種対象物を示す三次元コンピュータグラフィックスの画像上で手で触れたり、マウスでクリックする等して、又は、現実画像のみを表示し、表示された現実画像上で目的の対象物を手で触れたり、マウスでクリックする等して、目的の対象物を指定することによって、その対象物の名称、座標、形状、その他関連データ等の属性を表示し、指示した目的の対象物に関連するデータを入力し、指示した目的対象物に対して、各種の操作や行動を指示することができる、ユーザインターフェース部121と、を付加してもよい。 Also, the three-dimensional shape of the object to which the clue point belongs is represented and arranged in a correct position in the coordinate system defined in the display screen by three-dimensional computer graphics, and the name, attribute, Another object, the own vehicle, is displayed on its display screen, a shape coordinate attribute display unit 120 that reproduces a three-dimensional space, and three-dimensional computer graphics showing various objects represented on the display screen. Touching the image with the hand, clicking with the mouse, or displaying only the real image, touching the target object with the hand on the displayed real image, clicking with the mouse, etc. By specifying the target object, the attributes such as the name, coordinates, shape, and other related data of the target object are displayed, and data related to the specified target object is input, and the specified target object is input. for It is possible to instruct various operations and actions, and the user interface unit 121, may be added.

 複数の手掛り点がその属する対象物の三次元座標、名称、属性を取得することができた場合、それらの手掛り点はそれらが属するそれぞれの対象物に対応が取れていることを意味する。
 そこで、対象物の三次元形状と三次元座標を前もってデータベースに入れておくことで、自車両とその周囲の状況を3DCG(三次元コンピュータグラフィックス)で表現して、三次元座標系中に表示することができる。もちろん、他の属性も、そして手掛り点が見つからない対象物であっても、その形状と位置座標は分かっているので、表示することができる。
 再構築された三次元空間と、その中に配置された各対象物の位置関係、名称、属性等の情報から、状況判断をより適切に行うことが出来る。
 又、表示された3DCG画面上の対象物をマウスでクリックしたり、手で触れたりする等して指定することにより、若しくは、直接音声で指示し、音声認識装置で指示内容を理解し、その目的の対象物の属性をデータベースから読み出して表示することができる。
 さらに、現実画像の二次元データと前記三次元コンピュータグラフィックスの二次元への投影画像データとを、それぞれ層状に形状が一致するように重ねて構成し、現実画像のみを表示して、表示画面上の対象画像をマウスでクリックしたり、手で触れる等して、目的の対象物を指定すれば、現実画像と3DCG画像が互いに重なるように一致して構成されているデータ構造から、3DCGの対応する対象物のデータを指定して、対象物に関する名称、座標、属性、その他関連情報をデータベースから呼び出し、又は、書き込みをすることができる。
If the three-dimensional coordinates, names, and attributes of the objects to which a plurality of clue points belong can be acquired, these clue points mean that they correspond to the respective objects to which they belong.
Therefore, by storing the three-dimensional shape and three-dimensional coordinates of the object in a database in advance, the vehicle and its surroundings are represented in 3DCG (three-dimensional computer graphics) and displayed in a three-dimensional coordinate system. can do. Of course, other attributes, and even an object for which a clue point cannot be found, can be displayed because the shape and position coordinates are known.
Situation determination can be performed more appropriately from the reconstructed three-dimensional space and information such as the positional relationship, names, attributes, and the like of the respective objects arranged therein.
Also, by specifying the object on the displayed 3D CG screen by clicking with the mouse or touching it with the hand, or by directly instructing by voice, understanding the contents of the instruction with the voice recognition device, The attributes of the target object can be read out from the database and displayed.
Furthermore, the two-dimensional data of the real image and the two-dimensional projected image data of the three-dimensional computer graphics are configured to overlap each other so that the shapes match in layers, and only the real image is displayed. If the target object is specified by clicking the target image with the mouse or touching it with the hand, etc., the 3D CG image of the 3D CG image is obtained from the data structure in which the real image and the 3D CG image coincide with each other. By specifying the data of the corresponding object, the name, coordinates, attributes, and other related information relating to the object can be called from the database or written.

 又、通信回線を介して、他の車両、若しくは他の通信ポイントと接続され、情報を送受信する外部通信部122を付加してもよい。  外部 Also, an external communication unit 122 connected to another vehicle or another communication point via a communication line for transmitting and receiving information may be added.

 通信回線を介して、他の車両、若しくは他の通信ポイントと接続すれば、自動的に、又はユーザインターフェースを介して指示し、自車両が生成する手掛り点の三次元情報、移動体情報を他に送信し、又は、自車両が生成すると同じにように、他車両がしかも異なる位置で生成した手掛り点の三次元情報、移動体情報を他車両から受信することができる。
 又、周囲の固定点に設置されたカメラで取得した映像から解析された手掛り点情報や、自車両を含む車両の位置情報、速度情報、及び状況を判断した結果の情報、例えば、渋滞情報、事故情報等を固定局が送信し、それらの情報を自車両が受信し、表示し、若しくは、自車両では取得できていない情報をも受信し、表示し、さらに、自車両が取得した情報に受信した情報を加えて状況判断をし、精度の高い情報を表示することができる。
If it is connected to another vehicle or another communication point via a communication line, it is automatically or instructed via a user interface, and the three-dimensional information and the moving object information of the clue point generated by the own vehicle are provided. Or the other vehicle can receive the three-dimensional information and the moving object information of the clue point generated by the other vehicle at a different position in the same manner as generated by the own vehicle.
Also, clue point information analyzed from a video acquired by a camera installed at a fixed point in the surroundings, position information of the vehicle including the own vehicle, speed information, and information of the result of determining the situation, for example, traffic jam information, The fixed station transmits accident information and the like, and the own vehicle receives and displays the information, or receives and displays information that cannot be acquired by the own vehicle, and further displays the information acquired by the own vehicle. The situation can be determined by adding the received information, and highly accurate information can be displayed.

 次に、交通機関が自動車等の路面を走行する車両の場合について、位置関係認識装置101によって、運行する交通機関と周囲との位置関係を認識する例について、具体的に説明する。 Next, an example in which the positional relationship recognizing device 101 recognizes the positional relationship between the operating vehicle and the surroundings when the vehicle is a vehicle running on a road surface such as an automobile will be specifically described.

 図19に示すように、車両の屋根部に魚眼レンズを装着した4台の超広角カメラを視野が一部重複するように設置し、カメラの視野の重複部分を利用して、車両の距離計測と速度計測を行った。又、近距離の手掛り点については、複数カメラ間の視差により三次元計測をし、遠距離の手掛り点については、単一カメラの移動による手掛り点の対応点検出によって、移動距離に基づいて三次元計測を行った。
 カメラ間の視差による演算も、カメラ移動による運動視差による演算も、基本的には同じ形式の演算となるが、どれが未知数となるかが異なる。運動視差による場合には、カメラの移動距離は未知数となるが、カメラ間の視差による場合には、カメラ間の距離は前もって実測できるので、既知数とすることができる。
As shown in FIG. 19, four super-wide-angle cameras equipped with a fisheye lens are installed on the roof of the vehicle so that the fields of view partially overlap, and the overlapping part of the camera's field of view is used to measure the distance of the vehicle. Speed measurement was performed. In addition, for a short cue point, three-dimensional measurement is performed by parallax between a plurality of cameras, and for a long cue point, a corresponding point of the cue point is detected by moving a single camera, and a cubic measurement is performed based on the moving distance. Original measurement was performed.
The calculation based on the parallax between the cameras and the calculation based on the motion parallax due to the movement of the camera are basically the same type of calculation, but which is an unknown number is different. In the case of the motion parallax, the moving distance of the camera is an unknown number. However, in the case of the parallax between the cameras, the distance between the cameras can be measured in advance, so that the known number can be used.

 又、演算で求められた三次元計測データを記録しておけば、次に同じ地域を走行する場合には、以前求めた手掛り点が既知数となり、より精度を向上して、三次元計測が可能となる。手掛り点の例を図18に○印で示す。
 取得した映像は、球面に貼り付けた球面座標形式に展開するのが後の処理にとって有利である。カメラの位置関係は、カメラ間距離及び方向を正確に計測しておくのが望ましいが、カメラ間距離も未知数として演算で求めることも可能であるから、適当に設置してもよい。カメラ間距離は、実測値変換の基準として用いることもできる。
 カメラの方向も既知数とすることができるが、カメラの固定方法によっては振動等で方向が多少ずれることも予想される場合には、カメラの方向は未知数として扱うことができる。
 尚、未知数が多い場合には、手掛り点を多く取り、演算によってそれらの未知数を求めることができる。原理的には、手掛り点は画素数まで増加させることができる。
Also, if the three-dimensional measurement data obtained by the calculation is recorded, the next time the vehicle travels in the same area, the previously obtained clue points become known numbers, and the three-dimensional measurement can be performed with further improved accuracy. It becomes possible. Examples of clue points are indicated by circles in FIG.
It is advantageous for the subsequent processing that the acquired image is developed into a spherical coordinate format attached to the spherical surface. As for the positional relationship between the cameras, it is desirable to accurately measure the distance and direction between the cameras. However, the distance between the cameras can also be obtained by calculation as an unknown value, so that the positions may be appropriately set. The inter-camera distance can also be used as a reference for actual value conversion.
The direction of the camera can also be a known number, but if the direction is expected to shift slightly due to vibration or the like depending on the method of fixing the camera, the direction of the camera can be treated as an unknown number.
If there are many unknowns, many clues can be taken and the unknowns can be obtained by calculation. In principle, the clue point can be increased to the number of pixels.

 ここで、何れか一個以上の手掛り点を視野重複するカメラの視差により正確に計測して基準値とし、実測スケールに変換するか、又は、カメラの路面からの高さを基準値として実測スケールに変換することができる。又、画像内にある長さが既知である対象物を基準長とすることもできる。
 視野の重複部分は視差が得られるので、カメラ間距離を既知の基準長として、同時撮影した各カメラの映像内で、手掛り点の対応点を画像認識によって求めることができる。手掛り点は、画像の輪郭処理により、画像内からリアルタイムで自動抽出することができる。画像認識にリアルタイム性を持たせるためと、演算を容易にするために、輪郭化された画像内の十字交点、三角形状交点、四角形状交点等を画像内から抽出する。手掛り点のデータ収集のためであれば、リアルタイム性は必要がないので、オフライン処理によって、かなり多くの手掛り点を演算で求めることができる。又、画素全面にまで拡張することも可能である。
Here, any one or more clue points are accurately measured by the parallax of the camera overlapping the visual field and used as a reference value, and converted to an actual measurement scale, or the height of the camera from the road surface as a reference value is used as an actual measurement scale. Can be converted. Further, an object having a known length in the image may be used as the reference length.
Since the parallax is obtained at the overlapping part of the visual fields, the corresponding point of the clue point can be obtained by image recognition in the video of each camera taken simultaneously with the inter-camera distance as a known reference length. The cue point can be automatically extracted in real time from the image by performing contour processing of the image. In order to make the image recognition real-time and to facilitate the calculation, a cross intersection, a triangular intersection, a quadrangular intersection, and the like in the contoured image are extracted from the image. Since real-time processing is not required for data collection of clue points, a considerable number of clue points can be calculated by off-line processing. It is also possible to extend to the whole pixel.

 一般には、多くの手掛り点のうちの幾つかを、特徴ある点として手掛り点とし、対応点を画像マッチング法等によって求める。対応点が決定されれば、手掛り点までの三次元距離を演算によって求めることができる。同時に、カメラ位置及び方向も演算によって求まる。
 手掛り点は、全てが常に対応点として見つかるとは限らない。途中において対応点が見つけられなくなる場合を想定して、多少多めに自動抽出しておくのが好ましい。
 手掛り点が見つかった場合は、後処理でもよいから、手掛り点の三次元位置を地図と対応させ、手掛り点の属する対象物の名称及び属性をリンクさせ、データベースに記録しておくのが好ましい。
 これによって、次回以降の走行においては、手掛り点を見つけるだけで、それが属する対応点の名称とその対象物が持つ属性を知ることができる。
In general, some of the many clue points are set as characteristic points as clue points, and corresponding points are obtained by an image matching method or the like. When the corresponding point is determined, the three-dimensional distance to the clue point can be obtained by calculation. At the same time, the camera position and direction are also calculated.
All clue points are not always found as corresponding points. It is preferable to extract a little more automatically, assuming that the corresponding point cannot be found halfway.
If a clue point is found, post-processing may be performed. Therefore, it is preferable that the three-dimensional position of the clue point be associated with the map, the name and attribute of the object to which the clue point belongs be linked, and recorded in a database.
As a result, in the subsequent travel, the name of the corresponding point to which the key point belongs and the attribute of the object can be known only by finding the key point.

 前記データベースを利用すれば、手掛り点の位置を求めるだけで、手掛り点の属する対象物を認識し、車両のおかれている状況を理解し、次に取るべき行動を判断することができる。そして、その判断結果によって、車両方向、速度等を適宜制御して、車両を適切に自動案内することができる。
 又、三次元計測結果、若しくは判断結果を画面表示、音声等で出力すれば、図15に示すように、運転者や管理者に通知することができる。又、他車両からの情報や周囲に設置された固定カメラによる情報を統合すれば、図16に示すように、自車両の周囲の状況を表示し、運転者や管理者に通知することができる。何れの場合にも、表示画面はユーザインターフェースとして機能し、目的の車両を指定し、通信を開始し、データの送受信をし、その車両を明示する等できる。
By using the database, it is possible to recognize the object to which the clue point belongs, to understand the situation in which the vehicle is placed, and to determine the next action to be taken simply by finding the position of the clue point. Then, based on the result of the determination, the vehicle direction, speed, and the like can be appropriately controlled, and the vehicle can be automatically guided appropriately.
In addition, if the three-dimensional measurement result or the determination result is output on a screen, by voice, or the like, the driver or the administrator can be notified as shown in FIG. In addition, if information from another vehicle or information from a fixed camera installed around the vehicle is integrated, the situation around the own vehicle can be displayed as shown in FIG. 16 to notify the driver or the administrator. . In any case, the display screen functions as a user interface, and can specify a target vehicle, start communication, transmit and receive data, and clearly indicate the vehicle.

 尚、以上においては、交通機関として自動車等の路面を走行する車両を例に挙げて説明したが、列車等の軌道を走行する車両、航空機、船舶、宇宙船等においても、同様に適用することができる。 In the above description, a vehicle running on a road surface such as an automobile has been described as an example of transportation. However, the same applies to a vehicle running on a track such as a train, an aircraft, a ship, a spacecraft, and the like. Can be.

 
本発明の交通機関自動案内装置の構成図である。 交通機関が自動車である場合の、本発明の交通機関自動案内装置の作用を示す説明図である。 交通機関が軌道車両である場合の、本発明の交通機関自動案内装置の作用を示す説明図である。 交通機関が航空機である場合の、本発明の交通機関自動案内装置の作用を示す説明図である。 交通機関が船舶である場合の、本発明の交通機関自動案内装置の作用を示す説明図である。 本発明の交通機関自動案内装置に付設する平面展開処理装置の構成図である。 ビデオカメラによって取得された遠近法画像を平面展開して、遠近感を排除した平面画像に変換する式において、使用される変数を示す図である。 (A)は、入力装置によって取得した遠近法画像、(B)は、平面画像変換装置によって変換された平面画像である。 (A)は、入力装置によって取得した遠近法画像、(B)は、平面画像変換装置によって変換された平面画像である。 画像内容計測装置によって計測される空間的物理量を示す説明図である。 360度全周囲画像を平面展開して、平面画像に変換する概念を示す説明図である。 360度全周囲画像から変換された平面画像の例である。 道路における交通情報検出装置の設置例を示す説明図である。 交通情報検出装置から交通機関自動案内装置への送信例を示す説明図である。 車両が道路を走行している場合において、コンピュータグラフィック画像として表示される出力画面の例である。 車両が交叉点に進入する場合において、コンピュータグラフィック画像として表示される出力画面の例である。 本発明の交通機関自動案内装置に付設する位置関係認識装置の構成図である。 図17の位置関係認識装置において、手掛り点として選択される対象部及びその一部の例を示す図である。 複数の車載カメラによる視野の重複状態を示す概念図である。

It is a lineblock diagram of a transportation automatic guidance device of the present invention. It is explanatory drawing which shows the effect | action of the transportation automatic guidance apparatus of this invention when a transportation is a motor vehicle. It is explanatory drawing which shows the effect | action of the transportation automatic guidance apparatus of this invention when a transportation is a track vehicle. It is explanatory drawing which shows the effect | action of the transportation automatic guidance apparatus of this invention when a transportation is an aircraft. It is explanatory drawing which shows the effect | action of the transportation automatic guidance apparatus of this invention when a transportation is a ship. It is a lineblock diagram of a plane development processing device attached to a transportation automatic guidance device of the present invention. FIG. 4 is a diagram illustrating variables used in a formula for developing a perspective image acquired by a video camera into a plane image and converting the perspective image into a planar image in which perspective is eliminated. (A) is a perspective image acquired by the input device, and (B) is a plane image converted by the plane image conversion device. (A) is a perspective image acquired by the input device, and (B) is a plane image converted by the plane image conversion device. It is explanatory drawing which shows the spatial physical quantity measured by the image content measuring device. It is explanatory drawing which shows the concept which expands a 360-degree omnidirectional image into a plane and converts it into a plane image. It is an example of a plane image converted from a 360-degree omnidirectional image. It is explanatory drawing which shows the example of installation of the traffic information detection apparatus in a road. It is explanatory drawing which shows the example of transmission from a traffic information detection apparatus to a transportation automatic guidance apparatus. 7 is an example of an output screen displayed as a computer graphic image when a vehicle is traveling on a road. It is an example of an output screen displayed as a computer graphic image when a vehicle enters an intersection. 1 is a configuration diagram of a positional relation recognition device attached to a transportation automatic guidance device of the present invention. FIG. 18 is a diagram illustrating an example of a target part selected as a clue point and a part of the target part in the positional relationship recognition device of FIG. 17. It is a conceptual diagram which shows the overlapping state of the visual field by several vehicle-mounted cameras.

符号の説明Explanation of reference numerals

 1 交通機関自動案内装置
 2 入力装置
 3 データベース
 4 比較装置
 5 認識装置
 6 出力装置
 7 判断装置
 8 記憶装置
 9 データ更新装置
11 自車両
51 平面展開処理装置
52 平面画像変換装置
53 平面画像認識装置
54 平面画像結合装置
55 画像内容計測装置
61 交通情報検出装置
62 グラフィック化装置
101 位置関係認識装置
102 画像取得部
103 画像一時記録部
104 手掛り点自動抽出部
105 対応点検出部
106 入力装置位置方向計測部
107 実測スケール変換部
108 対応点三次元計測部
109 三次元データ記録部
110 三次元データ読み出し部
111 対応点比較部
112 絶対座標変換部
113 座標統合部
114 名称属性付加部
115 データベース
116 表示部
117 状況判断部
118 自動車両制御部
119 複数入力装置画像取得部
120 キャリブレーション部
121 形状座標属性表示分
122 ユーザインターフェース部
123 外部通信部
DESCRIPTION OF SYMBOLS 1 Transportation automatic guidance apparatus 2 Input device 3 Database 4 Comparison device 5 Recognition device 6 Output device 7 Judgment device 8 Storage device 9 Data update device 11 Own vehicle 51 Plane development processing device 52 Plane image conversion device 53 Plane image recognition device 54 Plane Image combining device 55 Image content measuring device 61 Traffic information detecting device 62 Graphical device 101 Positional relationship recognizing device 102 Image acquiring unit 103 Temporary recording unit 104 Automatic clue point extracting unit 105 Corresponding point detecting unit 106 Input device position and direction measuring unit 107 Actual scale conversion unit 108 Corresponding point three-dimensional measuring unit 109 Three-dimensional data recording unit 110 Three-dimensional data reading unit 111 Corresponding point comparing unit 112 Absolute coordinate converting unit 113 Coordinate integrating unit 114 Name attribute adding unit 115 Database 116 Display unit 117 Situation judgment Part 118 automatic vehicle control part 119 Multiple input device image acquisition unit 120 Calibration unit 121 Shape coordinate attribute display 122 User interface unit 123 External communication unit

Claims (24)

運行する交通機関の周囲の状況を画像、音声等として取得する入力装置と、その交通機関に関する画像データ、音声データ等を予め格納したデータベースと、前記入力装置によって取得した画像データ、音声データ等を前記データベース内に格納した画像データ、音声データ等と比較する比較装置と、画像データ、音声データ等を比較した結果が一致した場合にそのデータの内容を認識し、特定する認識装置と、前記認識装置によって認識し、特定した結果を運行者等に文字、画像、音声等によって通知する出力装置とから構成される交通機関自動案内装置。 An input device for acquiring the surroundings of the operating transportation system as images, sounds, etc., an image data relating to the transportation system, a database pre-stored with audio data, etc., and image data, audio data, etc. obtained by the input device. A comparison device that compares the image data, audio data, and the like stored in the database, and a recognition device that recognizes and specifies the content of the data when the result of comparison of the image data, audio data, and the like matches, An automatic transportation guide device comprising: an output device that recognizes and specifies a result by a device and notifies a driver or the like of the result by characters, images, sounds, or the like. 前記入力装置によって取得された対象物に対応する画像データ、音声データ等が前記データベース内に存在しない場合に、その新たな対象物に対応する画像データ、音声データ等を地図上の位置と対応させて前記データベースに新たに格納する記憶装置と、対象物に対応する画像データ、音声データ等が前記データベース内に格納された画像データ、音声データ等と相違する場合に、新しい画像データ、音声データ等に更新して前記データベースに格納するデータ更新装置を有することを特徴とする請求項1に記載の交通機関自動案内装置。 If the image data, sound data, etc. corresponding to the object acquired by the input device does not exist in the database, the image data, sound data, etc., corresponding to the new object are made to correspond to the position on the map. A storage device newly stored in the database, and when the image data, audio data, etc. corresponding to the object are different from the image data, audio data, etc. stored in the database, new image data, audio data, etc. The automatic transportation apparatus according to claim 1, further comprising a data updating device that updates the data and stores the updated data in the database. 前記認識装置によって認識又は特定された事項に基づいて何等かの判断を行い、前記出力装置によって運行者等に判断結果に基づく指示を文字、画像、音声等で通知する判断装置を有することを特徴とする請求項1又は2に記載の交通機関自動案内装置。 It has a determination device that makes some determination based on the items recognized or specified by the recognition device, and notifies the operator based on the determination result by text, image, voice, or the like by the output device. The transportation automatic guidance device according to claim 1 or 2. 前記判断装置は、前記認識装置によって認識又は特定された事項に基づいて何等かの判断を行い、さらに、その判断結果に基づいて前記出力装置に所定の動作を指示し、制動装置、操縦装置等を自動的に作動させるものであることを特徴とする請求項3に記載の交通機関自動案内装置。 The determination device performs some determination based on the items recognized or specified by the recognition device, and further instructs the output device to perform a predetermined operation based on a result of the determination, such as a braking device, a steering device, or the like. The automatic transportation apparatus according to claim 3, wherein the automatic operation is performed. 前記交通機関自動案内装置を構成する一又は複数の装置が他の装置と通信回線を介して接続されていることを特徴とする請求項1乃至4に記載の交通機関自動案内装置。 The transportation automatic guidance device according to claim 1, wherein one or a plurality of devices constituting the transportation automatic guidance device are connected to another device via a communication line. 運行する交通機関は自動車等の路面を走行する車両であって、自車両の周囲の状況を画像、音声等として取得する入力装置と、道路標識、道路標示、交通案内板等、自動車等に関する画像データ、音声データ等を予め格納したデータベースと、前記入力装置によって取得した画像データ、音声データ等を前記データベース内に格納した画像データ、音声データ等と比較する比較装置と、画像データ、音声データ等を比較した結果が一致した場合にそのデータの内容を認識し、特定する認識装置と、前記認識装置によって認識し、特定した結果を運転者又は同乗者に文字、画像、音声等によって通知する出力装置とから構成される交通機関自動案内装置。 The operating transportation system is a vehicle that runs on the road surface such as an automobile. An input device that acquires the surroundings of the own vehicle as images and sounds, and images related to automobiles such as road signs, road signs, and traffic information boards. A database in which data, audio data, and the like are stored in advance, a comparison device that compares image data, audio data, and the like acquired by the input device with image data, audio data, and the like stored in the database; image data, audio data, and the like And a recognition device for recognizing and specifying the content of the data when the result of the comparison matches, and an output for recognizing the specified result and notifying the specified result to a driver or a passenger by text, image, voice, or the like. A transportation automatic guidance device composed of a device. 運行する交通機関は鉄道列車等の軌道を走行する車両であって、自車両の周囲の状況を画像、音声等として取得する入力装置と、軌道敷標識、軌道敷表示、軌道敷案内板等、鉄道車両等に関する画像データ、音声データ等を予め格納したデータベースと、前記入力装置によって取得した画像データ、音声データ等を前記データベース内に格納した画像データ、音声データ等と比較する比較装置と、画像データ、音声データ等を比較した結果が一致した場合にそのデータの内容を認識し、特定する認識装置と、前記認識装置によって認識し、特定した結果を運転者又は同乗者に文字、画像、音声等によって通知する出力装置とから構成される交通機関自動案内装置。 The operating transportation system is a vehicle that runs on a track such as a railway train, an input device that acquires the situation around the own vehicle as an image, a voice, etc., a track mark, a track mark display, a track mark guide plate, etc. A database which previously stores image data, voice data, and the like regarding railway vehicles and the like; a comparison device that compares image data, voice data, and the like acquired by the input device with image data, voice data, and the like stored in the database; When the result of comparison of data, voice data, and the like matches, the content of the data is recognized and identified by a recognition device that recognizes and specifies the character, image, and voice to a driver or a passenger. And an output device for notifying by means of a transportation means. 運行する交通機関は船舶、航空機等の軌道のない二次元又は三次元を航行する船体又は機体であって、自体の周囲の状況を画像、音声等として取得する入力装置と、標識、表示、港湾形状、空港形状等、船舶又は航空機等に関する画像データ、音声データ等を予め格納したデータベースと、前記入力装置によって取得した画像データ、音声データ等を前記データベース内に格納した画像データ、音声データ等と比較する比較装置と、画像データ、音声データ等を比較した結果が一致した場合にそのデータの内容を認識し、特定する認識装置と、前記認識装置によって認識し、特定した結果を操縦者又は同乗者に文字、画像、音声等によって通知する出力装置とから構成される交通機関自動案内装置。 The operating transportation system is a hull or airframe, such as a ship or an aircraft, that navigates two or three dimensions without orbit, and an input device that acquires the surrounding conditions as images and sounds, signs, displays, and ports. Shapes, airport shapes, etc., image data relating to ships or aircraft, etc., a database pre-stored with audio data, etc., image data acquired by the input device, image data stored in the database with voice data, audio data, etc. When the comparison result of the comparison device and the image data, the sound data, etc. match, the contents of the data are recognized and identified. The recognition device that identifies and identifies the recognition device, and the identified result is identified by the pilot or passenger. A transportation automatic guidance device comprising an output device for notifying a person by text, an image, a sound, or the like. 前記入力装置によって取得された交通機関の周囲の状況についての遠近法画像データを、遠近感を排除した平面画像データに変換する平面画像変換装置と、前記比較装置によって、変換された平面画像データを前記データベース内に格納してある画像データと比較した結果に基づいて、そのデータの内容を認識し、特定する平面画像認識装置と、から構成される平面展開処理装置を付設したことを特徴とする請求項1乃至8に記載の交通機関自動案内装置。 The perspective image data about the surroundings of the transportation system acquired by the input device, a planar image conversion device that converts the perspective image data into planar image data that eliminates perspective, and the comparison device, the converted planar image data And a planar image recognizing device for recognizing and specifying the contents of the data based on the result of comparison with the image data stored in the database. 9. A transportation automatic guidance device according to claim 1. さらに、前記平面画像認識装置によって認識、特定された対象物に関して、種々の空間的物理量を計測する画像内容計測装置と、から構成される平面展開処理装置を付設したことを特徴とする請求項9に記載の交通機関自動案内装置。 10. A plane development processing device, comprising: an image content measuring device for measuring various spatial physical quantities with respect to an object recognized and specified by the planar image recognition device. A transportation automatic guidance device according to 1. 前記平面画像変換装置は、前記入力装置によって取得された交通機関の周囲の状況についての360度全周囲画像データをも、平面画像データに変換する機能を有することを特徴とする請求項9又は10に記載の交通機関自動案内装置。 The said plane image conversion apparatus has the function which converts 360 degree omnidirectional image data about the surroundings of the transportation acquired by the input device into plane image data. A transportation automatic guidance device according to 1. 交通機関の周囲の状況を画像データ、計測データ等として取得する交通情報検出装置を交通機関の運行経路に設置して、前記交通情報検出装置によって取得した画像データ、計測データ等を受信できるようにしたことを特徴とする請求項1乃至11に記載の交通機関自動案内装置。 A traffic information detection device that acquires the surroundings of a transportation facility as image data, measurement data, or the like is installed on an operation route of the transportation facility so that image data, measurement data, and the like acquired by the traffic information detection device can be received. 12. A transportation automatic guidance device according to claim 1, wherein: 前記交通情報検出装置は、取得された画像データ、計測データに基づいてコンピュータグラフィック化するグラフィック化装置を有することを特徴とする請求項12に記載の交通機関自動案内装置。 13. The automatic transportation guidance device according to claim 12, wherein the traffic information detection device includes a graphic device for performing computer graphics based on the acquired image data and measurement data. 交通機関に搭載した入力装置によって画像を取得する画像取得部と、取得した画像をある期間記録する画像一時記録部と、画像内に対応点を取るための手掛り点を自動抽出する手掛り点自動抽出部と、距離差のある二以上の画像を取り出し、各画像内の複数の手掛り点の対応点を求める対応点検出部と、検出された複数の対応点から、入力装置の位置及び方向を演算する入力装置位置方向計測部と、求められた入力装置の位置の三次元座標の相対距離を、実測値を用いて絶対距離に変換する実測スケール変換部と、から構成される位置関係認識装置を付設したことを特徴とする請求項1〜13に記載の交通機関自動案内装置。 An image acquisition unit for acquiring an image by an input device mounted on a transportation system, an image temporary recording unit for recording the acquired image for a certain period of time, and a cue point automatic extraction for automatically extracting a cue point for obtaining a corresponding point in the image Unit, a corresponding point detection unit that extracts two or more images having a distance difference and calculates corresponding points of a plurality of clue points in each image, and calculates the position and direction of the input device from the detected corresponding points. An input device position and direction measurement unit, and a relative position recognition device including an actual measurement scale conversion unit that converts the relative distance of the obtained three-dimensional coordinates of the position of the input device into an absolute distance using an actual measurement value. The transportation automatic guidance device according to claim 1, wherein the transportation automatic guidance device is provided. 前記位置関係認識装置に、複数の手掛り点の各画像内の対応点から複数の手掛り点を三次元計測し、それらと入力装置の位置との関係を三次元座標として求める対応点三次元計測部を付加したことを特徴とする請求項14に記載の交通機関自動案内装置。 In the positional relationship recognition device, three-dimensional measurement of a plurality of clue points from corresponding points in each image of the plurality of clue points, a corresponding point three-dimensional measuring unit for obtaining the relationship between them and the position of the input device as three-dimensional coordinates The automatic transportation apparatus according to claim 14, further comprising: 前記位置関係認識装置に、前記対応点三次元計測部によって得られた対応点の三次元座標を記録する三次元データ記録部を付加したことを特徴とする請求項15に記載の交通機関自動案内装置。 16. The automatic transportation guide according to claim 15, wherein a three-dimensional data recording unit that records three-dimensional coordinates of the corresponding point obtained by the corresponding point three-dimensional measurement unit is added to the positional relationship recognition device. apparatus. 前記位置関係認識装置に、運行して得られた前記三次元データ記録部に蓄積した手掛り点の三次元データを、次回以降の周辺の運行時に、三次元データ記録部から読み出す三次元データ読み出し部と、それらデータと、次回以降の運行時に取得された画像データとを比較して、一致点を求めることによって、交通機関の位置の演算精度を向上させる対応点比較部と、を付加したことを特徴とする請求項16に記載の交通機関自動案内装置。 The three-dimensional data reading unit that reads the three-dimensional data of the clue points accumulated in the three-dimensional data recording unit obtained by operation from the three-dimensional data recording unit at the time of the next and subsequent peripheral operations. And a corresponding point comparison unit that improves the calculation accuracy of the position of the transportation system by comparing the data with the image data acquired at the time of the next and subsequent operations to obtain a coincidence point. The transportation automatic guidance device according to claim 16, characterized in that: 前記位置関係認識装置に、絶対座標が既知である対象物を対応点に選択することで、前記入力装置位置方向計測部及び前記対応点三次元計測部で取得した三次元データに絶対座標を与える絶対座標変換部と、ある地域に存在する手掛り点の三次元座標を絶対座標系に統合する座標統合部と、を付加したことを特徴とする請求項17に記載の交通機関自動案内装置。 By providing the positional relationship recognition device with a target whose absolute coordinates are known as a corresponding point, absolute coordinates are given to the three-dimensional data acquired by the input device position / direction measuring unit and the corresponding point three-dimensional measuring unit. 18. The automatic transportation apparatus according to claim 17, wherein an absolute coordinate conversion unit and a coordinate integration unit that integrates three-dimensional coordinates of clue points existing in a certain area into an absolute coordinate system are added. 前記位置関係認識装置に、手掛り点の名称及び属性を、手掛り点の位置データに対応付けて記録保存し、各手掛り点の属する対象物の名称及び属性を当該手掛り点の座標データに付加する名称属性付加部と、付加された手掛り点の座標、名称、属性を、地図の中に関係付けて書き込み記録保存するデータベースと、を付加したことを特徴と請求項18に記載の交通機関自動案内装置。 In the positional relationship recognition device, the names and attributes of the clue points are recorded and stored in association with the position data of the clue points, and the names and attributes of the objects to which the respective clue points belong are added to the coordinate data of the clue points. 19. The automatic transportation system according to claim 18, wherein an attribute adding unit and a database for writing, recording, and storing the coordinates, names, and attributes of the added clue points in a map are added. . 前記位置関係認識装置に、前記各種演算結果を適宜、運行者等に表示して知らせる表示部を付加したことを特徴とする請求項19に記載の交通機関自動案内装置。 20. The automatic transportation system according to claim 19, wherein a display unit for appropriately displaying and notifying the various calculation results to an operator or the like is added to the positional relationship recognition device. 前記位置関係認識装置に、前記各種演算結果により、周囲と運行する交通機関の位置関係から、交通機関の状況を自動判断する状況判断部と、状況判断した結果を用いて、自動的に交通機関の目的にあった操作を自動的に行う自動制御部を付加したことを特徴とする請求項20に記載の交通機関自動案内装置。 The positional relationship recognition device, based on the results of the various calculations, from the positional relationship between the surroundings and the operating transportation system, a status determination unit that automatically determines the status of the transportation system, and automatically uses the result of the status determination to automatically select the transportation system. 21. The automatic transportation apparatus according to claim 20, further comprising an automatic control unit for automatically performing an operation suitable for the purpose of the invention. 前記位置関係認識装置に、入力装置を複数台設置して画像を取り込み、それぞれの入力装置の視野の一部又は全部を重複させた複数入力装置画像取得部と、単一入力装置による入力装置移動距離による視差から演算される三次元距離計測と複数入力装置による入力装置間視差から演算される三次元距離計測との両方を併用し、複数入力装置の視野重複方式で得られた手掛り点の三次元距離データを基準長として、単一入力装置移動による移動距離視差方式で得られた三次元距離データを較正することによって、絶対距離に変換するキャリブレーション部と、を付加したことを特徴とする請求項21に記載の交通機関自動案内装置。 In the positional relationship recognition device, a plurality of input devices are installed to capture an image, a plurality of input device image acquisition units in which part or all of the field of view of each input device are overlapped, and input device movement by a single input device Cubic points obtained by the overlapping visual field method of multiple input devices using both 3D distance measurement calculated from parallax based on distance and 3D distance measurement calculated from input device parallax using multiple input devices A calibration unit that converts three-dimensional distance data obtained by a moving distance parallax method based on movement of a single input device by using the original distance data as a reference length, thereby converting the three-dimensional distance data into an absolute distance; A transportation automatic guidance device according to claim 21. 前記位置関係認識装置に、手掛り点の属する対象物の三次元形状を、表示画面の中に定義された座標系中の正しい位置に、三次元コンピュータグラフィックスで配置して表現し、必要に応じて名称、属性、他の対象物、自車両をも、その表示画像の中に表示可能とする三次元空間を再現する形状座標属性表示部と、前記表示画像の中に表現された各種対象物を示す三次元コンピュータグラフィックスの画像上を手で触れたり、マウスでクリックする等して、又は、現実画像のみを表示し、表示された現実映像上で、目的の対象物を手で触れたり、マウスでクリックする等して、目的の対象物を指定することで、その対象物の名称、座標、形状、その他関連データ等の属性を表示し、指示した目的の対象物に関連するデータを入力し、指示した目的対象物に対して、各種の操作や行動を指示することができるユーザインターフェース部と、を付加したことを特徴とする請求項22に記載の交通機関自動案内装置。 In the positional relationship recognition device, the three-dimensional shape of the object to which the clue point belongs is represented at the correct position in the coordinate system defined in the display screen by arranging it in three-dimensional computer graphics, and if necessary. A shape coordinate attribute display unit that reproduces a three-dimensional space in which the name, attribute, other objects, and the own vehicle can also be displayed in the display image, and various objects represented in the display image Touching the image of the three-dimensional computer graphics with the hand, clicking with the mouse, or displaying only the real image and touching the target object with the displayed real image By specifying the target object by clicking with the mouse, the attributes such as the name, coordinates, shape, and other related data of the target are displayed, and the data related to the specified target object is displayed. Enter and instruct With respect to the object, transportation automatic guide apparatus according to claim 22 in which the user interface unit can instruct various operation and behavior, characterized in that adding to. 前記位置関係認識装置に、通信回線を介して、他の交通機関又は他の通信ポイントと接続され、情報を送受信する外部通信部を付加したことを特徴とする請求項23記載に記載の交通機関自動案内装置。 24. The transportation system according to claim 23, wherein an external communication unit connected to another transportation system or another communication point and transmitting / receiving information is added to the positional relationship recognition device via a communication line. Automatic guidance device.
JP2003270519A 2002-07-03 2003-07-02 Transportation automatic guiding device Pending JP2004046875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003270519A JP2004046875A (en) 2002-07-03 2003-07-02 Transportation automatic guiding device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002194283 2002-07-03
JP2003270519A JP2004046875A (en) 2002-07-03 2003-07-02 Transportation automatic guiding device

Publications (1)

Publication Number Publication Date
JP2004046875A true JP2004046875A (en) 2004-02-12

Family

ID=31719780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003270519A Pending JP2004046875A (en) 2002-07-03 2003-07-02 Transportation automatic guiding device

Country Status (1)

Country Link
JP (1) JP2004046875A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006008825A1 (en) * 2004-07-16 2006-01-26 Fourie Road condition informing system and road condition informing method
JP2007193459A (en) * 2006-01-18 2007-08-02 Hitachi Ltd Behavior information acquiring device, display terminal, and behavior information notification system
JP2010145715A (en) * 2008-12-18 2010-07-01 Toshiba Corp Dictionary updating system and method for the same
JP2010277262A (en) * 2009-05-27 2010-12-09 Konica Minolta Holdings Inc Image processing apparatus and method
JP2011214961A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Reference pattern information generating device, method, program and general vehicle position specifying device
JP2012528417A (en) * 2009-05-26 2012-11-12 フィリップ グラセール Computer-aided ship maneuvering method
JP2017009546A (en) * 2015-06-26 2017-01-12 Mogコンサルタント株式会社 Bar arrangement inspecting method using mobile three-dimensional laser scanner
JP2019109904A (en) * 2013-03-25 2019-07-04 エイディシーテクノロジー株式会社 Railway vehicle
US10706296B2 (en) 2017-08-01 2020-07-07 Denso Corporation Vehicle safety determination apparatus, method, and computer-readable storage medium
CN115440050A (en) * 2022-11-08 2022-12-06 上海伯镭智能科技有限公司 Mine unmanned information transmission optimization method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59127200A (en) * 1983-01-11 1984-07-21 株式会社デンソー Vehicle traffic sign informer
JPH09259282A (en) * 1996-03-26 1997-10-03 Toshiba Corp Device and method for detecting moving obstacle
JPH11351895A (en) * 1998-06-09 1999-12-24 Harness Syst Tech Res Ltd Car navigation system
JP2002083297A (en) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59127200A (en) * 1983-01-11 1984-07-21 株式会社デンソー Vehicle traffic sign informer
JPH09259282A (en) * 1996-03-26 1997-10-03 Toshiba Corp Device and method for detecting moving obstacle
JPH11351895A (en) * 1998-06-09 1999-12-24 Harness Syst Tech Res Ltd Car navigation system
JP2002083297A (en) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006008825A1 (en) * 2004-07-16 2006-01-26 Fourie Road condition informing system and road condition informing method
US7817064B2 (en) 2004-07-16 2010-10-19 Fourie Road-condition informing apparatus and road-condition informing method
JP2007193459A (en) * 2006-01-18 2007-08-02 Hitachi Ltd Behavior information acquiring device, display terminal, and behavior information notification system
JP2010145715A (en) * 2008-12-18 2010-07-01 Toshiba Corp Dictionary updating system and method for the same
JP2012528417A (en) * 2009-05-26 2012-11-12 フィリップ グラセール Computer-aided ship maneuvering method
JP2010277262A (en) * 2009-05-27 2010-12-09 Konica Minolta Holdings Inc Image processing apparatus and method
JP2011214961A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Reference pattern information generating device, method, program and general vehicle position specifying device
JP2019109904A (en) * 2013-03-25 2019-07-04 エイディシーテクノロジー株式会社 Railway vehicle
JP2017009546A (en) * 2015-06-26 2017-01-12 Mogコンサルタント株式会社 Bar arrangement inspecting method using mobile three-dimensional laser scanner
US10706296B2 (en) 2017-08-01 2020-07-07 Denso Corporation Vehicle safety determination apparatus, method, and computer-readable storage medium
CN115440050A (en) * 2022-11-08 2022-12-06 上海伯镭智能科技有限公司 Mine unmanned information transmission optimization method and system
CN115440050B (en) * 2022-11-08 2023-02-03 上海伯镭智能科技有限公司 Mine unmanned information transmission optimization method and system

Similar Documents

Publication Publication Date Title
US11402851B2 (en) Systems and methods for detecting low-height objects in a roadway
EP3972882B1 (en) Systems and methods for predicting blind spot incursions
US10401859B1 (en) Stop sign detection and response
JP7052786B2 (en) Display control device and display control program
WO2004006207A1 (en) Automatic guide apparatus for public transport
JP5898539B2 (en) Vehicle driving support system
WO2006035755A1 (en) Method for displaying movable-body navigation information and device for displaying movable-body navigation information
JPH11212640A (en) Autonomously traveling vehicle and method for controlling autonomously traveling vehicle
JP7232287B2 (en) ship navigation system
CN106324618A (en) System for detecting lane line based on laser radar and realization method thereof
US20210016793A1 (en) Control apparatus, display apparatus, movable body, and image display method
CN110491156A (en) A kind of cognitive method, apparatus and system
JP6984624B2 (en) Display control device and display control program
JP2008034981A (en) Image recognition device and method, pedestrian recognition device and vehicle controller
JP3857698B2 (en) Driving environment recognition device
JP2019207651A (en) Detection device and detection system
WO2019189515A1 (en) Control apparatus, display apparatus, movable body, and image display method
KR101281629B1 (en) Driving guidance system using sensors
JP2023504604A (en) System and method for selectively decelerating a vehicle
JP2004046875A (en) Transportation automatic guiding device
JP2018200626A (en) Vehicle display control device and display control program
JP2008097279A (en) Vehicle exterior information display device
Gehrig et al. System architecture for an intersection assistant fusing image, map, and gps information
JP7416114B2 (en) Display control device and display control program
JP7291015B2 (en) Surrounding object recognition method and surrounding object recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100511