WO2004006207A1 - 交通機関自動案内装置 - Google Patents

交通機関自動案内装置 Download PDF

Info

Publication number
WO2004006207A1
WO2004006207A1 PCT/JP2003/008465 JP0308465W WO2004006207A1 WO 2004006207 A1 WO2004006207 A1 WO 2004006207A1 JP 0308465 W JP0308465 W JP 0308465W WO 2004006207 A1 WO2004006207 A1 WO 2004006207A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image
transportation
image data
dimensional
Prior art date
Application number
PCT/JP2003/008465
Other languages
English (en)
French (fr)
Inventor
Waro Iwane
Original Assignee
Iwane Laboratories,Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwane Laboratories,Ltd. filed Critical Iwane Laboratories,Ltd.
Priority to US10/519,919 priority Critical patent/US7804424B2/en
Priority to EP03741177A priority patent/EP1536393A4/en
Priority to AU2003281400A priority patent/AU2003281400A1/en
Publication of WO2004006207A1 publication Critical patent/WO2004006207A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/09675Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems

Definitions

  • the present invention automatically recognizes the situation of the operating transportation system, notifies the operator of the situation by letters, images, voices, etc., guides the operating route, and provides appropriate information when operating.
  • the present invention relates to a transportation automatic guidance device for instructing various actions. Background art
  • signs and signs installed on roads are automatically read and their meanings are recognized, and the situation of translating vehicles, overtaking vehicles, oncoming vehicles, etc. running on the road is recognized, There was no device to automatically notify the driver or passenger of the situation and guide the driver on the road. Therefore, the passenger sitting in the passenger seat reads the signs and signs installed on the road, informs the driver of the details, and looks at the translational vehicles, overtaking vehicles, oncoming vehicles, etc. running on the road. In addition, the driver was informed of the situation, and in some cases, the driver was instructed to perform operations such as stepping on a brake.
  • Such conventional technologies are not limited to vehicles running on the road surface such as automobiles, but also vehicles running on tracks such as trains, and also sailing on the sea such as airplanes and other aircraft navigating spaces. The same was true for the hull. Disclosure of the invention
  • Such problems are not limited to vehicles running on road surfaces such as automobiles, but also vehicles running on tracks such as trains, as well as airframes such as aircraft, and hulls navigating the sea such as ships. And so on.
  • the present invention has been made in view of such conventional problems, and is capable of processing an enormous amount of image data, audio data, and the like at a high speed, and is capable of processing an ever-changing transportation system such as an automobile.
  • the aim is to provide an automatic transportation guidance device that can automatically recognize the surrounding conditions and automatically guide the operating route such as a road. Target.
  • a transportation automatic guidance device of the present invention includes an input device for acquiring the surroundings of an operating transportation as an image, a voice, and the like, and an image data and a voice data related to the transportation in advance.
  • the comparison result between the stored database and the comparison device that compares the image data, audio data, and the like obtained by the input device with the image data, audio data, and the like stored in the database matches.
  • an output device for recognizing and specifying the content of the data in the event of a failure and an output device for recognizing and identifying the result of the recognition by the recognition device to a driver or the like by text, image, sound, or the like.
  • the image data, sound data, etc. corresponding to the object acquired by the input device do not exist in the database
  • the image data, sound data, etc., corresponding to the new object are regarded as the position on the map.
  • a storage device newly stored in the database in association with the image data, and image data, audio data, and the like corresponding to the object are different from the image data, audio data, and the like stored in the database. It is preferable to have a data updating device for updating to audio data or the like and storing the updated data in the database.
  • a judgment device which makes some judgment based on the items recognized or specified by the recognition device, and notifies an operator based on the judgment result by a character, an image, a voice, or the like by the output device. It is preferred to have.
  • the determination device makes some determination based on the items recognized or specified by the recognition device, and further instructs the output device to perform a predetermined operation based on the determination result. It is preferable that the device automatically operates. Further, in the automatic transportation device, one or more devices constituting the device may be connected to another device via a communication line.
  • a plane image conversion device that converts perspective image data on the surroundings of the transportation acquired by the input device into plane image data that eliminates perspective, and a plane converted by the comparison device.
  • a planar image recognition device for recognizing and specifying the contents of the image data based on a result of comparing the image data with the image data stored in the database, and a flat image recognition device for recognizing and specifying the data.
  • An image content measurement device for measuring various spatial physical quantities of the target object, and a plane development processing device composed of the following may be provided.
  • the plane image conversion device may have a function of converting 360-degree omni-directional image data of the surroundings of the transportation acquired by the input device into plane image data. ,.
  • a traffic information detection device that acquires the situation around the transportation facility as image data, measurement data, and the like is installed on the route of the transportation facility, and the image data, measurement data, and the like acquired by the traffic information detection device are acquired. You may be able to receive it.
  • the traffic information detecting device includes a graphic device for performing computer graphics based on the acquired image data and measurement data.
  • an image acquisition unit that acquires images using an input device mounted on a transportation system, a temporary image recording unit that records acquired images for a certain period, and a clue point that automatically extracts clue points for obtaining corresponding points in images.
  • An automatic extraction unit a corresponding point detection unit that extracts two or more images having a distance difference and obtains corresponding points of a plurality of clue points in each image, and a position and a direction of an input device from the detected corresponding points.
  • Calculate A positional relationship recognition unit consisting of an input device position and direction measurement unit, and an actual measurement scale conversion unit that converts the obtained relative distance value of the three-dimensional coordinates of the input device position into an absolute distance value using the actual measurement value A device may be attached.
  • FIG. 1 is a configuration diagram of a transportation automatic guidance device of the present invention
  • FIG. 2 is an explanatory diagram showing an operation of the transportation automatic guidance device of the present invention when the transportation organization is an automobile.
  • FIG. 3 is an explanatory diagram showing the operation of the transportation automatic guidance device of the present invention when the transportation is a track vehicle.
  • FIG. 4 is a diagram showing the transportation of the present invention when the transportation is an aircraft.
  • FIG. 5 is an explanatory diagram showing the operation of the automatic guidance device
  • FIG. 5 is an explanatory diagram showing the operation of the transportation automatic guidance device of the present invention when the transportation is a ship
  • FIG. FIG. 7 is a configuration diagram of a plane development processing device attached to the engine driving guide device.FIG.
  • FIG. 7 is a diagram for developing a perspective image acquired by a video camera into a plane and converting the perspective image to a plane image excluding perspective
  • FIGS. 8 and 9 show the variables used.
  • (A) is a perspective image acquired by the input device
  • (B) is a plane image converted by the plane image conversion device
  • FIG. 10 is a space measured by the image content measurement device.
  • FIG. 11 is an explanatory diagram showing physical quantities
  • FIG. 11 is an explanatory diagram showing a concept of transforming a 360 ° omnidirectional image into a plane image and converting it into a planar image
  • FIG. Figure 13 is an example of a plane image converted from the entire surrounding image.
  • Figure 13 is an explanatory diagram showing an example of installation of a traffic information detection device on the road.
  • FIG. 15 is an explanatory diagram showing an example of transmission to a guidance device.
  • FIG. 15 is an example of an output screen displayed as a computer graphic image when a vehicle is running on a road, and FIG. Enters the intersection
  • FIG. 17 is an example of an output screen displayed as a computer graphic image.
  • FIG. 17 is a configuration diagram of a positional relationship recognition device attached to the automatic transportation guidance device of the present invention
  • FIG. 18 is a position diagram of FIG.
  • FIG. 19 is a diagram showing an example of a target part selected as a clue point and a part of the target part in the relation recognition device.
  • FIG. 19 is a conceptual diagram showing an overlapping state of visual fields by a plurality of in-vehicle cameras. BEST MODE FOR CARRYING OUT THE INVENTION
  • the automatic transportation guidance device 1 of the present invention comprises an input device 2, a database 3, a comparison device 4, a recognition device 5, an output device 6, a judgment device 7, and a storage device 8, And a data updating device 9.
  • the input device 2 acquires a situation around the transportation as an image, a sound, or the like when the transportation is operated. For example, images are acquired by a video camera and sound is acquired by a microphone.
  • the database 3 stores in advance, in the case of a car, a road sign, a road sign, a traffic information board, and the like, and image data, voice data, and the like regarding the car and the like.
  • trains, railroad crossings, level crossing signals, moving obstacles such as cars, platforms, etc. and in the case of c- aircraft that stores image data, voice data, etc. related to trains, airport shapes, It stores image data and audio data for airport runways, taxiways, structures such as control towers, moving obstacles such as cars, and aircraft.
  • the port shape, port quay, wharf, navigation signs, and image data and audio data related to the ship are stored.
  • the comparison device 4 converts the image data, audio data, and the like acquired by the input device 2 Compare with image data, audio data, etc. stored in database 3.
  • the recognition device 5 recognizes and specifies the content of the data based on the result of comparing the image data, the audio data, and the like.
  • the output device 6 notifies the operator of the result recognized and recognized by the recognition device 5 by characters, images, sounds, or the like.
  • the storage device 8 stores image data, audio data, and the like corresponding to the new object when the image data and audio data corresponding to the object acquired by the input device 2 do not exist in the database 3 in the first place. Is newly stored in the database 3 in correspondence with the position on the map.
  • the data updating device 9 is different from the image data, the voice data, etc., in which the image data, the voice data, etc. corresponding to the target object are stored in the database 3 even if the target object exists at a predetermined position on the map. In such a case, it is updated to new image data, audio data, and the like, and stored in the database 3.
  • the judging device 7 makes some judgment based on the items recognized or specified by the recognizing device 5 and notifies the operator based on the judgment result by text, image, voice, etc. by the output device 6. It is.
  • the determination device 7 may instruct the output device 6 to perform a predetermined operation based on the determination result, and automatically operate a braking device such as a brake and a steering device such as a handle.
  • the automatic vehicle guidance system 1 automatically recognizes the situation of the vehicle, and notifies the driver or passenger of the situation by text, image, sound, etc. Then, an example of guiding the road and instructing an appropriate operation when traveling on the road will be specifically described.
  • Example 1 As shown in FIG. 2, when a road sign 12 with a speed limit of 50 km is acquired as image data by the input device 2, first, the comparison device 4 compares the image data stored in the database 3 with the image data stored in the database 3. The data is compared and recognized by the recognition device 5 as road sign data with a speed limit of 50 km.
  • the output device 6 notifies the driver or the fellow passenger that the speed limit is 50 km by text, image, sound, or the like. In this way, according to the automatic transportation guidance device 1, even if the driver or the passenger misses the road sign 12, it is ensured that the speed limit is 50 km on the currently running road. It is possible to prevent traffic violations due to excessive speeds and to prevent rear-end collisions.
  • the comparison device 4 compares the image data with the image data stored in the database 3.
  • the other vehicle 13 is recognized by the recognition device 5 as an overtaking vehicle.
  • the determination device 7 determines that the other vehicle 13 does not accelerate while passing, and the output device 6 instructs the driver or a passenger to not accelerate. It is notified by text, image, sound, etc.
  • the device 4 compares the image data and the sound data stored in the database 3 with the recognition device 5, and recognizes that the red light of the level crossing signal 14 in front blinks and the alarm is sounding.
  • the judgment device 7 makes a judgment that it must stop, and furthermore, considering that it is dangerous to enter a level crossing and is prohibited by law, the output device 6 Instruct the driver to apply the brake. As a result, the vehicle is automatically stopped at a safe position before the railroad crossing because the output device 6 operates the brake.
  • the automatic transportation guidance device 1 even when the driver or the passenger does not notice that the red light of the level crossing signal 14 flashes ahead and the alarm sounds, Also, if you do not take the appropriate action even if you are aware of it, make sure that the red light of the level crossing signal 14 flashes and the alarm sounds, and that entering the level crossing is dangerous. Since appropriate measures such as notification and automatic stop can be instructed and executed, it is possible to prevent the occurrence of accidents that cause enormous damage.
  • the automatic transportation system 1 automatically recognizes the situation in which the vehicle is located, and informs the driver or passenger of the situation by text, image, voice, etc.
  • An example of notifying, guiding the track, and instructing an appropriate operation when traveling on the track will be specifically described.
  • the input device 2 When 21 is acquired as image data, first, the comparison device 4 compares it with the image data stored in the database 3, and the recognition device 5 recognizes that the stop station is approaching.
  • the judging device 7 judges that the vehicle is decelerating because the stopping station is approaching, and the output device 6 instructs the driver or a passenger to decelerate, and outputs a character or image. It is notified by voice or the like.
  • the automatic transportation guidance device 1 even if the driver or passenger does not notice the presence of the bratform 21 in front of the vehicle, it is ensured that the stop station is approached. In addition, an instruction to decelerate can prevent a mistake of passing a stop station due to an error.
  • the comparison device 4 compares the image data and the sound data stored in the database 3 with the recognition device 5, and the red light of the forward crossing signal 23 blinks and the alarm sounds by the recognition device 5, and It is recognized that a moving obstacle 24 such as a car exists on the level crossing 22.
  • the determination device 7 determines that an emergency stop is required, and furthermore, considering that it is dangerous to enter the level crossing 22, applies a brake to the output device 6. Instruct to work immediately. As a result, the output device 6 immediately activates the brake, so that the vehicle automatically stops suddenly at a safe position just before the crossing surface 22.
  • the driver or the passenger can move forward. If the red light of the railroad crossing signal 23 flashes and the alarm sounds, and it is not noticed that there is a moving obstacle 24 such as a car on the railroad crossing surface 22, Even if you notice that you do not take the appropriate action, make sure that the red light at the level crossing signal 23 flashes, the alarm sounds, and that entering the level crossing 22 is dangerous. It is possible to notify and to instruct and execute an appropriate action to automatically stop the vehicle suddenly, so that it is possible to prevent the occurrence of a railroad crossing accident or the like that would cause enormous damage.
  • the automatic transportation guidance system automatically recognizes the situation where the aircraft is placed, and notifies the pilot or passenger of the situation by text, image, voice, etc.
  • An example of guiding the navigation route and the inside of the airport, and instructing the proper operation when traveling through the navigation route and the airport will be described in detail.
  • the determination device 7 determines that an emergency stop is required, and further considers that it is dangerous to move forward, and immediately applies the brake to the output device 6. To instruct. As a result, since the output device 6 immediately activates the brake, the own body 31 automatically stops suddenly at a safe position in front of the moving obstacle.
  • the pilot or the passenger notices that there is a moving obstacle such as the other aircraft 32 and the car 33 in front of the own aircraft 31. Even if you did not notice it, and even if you noticed that you did not take the appropriate action, make sure that there is a moving obstacle ahead and it is dangerous to move forward.
  • an appropriate measure of automatically stopping the vehicle can be instructed and executed, it is possible to prevent an aircraft accident or the like that causes enormous damage.
  • the automatic transportation system 1 automatically recognizes the situation where the ship's hull is placed, and notifies the pilot or passenger of the situation by text, images, voices, etc.
  • An example of notifying, guiding the route and the inside of the port, and instructing appropriate actions when navigating through the route and the port will be specifically described.
  • a vessel 41 navigates to dock in a port 45
  • a waterway, wharf 43, and quay 44 are acquired as image data by the input device 2
  • the comparison device 4 compares the image data and the audio data stored in the database 3, and the recognition device 5 recognizes the waterway, the pier 43, and the quay 44.
  • the judging device 7 judges the navigation route from the docking position of the quay 44, the current position of the ship 41, and the relevant laws and regulations such as the Port Regulations Law and the Marine Traffic Safety Law, and the output device. According to 6, the pilot or passenger is notified of the navigation route by text, image, sound, etc.
  • the automatic transportation guidance device 1 even when the pilot or the passenger does not know the shape of the port 45, the navigation route to the berth 44 berth position can be easily known. It is possible to berth smoothly at the quay 44 and alleviate the congestion of ships in the port 45.
  • Example 8 As shown in FIG. 5, when the input device 2 acquires the other vessel 42, the wharf 43, the quay 44, the shallow water, etc. in front of the own vessel 41 as image data and audio data, first compare The device 4 compares it with the image data and audio data stored in the database 3, and the recognition device 5 recognizes the existence of other ships 42, wharves 43, quays 44, shallows, etc. .
  • the judging device 7 makes a judgment that an emergency stop or a change of route is necessary. Further, considering that it is dangerous to proceed as it is, the vessel 4 1 To immediately take emergency stop or route change procedures. As a result, the output device 6 causes the ship 41 to stop immediately or change the course, so that the ship 41 automatically stops at a safe position or moves to a safe position.
  • the automatic transportation guidance device 1 even when the pilot or the passenger does not notice that the other ship 42, the pier 43, the quay 44, the shallows, etc. exist ahead, If you do not take appropriate measures even if you are aware, be sure to notify that other vessels 42, wharves 43, quays 44, shoals, etc. are present and that it is dangerous to sail as it is. In addition, since appropriate measures such as automatic emergency stop and route change can be instructed and executed, it is possible to prevent the occurrence of a serious accident such as a ship accident.
  • any one of the input device 2, the database 3, the comparison device 4, the recognition device 5, the output device 6, the judgment device 7, the storage device 8, and the data update device 9 constituting the device is included.
  • This device or a plurality of devices may be connected to other devices constituting the automatic transportation planning device 1 via a communication line. According to such a configuration, it is also possible to remotely control transportation at a central control center or the like.
  • the transportation automatic guidance apparatus of the present invention a huge amount of image data, voice data, and the like can be processed at high speed, and the situation around the transportation that changes every moment can be obtained. It can automatically recognize and automatically guide the operating route.
  • the automatic transportation guide device 1 of the present invention may be provided with a plane deployment processing device 51.
  • the plane expansion processing device 51 converts the perspective image acquired by the input device 2 about the surroundings of the operating transportation system into a plane image in which the perspective is eliminated by expanding the plane, and based on this, It performs measurement processing of distance, area, etc., and as shown in FIG. 6, a planar image conversion device 52, a planar image recognition device 53, a planar image combining device 54, and an image content measuring device 5 It consists of 5 and.
  • the surroundings of the vehicle are acquired by the input device 2 as a perspective image.
  • the plane image converter 52 converts the acquired perspective image into a plane image by removing the perspective by expanding the plane into a plane.
  • the perspective image acquired by the video camera, which is the input device 2 is flattened by the following equations (1) and (2) using the variables shown in FIG. Is converted.
  • y V ⁇ 2 1/2 ⁇ h ⁇ cos ( ⁇ / 4- ⁇ )-cos ( ⁇ - ⁇ ) /
  • u ⁇ h ⁇ c ⁇ s ( ⁇ - ⁇ ) / (f-sin / 3) (2)
  • 0 is the angle between the optical axis of the camera and the plane such as the road surface
  • f is the focal length of the camera
  • h is the height of the camera
  • 3 is the point at h + y distance from directly below the camera and the camera.
  • Angle between the line segment connecting the camera and the plane such as the road surface V is the vertical coordinate from the origin on the camera projection surface
  • u is the horizontal coordinate from the origin on the camera projection surface
  • y is the road surface
  • X is the horizontal coordinate on a plane such as a road surface, with the origin at the point h from directly below the camera on the plane.
  • the planar image recognition device 53 recognizes and identifies the content of the converted planar image data based on the result of comparison by the comparison device 4 with the image data stored in the database 3. It is.
  • the plane image combining device 54 appropriately combines the converted plane image data to generate large screen plane image data.
  • the image content measuring device 55 measures various spatial physical quantities of the object recognized and specified by the planar image recognition device 53.
  • the spatial physical quantities include position, distance, area, height, depth, volume, speed, acceleration, and the like.
  • the plane image conversion device 52 acquires As shown in B), it is converted to planar image data viewed from above vertically without perspective.
  • the plane image recognition device 53 recognizes and identifies the contents of the converted plane image data, and scans the plane image. It is recognized and identified that there is a lane 56.
  • various spatial physical quantities such as lane width and lane parallelism are measured by the image content measuring device 55 with respect to the traveling lane 56 as the object.
  • the traveling speed of the vehicle can be measured by measuring the moving distance per time.
  • the planar image converter 52 As shown in), it is converted to planar image data viewed from above vertically without perspective.
  • the plane image recognition device 53 recognizes and specifies the content of the converted plane image data, and recognizes and specifies that the line 57 exists in the plane image.
  • various spatial physical quantities such as the rail width and the rail parallelism are measured by the image content measuring device 55 with respect to the track 57 as the object. Further, if the perspective image data is obtained in real time by the input device 2, the traveling speed of the own vehicle can be measured by measuring the moving distance per time.
  • various spatial physical quantities relating to the situation around the transportation system can be acquired when the transportation system is operated, in addition to the automatic transportation system guidance device 1. Can be. Further, based on the acquired spatial physical quantities, the automatic transportation guide device 1 can also issue more appropriate notifications and instructions.
  • the plane development processing device 51 may not only have a function of converting a perspective image into a plane image but also have a function of converting a 360-degree omnidirectional image (spherical image) into a plane image. .
  • the 360-degree all-around image is an image that captures the entire circumference of the operating transportation system, that is, the front, rear, left, right, up, down, and all directions.
  • (1) composite images captured by multiple cameras 2 Install a curved mirror on the front of the camera and capture the image reflected on the curved mirror, 3 Rotate one camera and combine the images captured at each position, 4 Attach a fisheye lens to the camera Processing images taken in a wide range, etc.
  • the converted plane image becomes a plane viewed from a desired viewpoint. It can be regarded as a projected image.
  • Figure 12 shows an example in which the surroundings of a car traveling on a road surface are acquired as a 360-degree whole-circumference image by the above-mentioned method, and the top view of the car is converted to a plane image. Show.
  • a traffic information detection device 61 is separately installed on the route of transportation, and the image data, measurement data, etc. acquired by the traffic information detection device 61 are transmitted to the automatic guidance device 1 for transportation. I'm sorry.
  • the traffic information detection device 6 1 is an input device 2 in the transportation guide device 1, It comprises a database 3, a comparison device 4, a recognition device 5, a storage device 8, a data updating device 9, a plane development processing device 51, and a graphic device 62.
  • the graphic device 62 converts the image data and measurement data acquired from the input device 2 into computer graphics (CG). Next, an example of transmitting image data, measurement data, and the like acquired by the traffic information detection device 61 installed on the operation route to the automatic transportation guidance device 1 when the transportation is an automobile will be specifically described. .
  • the traffic information detection device 61 is installed at a gate 63, an illumination light 64, or the like attached to a road, for example, as shown in FIG. Then, as shown in FIG. 14, the image data, measurement data, and the like acquired by the traffic information detecting device 61 are:
  • data is transmitted to the base station 65 installed for centralized management, and then distributed to terminal stations 66 installed at appropriate locations. Sent to each mounted vehicle.
  • the image data and measurement data distributed from the traffic information detection device 61 to each vehicle equipped with the automatic transportation guidance device 1 via the base station 65 and the terminal station 66 are converted to computer graphic images (CG).
  • CG computer graphic images
  • the automatic transportation guidance device 1 for each vehicle can easily understand the figures, figures, characters, etc., as shown in Fig. 15 using the output device 6. It is displayed and very convenient.
  • the coordinates of the own vehicle are fixed at appropriate positions, and the situation around the running own vehicle, that is, the position or display of road signs, road markings, traffic information boards, other vehicles, etc.
  • traffic information detection device 61 Every time they pass, they change every moment.
  • What is displayed on the output screen is not limited to a two-dimensional computer graphic image, but may be a three-dimensional computer graphic image (3DCG).
  • It may be an image synthesized with a real image developed on a plane.
  • the output screen shown in Fig. 15 shows the case where there is another vehicle that violates or is likely to violate the safety zone of the vehicle that is set in advance.
  • the driver or passenger is notified by letter, voice, or the like.
  • Recognition of traffic information by transmission from the traffic information detection device 61 to the transportation automatic guidance device 1 means that, as shown in Figure 16, the left and right roads become blind spots from the vehicle, especially at intersections etc. In such cases, traffic conditions on the left and right roads can be easily grasped, which is extremely useful for traffic safety measures.
  • the output screen shown in Fig. 16 shows the case where another vehicle is located at a position where the left and right roads are blind spots from the own vehicle, and the driver or fellow passenger is notified by characters, voice, etc. Notified.
  • the automatic transportation guide device 1 is provided with a device capable of accurately recognizing the positional relationship between the operating transportation system and the surroundings, the transportation system can be guided more effectively.
  • the positional relationship recognition device 101 recognizes the three-dimensional position of the own vehicle using not only the white line attached to the road, but also all the objects in the image acquired by the camera, and The vehicle can be positioned three-dimensionally in the surrounding environment.
  • the positional relationship recognition device 101 not only the white line attached to the road, but also all the objects present in the video become clues for three-dimensional measurement. Also, not the object itself but the part of the object that is extracted and extracted by image processing is used as a clue. In addition, a plurality of parts that are likely to be clues for three-dimensional measurement in the object are extracted. Another characteristic is that instead of specifying the target from the beginning, the detected target is used as a clue.
  • the clues in the video are automatically tracked by applying an image processing technique such as a matching method in each of the continuous images generated by the traveling of the vehicle.
  • an image processing technique such as a matching method in each of the continuous images generated by the traveling of the vehicle.
  • a predetermined calculation is performed to detect and recognize the three-dimensional position and direction of the vehicle.
  • multiple cameras are mounted so that their fields of view overlap each other, three-dimensional measurement is performed by detecting corresponding points in the overlapping fields of view, and three-dimensional coordinates are formed from surrounding clues. Or in the surrounding three-dimensional image acquired by another method, the three-dimensional position and direction of the vehicle.
  • ⁇ ⁇ The position of the vehicle can be obtained three-dimensionally from the data of the characteristic points obtained by driving in the past, using the characteristic points as clues.
  • ⁇ ⁇ The position and direction of the vehicle in the area not shown in the image can be obtained by calculation.
  • the positional relationship recognizing device 101 it is possible to exhibit various functions that cannot be performed by the position detection of the own vehicle only by the white line. And determine the surrounding traffic situation and communicate it to the operator, or Based on this, the vehicle can be controlled directly, and more advanced automatic guidance can be realized, which can contribute to traffic safety effectively.
  • the positional relationship recognition device 101 of the present invention is based on image information of a road surface, surrounding objects, and the like captured by an input device such as a video camera mounted on the vehicle.
  • An image acquisition unit 102 that detects a three-dimensional position and recognizes a positional relationship with a road surface.
  • the image acquisition unit 102 acquires an image using an input device mounted on a vehicle.
  • An image temporary recording unit 103 for recording images for a certain period of time, a cue point automatic extraction unit 104 for automatically extracting cue points for obtaining corresponding points in an image, and two or more images having a distance difference, A corresponding point detector 105 that detects corresponding points of a plurality of clue points in each image, and an input device position / direction measuring unit 10 that calculates the position and direction of the input device from the detected corresponding points. 6 and the three-dimensional coordinates of the calculated input device position. And an actual measurement scale conversion unit 107 that converts the relative distance to an absolute distance using an actual measurement value.
  • images from an input device such as a video camera mounted on the own vehicle can be recorded.
  • An image that changes over time with progress is obtained.
  • the result is the same as if multiple cameras were photographed side by side on the road where the vehicle was traveling. In this way, even if only one camera is used, multiple parallaxes can be obtained by moving the camera.
  • the automatic cue point extraction unit 104 extracts the outline of the image or divides it into color regions in order to make a characteristic portion in the image a cue point.
  • the characteristic part of is automatically extracted.
  • the clue point means a feature point in the image that is a corresponding point in order to find a corresponding point between images taken at different points.
  • the clue point may be the object itself, but it is more often a part of the object.
  • the feature points mentioned here are not the feature points for humans, but for the computer that performs image processing. Image processing is extremely advantageous because only feature points are required. It is not necessary to specify the key points to be detected from the beginning, and the target object or a part thereof that can be easily detected at the site at that time can be set as key points.
  • the corresponding point detecting unit 105 and the input device position / direction measuring unit 106 detect a plurality of corresponding points by an image matching method or the like, and calculate a camera or the like based on the coordinates of each corresponding point. The position and direction of the input device are determined.
  • the speed of the input device that is, the vehicle speed, the vehicle acceleration, and the vehicle traveling direction can be obtained.
  • the camera position data obtained by the calculation is a relative distance, and in order to convert it to an absolute distance, it is necessary to have a known distance of one or more places with respect to the coordinates of the corresponding point or vehicle position to be measured. However, it is sufficient to calibrate as a value that does not change the distance due to the running of the vehicle, for example, using the installation height of the camera or a known distance from the beginning in the image.
  • the distance between the cameras can be a known distance.
  • the measured distance can be converted into an absolute distance by the measured scale converter 107 as a known distance.
  • the camera position and direction can be measured three-dimensionally.
  • the positional relationship recognition device 101 performs three-dimensional measurement of a plurality of cue points from corresponding points in each image of the plurality of cue points, and a corresponding point three-dimensional coordinate which obtains a relationship between them and a camera position as three-dimensional coordinates.
  • a measuring unit 108 may be added.
  • the three-dimensional data of the clue point is also obtained at the same time in the calculation process of obtaining the three-dimensional data of the position and the direction of the camera.
  • This makes it possible to arrange camera positions in a three-dimensional position, a three-dimensional array, and a three-dimensional distribution of a plurality of clue points. That is, the position and direction of the vehicle can be three-dimensionally arranged in the same three-dimensional coordinate system as the three-dimensional distribution of a plurality of surrounding clue points.
  • the camera mounted on the vehicle in other words, in the three-dimensional coordinates including the surrounding buildings, telephone poles, roads, etc., the camera mounted on the vehicle, more precisely, on the vehicle Can be positioned three-dimensionally.
  • a three-dimensional data recording unit 109 for recording the three-dimensional coordinates of the corresponding point obtained by the corresponding point three-dimensional measuring unit 108 may be added.
  • the clue points for which the three-dimensional coordinates have already been acquired can be used for calculating the position and direction of the vehicle when traveling around the area later. It can be used as an index.
  • a three-dimensional data reading unit 110 that reads the three-dimensional data of the clue points accumulated in the three-dimensional data recording unit 109 from the three-dimensional data recording unit 109 when traveling around the next time, It is also possible to add a corresponding point comparison unit 111 that compares the data with the three-dimensional data acquired during the next and subsequent runs to find a coincidence point and increase the calculation accuracy of the vehicle position.
  • the three-dimensional data is read out from the three-dimensional data recording unit 109 by the three-dimensional data readout unit 110, and if there is a change in the coordinates of the previous clue point each time the vehicle travels thereafter, the coordinates are updated. And record it again as new data.
  • the data in the three-dimensional data storage unit 109 is updated and newly added, increasing the number of clue points or improving the position accuracy, and the position and direction of the vehicle.
  • the calculation accuracy of is also improved.
  • the positional accuracy of the clue point becomes extremely high. Furthermore, if three-dimensional map data in which the clue points are extended to pixel units is previously generated by a dedicated device, a three-dimensional space around the traveling road is formed, and the position and direction of the vehicle are included therein. Can be placed.
  • an object whose absolute coordinates are known is selected as a corresponding point, and the input position direction indicator is selected.
  • the absolute coordinate transformation unit 112 that gives absolute coordinates to the three-dimensional data acquired by the measurement unit 106 and the corresponding point three-dimensional measurement unit 108, and the three-dimensional coordinates of the clue points existing in a certain area in the absolute coordinate system
  • a coordinate integration unit 113 for integration According to the absolute coordinate conversion unit 112, for example, the absolute coordinates of the camera position can be obtained by GPS, or the three-dimensional data obtained as the relative distance using the object whose latitude and longitude are already known as a clue Can be converted to coordinates.
  • the coordinate integration unit 113 the coordinates of several clue points can be unified and displayed in a common absolute coordinate system, and the three-dimensional data immediately acquires the absolute coordinates.
  • the clue point obtains the absolute coordinates, it can be used as common three-dimensional data of the clue point after the next time or in other vehicles.
  • the site data that matches the three-dimensional data that collects the clue points matches the position, arrangement, and distribution of the clue points, and thus the absolute coordinates are obtained. From there, the camera position, that is, the absolute coordinates of the vehicle, can be obtained immediately.
  • the map and the clue points are combined, and a new database is created. It will be possible to obtain a map that records the data on the position and direction of the road.
  • the name and attribute of the clue point are recorded and stored in association with the position data of the clue point, and the name and attribute adding unit 1 for adding the name and attribute of the object to which the clue point belongs to the coordinate data of the cue point. It is also possible to add 14 and a database 115 that records and records the coordinates, names and attributes of the added clue points in a map in association with each other.
  • the name and attributes of the object to which the clue point belongs are known in advance, or If the name is known by image recognition, the name of the object and its general properties and the properties specific to the object can also be obtained as attribute data.
  • the clue point at the time of measurement is associated with the clue point in the database, the name and property of the object at the clue point can be read.
  • a display section 116 for displaying and informing the driver or the like of the various calculation results as appropriate may be added.
  • the driver or administrator can observe them and judge the situation. .
  • the situation determination unit 1 17 automatically determines the situation of the vehicle based on the positional relationship between the surrounding vehicle and the position of the vehicle with the road, and automatically uses the result of the situation determination to automatically determine the purpose of the vehicle.
  • An automatic vehicle control unit 118 that automatically performs the operation (brake operation, speed control operation, handle operation, alarm operation, etc.) that is suitable for the vehicle may be added.
  • the situation determination unit 117 the position and direction of the vehicle, the names and attributes of the objects to which the clue points belong, the names and attributes of the clue points, the positional relationship between the road surface and the vehicle, signs, road markings, etc.
  • the overall situation of the vehicle can be determined.
  • the vehicle can be operated automatically or semi-automatically via the automatic vehicle control unit 118. Also, by judging the positional relationship between the surrounding situation and the vehicle, the vehicle position information can be transmitted to the driver and the like.
  • multiple cameras are installed and images are captured.
  • the multiple camera image acquisition unit 1-19 that overlaps all or part of the field of view of each camera, and the tertiary calculated from the parallax based on the movement distance of a single camera Original distance measurement and multiple force Using both 3D distance measurement calculated from camera-to-camera parallax and 3D distance movement using a single camera, using the 3D distance data of the clue point obtained by the overlapping field of view of multiple cameras as the reference length
  • a calibration unit 120 that converts the three-dimensional distance data obtained by the distance parallax method into an absolute distance may be added.
  • the parallax between the cameras can be reduced at the overlapped portion. Can be generated.
  • the greatest feature of 3D distance measurement by the multiple camera view overlapping method is that it can measure moving objects. Also, according to the multiple camera view overlapping method, high accuracy can be obtained in the measurement of a short distance.
  • the distance between cameras in the multiple camera method can be made substantially long, which is advantageous when measuring a long distance three-dimensional distance.
  • the distance between cameras in a vehicle-mounted camera is at most about 1 m, but the distance between cameras in the camera moving distance method is not only lm, 100 m, and 100 m, but also lkm and 10 km. Is possible.
  • the short distance is measured three-dimensionally by the overlapping visual field method
  • the long distance is measured three-dimensionally by the camera movement distance method that can obtain large parallax.
  • the principle of measurement is the same for both singular and multiple cameras.
  • a feature of the multi-camera system with overlapping visual fields is that the distance between cameras can be taken as the reference length in parallax measurement. Therefore, the absolute distance can be measured, and the distance measured by the single camera movement method can be calibrated based on the distance data of the intermediate distance measurement obtained from the distance measurement based on parallax. To long distances. That is, the position, speed, acceleration, and traveling direction of a vehicle traveling ahead can be measured.
  • the three-dimensional shape of the object to which the clue point belongs is represented and arranged in the correct position in the coordinate system defined on the display screen by three-dimensional computer graphics, and the name, attribute, and A shape coordinate attribute display unit 120 for displaying other objects and the own vehicle on a display screen thereof and reproducing a three-dimensional space, and a three-dimensional computer showing various objects represented on the display screen Touching the image with graphics or clicking with the mouse, or displaying only the real image, touching the target object with the hand on the displayed real image, or clicking with the mouse
  • the target object for example, the name, coordinates, shape, and other related data attributes of the target object are displayed, and data related to the specified target object is input.
  • the user interface section 121 which can instruct various operations and actions to the target object, can be added.
  • those clue points mean that they correspond to the respective objects to which they belong.
  • the vehicle and its surroundings are represented by 3DCG (three-dimensional computer graphics), and the three-dimensional coordinate system is used. Can be displayed. Of course, other attributes, and even objects with no clue points, can be displayed because their shape and position coordinates are known.
  • the situation can be determined more appropriately. Also, by specifying the object on the displayed 3DCG screen by clicking it with the mouse or touching it with the hand, etc., or by giving an instruction directly by voice, the content of the instruction is given by the voice recognition device. Understand and read the attributes of the target object from the database and display it.
  • the two-dimensional data of the real image and the two-dimensional projected image data of the three-dimensional computer graphics are overlapped with each other so that the shapes match each other, and only the real image is displayed. If the target object is specified by clicking on the target image with the mouse or touching it with the hand, etc., the data structure is configured so that the real image and the 3D CG image match each other so that they overlap each other. Then, by specifying the data of the corresponding object in 3DCG, the name, coordinates, attributes, and other related information relating to the object can be called from the database or written.
  • an external communication unit 122 connected to another vehicle or another communication point via a communication line to transmit and receive information may be added.
  • the 3D information and the mobile object information of the clue point generated by the own vehicle are provided.
  • the three-dimensional information and the moving object information of the clue point generated by the other vehicle at a different position can be received from the other vehicle.
  • clue point information analyzed from images acquired by cameras installed at fixed points in the surrounding area position information of vehicles including the own vehicle, speed information, and information on the result of determining the situation, such as traffic jams
  • the fixed station transmits information, accident information, etc., and the own vehicle receives and displays such information, or receives and displays information that cannot be acquired by the own vehicle, and further acquires the own vehicle Add the received information to the information To determine the situation and display highly accurate information.
  • the positional relation recognition device 101 recognizes the positional relation between the operating transportation means and the surroundings when the transport means is a vehicle running on a road surface such as an automobile will be specifically described. .
  • Fig. 19 As shown in Fig. 19, four super-wide-angle cameras equipped with fisheye lenses are installed on the roof of the vehicle so that their fields of view partially overlap, and the distance between the vehicles is measured using the overlapping part of the camera's field of view. And speed measurement.
  • three-dimensional measurement is performed based on the parallax between multiple cameras for short-range cue points, and corresponding points of long-range cue points are detected based on the movement distance by detecting corresponding points of cue points by moving a single camera. Three-dimensional measurements were performed.
  • the calculation based on the parallax between the cameras and the calculation based on the motion parallax due to the movement of the camera are basically the same type of calculation, but differ in which is the unknown.
  • the moving distance of the camera is an unknown number, but in the case of parallax between the cameras, the distance between the cameras can be measured in advance, so that the known number can be used.
  • the subsequent processing to develop the acquired image into a spherical coordinate format pasted on the spherical surface.
  • the positional relationship between the cameras it is desirable to accurately measure the distance and direction between the cameras.
  • the distance between the cameras can also be obtained as an unknown value by calculation, so that the position may be appropriately set.
  • the inter-camera distance can also be used as a reference for actual measurement value conversion.
  • the direction of the camera can be a known number, but if the direction is expected to shift slightly due to vibration or the like depending on the method of fixing the camera, the camera direction can be treated as an unknown number.
  • the clue point can be increased to the number of pixels.
  • one or more clue points are accurately measured based on the parallax of the cameras with overlapping visual fields and used as the reference value, and converted to the actual measurement scale, or the height of the camera from the road surface as the reference value is used as the actual measurement scale. Can be converted to Further, an object having a known length in the image can be set as the reference length.
  • the corresponding points of the clue points can be obtained by image recognition in the images of the cameras taken at the same time using the distance between the cameras as a known reference length.
  • Cue points can be automatically extracted in real time from the image by processing the outline of the image.
  • cross intersections, triangle intersections, and square intersections in the contoured image are extracted from the image. Since real-time processing is not required for data collection of clue points, a considerable number of clue points can be calculated by offline processing. It is also possible to extend the entire pixel.
  • some of the many clue points are set as characteristic points as clue points, and the corresponding points are determined by an image matching method or the like. Once the corresponding point is determined, the three-dimensional distance to the clue point can be obtained by calculation. At the same time, the position and direction of the force camera are also calculated.
  • a clue point is found, post-processing may be performed.Therefore, it is preferable to associate the three-dimensional position of the clue point with the map, link the name and attribute of the object to which the clue point belongs, and record it in a database. . Thus, in the next and subsequent runs, it is possible to know the name of the corresponding point to which it belongs and the attributes of the object only by finding the clue point. By using the database, it is possible to recognize the object to which the clue point belongs, to understand the situation where the vehicle is placed, and to determine the next action to be taken simply by finding the position of the clue point. Then, based on the result of the determination, the vehicle direction, speed, and the like can be appropriately controlled, and the vehicle can be automatically guided appropriately.
  • the display screen functions as a user interface, allowing the user to specify the target vehicle, start communication, send and receive data, and identify the vehicle.

Abstract

時々刻々と変化する自動車等の交通機関の周囲の状況を自動的に認識し、道路等の運行経路を自動的に案内することができる交通機関自動案内装置を提供する。交通機関自動案内装置1では、入力装置2によって取得された運行する交通機関の周囲の状況に関する画像データ、音声データ等が、比較装置4によってデータベース内に予め格納された画像データ、音声データ等と比較される。画像データ、音声データ等を比較した結果が一致した場合には、そのデータの内容が認識装置5によって認識され、認識された結果は出力装置6によって運行者等に文字、画像、音声等によって通知される。

Description

明 細 書 交通機関自動案内装置 技術分野
本発明は、 運行する交通機関のおかれた状況を自動的に認識し、 その状況 を運行者等に文字、 画像、 音声等によって通知し、 運行経路を案内し、 かつ, 運行する際の適切な動作を指示する交通機関自動案内装置に関する。 背景技術
従来、 道路に設置された標識、 標示等を自動的に読み取り、 その意味内容 を認識したり、 道路を走行する並進車両、 追越車両、 対向車両等の状況を認 識して、 自車両のおかれた状況を運転者又は同乗者に自動的に通知し、 道路 を案内する装置は存在しなかった。 そこで、 助手席に座った同乗者が、 道路 に設置された標識、 標示等を読んで、 運転者にその内容を知らせたり、 道路 を走行する並進車両、 追越車両、 対向車両等を見て、 運転者にその状況を知 らせたり、 さらに、 場合によっては、 ブレーキを踏む等の操作を指示したり した。
一方、 近年における自動操縦技術の進歩によって、 路肩に付設された白線 を検知し、 その白線に沿って自動車を自動走行させる装置が実用化されてい る。 又、 先行車两との距離を何らかの手段で検出し、 所定距離を保持して自 動車を自動走行させる装置、 道路に設置されたビーコンに従って自動車を自 動走行させる装置等が研究されており、 実用化に近づいている (例えば、 特 開平 1 0— 1 6 2 2 8 5号公報参照) 。 何れにしても、 道路に設置された標識、 標示等、 又、 道路を走行する並進 車両、 追越車両、 対向車両等を認識し、 自動車が走行する道路をき動的に案 内する装置は、 これまで存在しなかった。
このような従来の技術については、 自動車等の路面を走行する車両に限ら ず、 列車等の軌道を走行する車両、 さらには、 航空機等の空間を航行する機 体、 船舶等の海上を航行する船体においても同様であった。 発明の開示
• ここで、 道路に設置された標識、 標示等、 又、 道路を走行する先行車両、 後続車両、 並進車両、 追越車両、 対向車両等の自車両のおかれた状況を自動 的に認識するためには、 自車両の周囲の状況を画像、 音声等として経時的に 取り込み、 取り込んだ画像データ、 音声データ等を高速で処理しなければな らない。
しかし、 時々刻々と変化する自車両の周囲の状況を自動的に認識し、 道路 を自動的に案内するには、 膨大な量の画像データ、 音声データ等を処理する 必要があり、 とても高速で処理するのは困難であった。 ましてや、 リアルタ ィムで処理するのは到底不可能であった。
このような問題点については、 自動車等の路面を走行する車両に限らず、 列車等の軌道を走行する車両、 さらには、 航空機等の空間を航行する機体、 船舶等の海上を航行する船体においても同様であった。
本発明は、 かかる従来の問題点に鑑みて為されたものであり、 膨大な量の 画像データ、 音声データ等を高速に処理することができて、 時々刻々と変化 する自動車等の交通機関の周囲の状況を自動的に認識し、 道路等の運行経路 を自動的に案内することができる交通機関自動案内装置を提供することを目 的とする。
上記目的を達成するために、 本発明の交通機関自動案内装置は、 運行する 交通機関の周囲の状況を画像、 音声等として取得する入力装置と、 その交通 機関に関する画像データ、 音声データ等を予め格納したデータベースと、 前 記入力装置によって取得した画像データ、 音声データ等を前記データベース 内に格納した画像データ、 音声データ等と比較する比較装置と、 画像データ、 音声データ等を比較した結果が一致した場合にそのデータの内容を認識し、 特定する認識装置と、 前記認識装置によって認識し、 特定した結果を運行者 等に文字、 画像、 音声等によって通知する出力装置とから構成されることを 特徴とする。
さらに、 前記入力装置によって取得された対象物に対応する画像データ、 音声データ等が前記データベース内に存在しない場合に、 その新たな対象物 に対応する画像データ、 音声データ等を地図上の位置と対応させて前記デー タベースに新たに格納する記憶装置と、 対象物に対応する画像データ、 音声 データ等が前記データベース内に格納された画像データ、 音声データ等と相 違する場合に、 新しい画像データ、 音声データ等に更新して前記データべ一 スに格納するデータ更新装置を有することが好ましい。
又、 前記認識装置によって認識又は特定された事項に基づいて何等かの判 断を行い、 前記出力装置によって運行者等に判断結果に基づく指示を文字、 画像、 音声等で通知する判断装置をも有するのが好ましい。
さらに、 前記判断装置は、 前記認識装置によって認識又は特定された事項 に基づいて何等かの判断を行い、 さらに、 その判断結果に基づいて前記出力 装置に所定の動作を指示し、 制動装置、 操縦装置等を自動的に作動させるも のであることが好ましい。 又、 前記交通機関自動案内装置において、 これを構成する一又は複数の装 置を他の装置と通信回線を介して接続するようにしてもよレ、。
さらに、 前記入力装置によって取得された交通機関の周囲の状況について の遠近法画像データを、 遠近感を排除した平面画像データに変換する平面画 像変換装置と、 前記比較装置によって、 変換された平面画像データを前記デ ータベース内に格納してある画像データと比較した結果に基づいて、 そのデ ータの内容を認識し、 特定する平面画像認識装置と、 この平面画像認識装置 によって認識、 特定された対象物に関して、 種々の空間的物理量を計測する 画像内容計測装置と、 から構成される平面展開処理装置を付設してもよい。 又、 前記平面画像変換装置は、 前記入力装置によって取得された交通機関 の周囲の状況についての 3 6 0度全周囲画像データをも、 平面画像データに 変換する機能を有するようにしてもよレ、。
さらに、 交通機関の周囲の状況を画像データ、 計測データ等として取得す る交通情報検出装置を交通機関の運行経路に設置して、 前記交通情報検出装 置によって取得した画像データ、 計測データ等を受信できるようにしてもよ レ、。
ここで、 前記交通情報検出装置は、 取得された画像データ、 計測データに 基づいてコンピュータグラフィック化するグラフィック化装置を有すること が好ましい。
さらに、 交通機関に搭載した入力装置によって映像を取得する画像取得部 と、 取得した映像をある期間記録する画像一時記録部と、 画像内に対応点を 取るための手掛り点を自動抽出する手掛り点自動抽出部と、 距離差のある二 以上の画像を取り出し、 各画像内の複数の手掛り点の対応点を求める対応点 検出部と、 検出された複数の対応点から、 入力装置の位置及び方向を演算す る入力装置位置方向計測部と、 求められた入力装置位置の三次元座標の相対 距離値を、 実測値を用いて絶対距離値に変換する実測スケール変換部と、 か ら構成される位置関係認識装置を付設してもよい。 図面の簡単な説明
図 1は、 本発明の交通機関自動案内装置の構成図であり、 図 2は、 交通機 関が自動車である場合の、 本発明の交通機関自動案内装置の作用を示す説明 図であり、 図 3は、 交通機関が軌道車両である場合の、 本発明の交通機関自 動案内装置の作用を示す説明図であり、 図 4は、 交通機関が航空機である場 合の、 本発明の交通機関自動案内装置の作用を示す説明図であり、 図 5は、 交通機関が船舶である場合の、 本発明の交通機関自動案内装置の作用を示す 説明図であり、 図 6は、 本発明の交通機関き動案内装置に付設する平面展開 処理装置の構成図であり、 図 7は、 ビデオカメラによって取得された遠近法 画像を平面展開して、 遠近感を排除した平面画像に変換する式において、 使 用される変数を示す図であり、 図 8及び図 9は、 (A) は、 入力装置によつ て取得した遠近法画像、 (B ) は、 平面画像変換装置によって変換された平 面画像であり、 図 1 0は、 画像内容計測装置によって計測される空間的物理 量を示す説明図であり、 図 1 1は、 3 6 0度全周囲画像を平面展開して、 平 面画像に変換する概念を示す説明図であり、 図 1 2は、 3 6 0度全周囲画像 から変換された平面画像の例であり、 図 1 3は、 道路における交通情報検出 装置の設置例を示す説明図であり、 図 1 4は、 交通情報検出装置から交通機 関自動案内装置への送信例を示す説明図であり、 図 1 5は、 車両が道路を走 行している場合において、 コンピュータグラフィック画像として表示される 出力画面の例であり、 図 1 6は、 車両が交叉点に進入する場合において、 コ ンピュータグラフィック画像として表示される出力画面の例であり、 図 1 7 は、 本発明の交通機関自動案内装置に付設する位置関係認識装置の構成図で あり、 図 1 8は、 図 1 7の位置関係認識装置において、 手掛り点として選択 される対象部及びその一部の例を示す図であり、 図 1 9は、 複数の車載カメ ラによる視野の重複状態を示す概念図である。 発明を実施するための最良の形態
以下、 本発明の交通機関自動案内装置の好適な実施形態について、 図面を 参照して詳細に説明する。
本発明の交通機関自動案内装置 1は、 図 1に示すように、 入力装置 2と、 データベース 3と、 比較装置 4と、 認識装置 5と、 出力装置 6と、 判断装置 7と、 記憶装置 8と、 データ更新装置 9と、 から構成される。
入力装置 2は、 交通機関を運行する際に、 その交通機関の周囲の状況を画 像、 音声等として取得するものである。 例えば、 画像はビデオカメラによつ て、 音声はマイクロフォンによって取得する。
データベース 3には、 予め、 自動車の場合には、 道路標識、 道路標示、 交 通案内板等、 又、 自動車等に関する画像データ、 音声データ等を格納してあ る。 列車の場合には、 踏切面、 踏切信号、 自動車等の移動障害物、 プラッ ト フォーム等、 又、 列車等に関する画像データ、 音声データ等を格納してある c 航空機の場合には、 空港形状、 空港の滑走路、 誘導路、 管制塔等の構造物、 自動車等の移動障害物、 又、 航空機等に関する画像データ、 音声データ等を 格納してある。 船舶の場合には、 港湾形状、 港湾の岸壁、 埠頭、 航路標識、 又、 船舶等に関する画像データ、 音声データ等を格納してある。
比較装置 4は、 入力装置 2によって取得した画像データ、 音声データ等を データベース 3内に格納してある画像データ、 音声データ等と比較する。 認識装置 5は、 画像データ、 音声データ等を比較した結果に基づいて、 そ のデータの内容を認識し、 特定する。
出力装置 6は、 認識装置 5によって認識し、 特定した結果を、 運行者等に 文字、 画像、 音声等によって通知するものである。
記憶装置 8は、 入力装置 2によって取得された対象物に対応する画像デー タ、 音声データ等がそもそもデータベース 3内に存在しない場合に、 その新 たな対象物に対応する画像データ、 音声データ等を、 地図上の位置と対応さ せて、 データベース 3に新たに格納するものである。
データ更新装置 9は、 地図上の所定位置に対象物が存在していても、 その 対象物に対応する画像データ、 音声データ等がデータベース 3内に格納され た画像データ、 音声データ等と相違する場合に、 新しい画像データ、 音声デ ータ等に更新して、 データベース 3に格納するものである。
判断装置 7は、 認識装置 5によって認識又は特定された事項に基づいて、 何等かの判断を行い、 出力装置 6によって運行者等に判断結果に基づく指示 を文字、 画像、 音声等で通知するものである。
さらに、 判断装置 7は、 判断結果に基づいて、 出力装置 6に所定の動作を 指示し、 ブレーキ等の制動装置、 ハン ドル等の操縦装置を自動的に作動させ る場合もある。
次に、 交通機関が自動車の場合について、 交通機関自動案内装置 1が、 自 車両のおかれた状況を自動的に認識し、 その状況を運転者又は同乗者に文字、 画像、 音声等によって通知し、 道路を案内し、 又、 道路を走行する際の適切 な動作を指示する例について、 具体的に説明する。
[実施例 1 ] 図 2に示すように、 入力装置 2によって制限速度 5 0 k mの道路標識 1 2 が画像データとして取得された場合、 先ず、 比較装置 4によってデータべ一 ス 3内に格納してある画像データと比較され、 認識装置 5によって制限速度 5 0 k mの道路標識データであると認識、 特定される。
次いで、 その認識結果に基づいて、 出力装置 6によって制限速度が 5 0 k mであることが運転者又は同乗者に文字、 画像、 音声等で通知される。 このように、 交通機関自動案内装置 1によれば、 運転者又は同乗者が道路 標識 1 2を見逃してしまった場合にも、 現在走行中の道路では制限速度が 5 0 k mであることを確実に知ることができ、 速度超過による交通違反を未然 に防止することができるとともに、 追突事故等の発生をも防止することがで さる。
[実施例 2 ]
図 2に示すように、 入力装置 2によって自車両 1 1の右側に他車両 1 3が 画像データとして取得された場合、 先ず、 比較装置 4によってデータベース 3内に格納してある画像データと比較され、 認識装置 5によってその他車両 1 3は追越車両であると認識される。
次いで、 その認識結果に基づいて、 判断装置 7は他車両 1 3が追越中には 加速しないという判断を行い、 出力装置 6によって運転者又は同乗者に、 加 速しないようにという指示が、 文字、 画像、 音声等で通知される。
このように、 交通機関自動案内装置 1によれば、 運転者又は同乗者が自車 両 1 1の右側に他車両 1 3が存在することに気が付かなかった場合にも、 他 車両 1 3が追越中であることを確実に知ることができ、 又、 加速しないよう にという指示によって、 何等慌てることもなく、 衝突事故等の発生を防止す ることができる。 [実施例 3 ]
図 2に示すように、 入力装置 2によって、 前方に存在する、 赤色灯が点滅 し、 警報機が鳴っている踏切信号 1 4が、 画像データ、 音声データとして取 得された場合、 先ず、 比較装置 4によってデータベース 3内に格納してある 画像データ、 音声データと比較され、 認識装置 5によって、 前方の踏切信号 1 4の赤色灯が点滅し、 警報機が鳴っていることが認識される。
次いで、 その認識結果に基づいて、 判断装置 7は停止しなければならない という判断を行い、 さらに、 踏切に進入するのは危険であり、 法律でも禁止 されていることを考慮し、 出力装置 6にブレーキを作動するように指示する。 これによつて、 出力装置 6がブレーキを作動させるため、 自動車は踏切手前 の安全な位置に自動的に停止する。
このように、 交通機関自動案内装置 1によれば、 運転者又は同乗者が前方 において踏切信号 1 4の赤色灯が点滅し、 警報機が鳴っていることに気が付 かなかった場合にも、 さらには、 気が付いていても適切な処置を取らなかつ た場合にも、 踏切信号 1 4の赤色灯が点滅し、 警報機が鳴っていて、 踏切に 進入することは危険であることを確実に通知し、 自動的に停止させるという 適切な処置を指示し、 実行させることができるので、 甚大な被害を及ぼす事 故等の発生を未然に防止することができる。
次に、 交通機関が列車の場合について、 交通機関自動案内装置 1が、 自車 両のおかれた状況を自動的に認識し、 その状況を運転者又は同乗者に文字、 画像、 音声等によって通知し、 線路を案内し、 又、 線路を走行する際の適切 な動作を指示する例について、 具体的に説明する。
[実施例 4 ]
図 3に示すように、 入力装置 2によって自車両の前方にブラッ トフォーム 2 1が画像データとして取得された場合、 先ず、 比較装置 4によってデータ ベース 3内に格納してある画像データと比較され、 認識装置 5によって停車 駅が近づいたことが認識される。
次いで、 その認識結果に基づいて、 判断装置 7は停車駅が近づいたので減 速するという判断を行い、 出力装置 6によって運転者又は同乗者に、 減速す るようにという指示が、 文字、 画像、 音声等で通知される。
このように、 交通機関自動案内装置 1によれば、 運転者又は同乗者が自車 両の前方にブラッ トフオーム 2 1が存在することに気が付かなかった場合に も、 停車駅が近づいたことを確実に知ることができ、 又、 減速するようにと いう指示によって、 過誤により停車駅を通過してしまうミスを防止すること ができる。
[実施例 5 ]
図 3に示すように、 入力装置 2によって、 自車両の前方に踏切面 2 2、 踏 切信号 2 3及び自動車等の移動障害物 2 4が画像データ、 音声データとして 取得された場合、 先ず、 比較装置 4によって、 データベース 3内に格納して ある画像データ、 音声データと比較され、 認識装置 5によって、 前方の踏切 信号 2 3の赤 灯が点滅し、 警報機が鳴っていること、 及び、 踏切面 2 2に 自動車等の移動障害物 2 4が存在することが認識される。
次いで、 その認識結果に基づいて、 判断装置 7は緊急停止しなければなら ないという判断を行い、 さらに、 踏切面 2 2に進入するのは危険であること を考慮し、 出力装置 6にブレーキを直ちに作動するように指示する。 これに よって、 出力装置 6がブレーキを直ちに作動させるため、 自車両は踏切面 2 2手前の安全な位置に自動的に急停止する。
このように、 交通機関自動案内装置 1によれば、 運転者又は同乗者が前方 の踏切信号 2 3の赤色灯が点滅し、 警報機が鳴っていること、 及び、 踏切面 2 2に自動車等の移動障害物 2 4が存在することに気が付かなかった場合に も、 さらには、 気が付いていても適切な処置を取らなかった場合にも、 踏切 信号 2 3の赤色灯が点滅し、 警報機が鳴っていて、 踏切面 2 2に進入するこ とは危険であることを確実に通知し、 自動的に急停止させるという適切な処 置を指示し、 実行させることができるので、 甚大な被害を及ぼす踏切事故等 の発生を未然に防止することができる。
次に、 交通機関が航空機の場合について、 交通機関自動案内装置 1力 自 機体のおかれた状況を自動的に認識し、 その状況を操縦者又は同乗者に文字、 画像、 音声等によって通知し、 航路、 空港内を案内し、 又、 航路を航行し、 空港内を走行する際の適切な動作を指示する例について、 具体的に説明する。
[実施例 6 ]
図 4に示すように、 入力装置 2によって、 自機体 3 1の前方に他機体 3 2、 自動車 3 3等の移動障害物が画像データ、 音声データとして取得された場合、 先ず、 比較装置 4によって、 データベース 3内に格納してある画像データ、 音声データと比較され、 認識装置 5によって、 前方に他機体 3 2、 自動車 3 3等の移動障害物が存在することが認識される。
次いで、 その認識結果に基づいて、 判断装置 7は緊急停止しなければなら ないという判断を行い、 さらに、 前方に移動するのは危険であることを考慮 し、 出力装置 6にブレーキを直ちに作動するように指示する。 これによつて、 出力装置 6がブレーキを直ちに作動させるため、 自機体 3 1は移動障害物手 前の安全な位置に自動的に急停止する。
このように、 交通機関自動案内装置 1によれば、 操縦者又は同乗者が自機 体 3 1の前方に他機体 3 2、 自動車 3 3等の移動障害物が存在することに気 が付かなかった場合にも、 さらには、 気が付いていても適切な処置を取らな かった場合にも、 前方に移動障害物が存在し、 前方に移動することは危険で あることを確実に通知し、 自動的に急停止させるという適切な処置を指示し、 実行させることができるので、 甚大な被害を及ぼす航空機事故等の発生を未 然に防止することができる。
次に、 交通機関が船舶の場合について、 交通機関自動案内装置 1が、 自船 体のおかれた状況を自動的に認識し、 その状況を操縦者又は同乗者に文字、 画像、 音声等によって通知し、 航路、 港湾内を案内し、 又、 航路、 港湾内を 航行する際の適切な動作を指示する例について、 具体的に説明する。
[実施例 7 ]
図 5に示すように、 船舶 4 1が港湾 4 5内で着岸するために航行する際に、 入力装置 2によって、 水路、 埠頭 4 3、 岸壁 4 4が画像データとして取得さ れた場合、 先ず、 比較装置 4によってデータベース 3内に格納してある画像 データ、 音声データと比較され、 認識装置 5によって、 水路、 埠頭 4 3、 岸 壁 4 4が認識される。
次いで、 その認識結果に基づいて、 判断装置 7は、 岸壁 4 4の着岸位置及 び船舶 4 1の現在位置並びに港則法、 海上交通安全法等の関係法令から航行 経路を判断し、 出力装置 6によって、 操縦者又は同乗者に、 航行経路につい ての指示が文字、 画像、 音声等で通知される。
このように、 交通機関自動案内装置 1によれば、 操縦者又は同乗者が港湾 4 5内の形状について不案内であった場合にも、 岸壁 4 4の着岸位置までの 航行経路を容易に知得でき、 岸壁 4 4に円滑に着岸することができて、 港湾 4 5内における船舶の混雑を緩和することができる。
[実施例 8 ] 図 5に示すように、 入力装置 2によって、 自船舶 4 1の前方に他船舶 4 2 、 埠頭 4 3、 岸壁 4 4、 浅瀬等が画像データ、 音声データとして取得された場 合、 先ず、 比較装置 4によって、 データベース 3内に格納してある画像デー タ、 音声データと比較され、 認識装置 5によって、 他船舶 4 2、 埠頭 4 3、 岸壁 4 4、 浅瀬等が存在することが認識される。
次いで、 その認識結果に基づいて、 判断装置 7は、 緊急停止又は航路変更 しなければならないという判断を行い、 さらに、 このまま航行するのは危険 であることを考慮し、 出力装置 6に船舶 4 1を緊急停止又は航路変更する処 置を直ちに取るように指示する。 これによつて、 出力装置 6が船舶 4 1を緊 急停止又は航路変更させるため、 船舶 4 1は安全な位置に自動的に停止する か、 安全な位置に移動する。
このように、 交通機関自動案内装置 1によれば、 操縦者又は同乗者が前方 に他船舶 4 2、 埠頭 4 3、 岸壁 4 4、 浅瀬等が存在することに気が付かなか つた場合にも、 さらには、 気が付いていても適切な処置を取らなかった場合 にも、 他船舶 4 2、 埠頭 4 3、 岸壁 4 4、 浅瀬等が存在して、 そのまま航行 することは危険であることを確実に通知し、 自動的に緊急停止、 航路変更さ せるという適切な処置を指示し、 実行させることができるので、 甚大な被害 を及ぼす船舶事故等の発生を未然に防止することができる。
尚、 交通機関自動案内装置 1において、 それを構成する入力装置 2、 デー タベース 3、 比較装置 4、 認識装置 5、 出力装置 6、 判断装置 7、 記憶装置 8、 データ更新装置 9の何れか一の装置又は複数の装置を、 交通機関自動案 内装置 1を構成する他の装置と通信回線を介して接続するようにしてもよい。 かかる構成によれば、 中央管制センター等において交通機関を遠隔制御す ることも可能となる。 以上述べたように、 本発明の交通機関自動案内装置によれば、 膨大な量の 画像データ、 音声データ等を高速に処理することができ、 時々刻々と変化す る交通機関の周囲の状況を自動的に認識し、 運行経路を自動的に案内するこ とができる。
又、 本発明の交通機関自動案内装置 1には、 平面展開処理装置 5 1を付設 することもできる。
平面展開処理装置 5 1は、 運行する交通機関の周囲の状況について入力装 置 2によって取得された遠近法画像を、 平面展開することによって遠近感を 排除した平面画像に変換し、 これに基づいて距離、 面積等の計測処理を実行 するものであり、 図 6に示すように、 平面画像変換装置 5 2と、 平面画像認 識装置 5 3と、 平面画像結合装置 5 4と、 画像内容計測装置 5 5と、 から構 成される。
交通機関を運行する際に、 その交通機関の周囲の状況は、 入力装置 2によ つて遠近法画像として取得される。
平面画像変換装置 5 2は、 この取得された遠近法画像を平面展開すること によって、 遠近感を排除した平面画像に変換するものである。
入力装置 2であるビデオカメラによって取得された遠近法画像は、 例えば、 図 7に示す変数を用いて、 以下の式 (1 ) , (2) によって平面展開され、 遠近感を排除した平面画像に変換される。 y = V · 21/2 · h · c o s (π/ 4 - Θ ) - c o s (β - θ ) /
Figure imgf000016_0001
χ = u · h · c ο s (β - Θ ) / ( f - s i n /3) (2) ここで、 0はカメラの光軸と道路面等の平面との為す角度、 f はカメラの 焦点距離、 hはカメラの高さ、 3はカメラの真下から h + yの距離にある点 とカメラとを結ぶ線分と道路面等の平面との為す角度、 Vはカメラの映写面 上の原点から縦方向の座標、 uはカメラの映写面上の原点から横方向の座標, yは道路面等の平面におけるカメラの真下から h進んだ点を原点とした縦方 向の座標、 Xは道路面等の平面における横方向の座標である。
平面画像認識装置 5 3は、 比較装置 4によって、 変換された平面画像デー タをデータベース 3内に格納してある画像データと比較した結果に基づいて、 そのデータの内容を認識し、 特定するものである。
平面画像結合装置 5 4は、 変換された平面画像データを適宜結合させて、 大画面の平面画像データを生成するものである。
画像内容計測装置 5 5は、 平面画像認識装置 5 3によって認識、 特定され た対象物に関して、 種々の空間的物理量を計測するものである。 空間的物理 量としては、 位置、 距離、 面積、 高さ、 奥行、 体積、 速度、 加速度等が挙げ られる。
次に、 交通機関が自動車等の路面を走行する車両の場合について、 平面展 開処理装置 5 1によって所定の空間的物理量を計測処理する例について、 具 体的に説明する。
[実施例 9 ]
図 8 ( A) に示すように、 入力装置 2によって自車両の前方に延長する走 行車線 5 6が遠近法画像データとして取得された場合、 先ず、 平面画像変換 装置 5 2によって、 図 8 ( B ) に示すように、 遠近感を排除した鉛直上方か ら見た平面画像データに変換される。 ここで、 平面画像認識装置 5 3によつ て、 変換された平面画像データの内容が認識、 特定され、 平面画像内には走 行車線 5 6が存在することが認識、 特定される。
次いで、 画像内容計測装置 5 5によって、 図 8 ( B ) に示すように、 対象 物である走行車線 5 6に関して、 車線幅、 車線の平行度等の種々の空間的物 理量が計測される。 又、 入力装置 2によってリアルタイムに遠近法画像デー タを取得すれば、 時間当たりの移動距離を計測することによって、 自車両の 進行速度を計測することができる。
次に、 交通機関が列車等の軌道を走行する車両の場合について、 平面展開 処理装置 5 1によって所定の空間的物理量を計測処理する例について、 具体 的に説明する。
[実施例 1 0 ]
図 9 ( A) に示すように、 入力装置 2によって自車両の前方に延長する線 路 5 7が遠近法画像データとして取得された場合、 先ず、 平面画像変換装置 5 2によって、 図 9 ( B ) に示すように、 遠近感を排除した鉛直上方から見 た平面画像データに変換される。 ここで、 平面画像認識装置 5 3によって、 変換された平面画像データの内容が認識、 特定され、 平面画像内には線路 5 7が存在することが認識、 特定される。
次いで、 画像内容計測装置 5 5によって、 図 1 0に示すように、 対象物で ある線路 5 7に関して、 レール幅、 レール平行度等の種々の空間的物理量が 計測される。 又、 入力装置 2によってリアルタイムに遠近法画像データを取 得すれば、 時間当たりの移動距離を計測することによって、 自車両の進行速 度を計測することができる。
このように、 平面展開処理装置 5 1によれば、 交通機関自動案内装置 1に 付随して、 交通機関を運行する際に、 その交通機関の周囲の状況に関する 種々の空間的物理量を取得することができる。 又、 この取得された空間的物理量に基づいて、 交通機関自動案内装置 1に おいて、 より適切な通知、 指示を出すことも可能となる。
平面展開処理装置 5 1は、 遠近法画像を平面画像に変換する機能を有する だけでなく、 3 6 0度全周囲画像 (球面画像) を平面画像に変換する機能を 有するものとしてもよレ、。
3 6 0度全周囲画像とは、 運行する交通機関の全周囲、 すなわち、 前後、 左右、 上下、 全ての方向を捉えた画像であって、 例えば、 ① 複数のカメラ で撮影した画像を合成する、 ② カメラの前面に曲面ミラーを設置し、 曲面 ミラーに映った画像を撮影する、 ③ 1台のカメラを回動させ、 各位置で撮 影した画像を合成する、 ④ カメラに魚眼レンズを装着し、 広範囲に撮影し た画像を処理する、 等の方法によって取得できる。
前記 3 6 0度全周囲画像を、 図 1 1に示すように、 仮想の球面上に貼り付 けられた画像と見做せば、 変換された平面画像は、 所望の視点から見た平面 に投影された画像と捉えることができる。
路面を走行する自動車の周囲の状況を、 上記のような方法で 3 6 0度全周 囲画像として取得した場合にあって、 自動車の上方を視点として平面画像に 変換した例を図 1 2に示す。
尚、 以上においては、 交通機関として自動車等の路面を走行する車両、 列 車等の軌.道を走行する車両を例に挙げて説明したが、 航空機、 船舶等におい ても同様に適用することができる。
さらに、 別途、 交通機関の運行経路に交通情報検出装置 6 1を設置して、 交通情報検出装置 6 1によって取得した画像データ、 計測データ等を交通機 関自動案内装置 1に送信するようにしてもよレ、。
交通情報検出装置 6 1は、 交通機関き動案内装置 1における入力装置 2、 データベース 3、 比較装置 4、 認識装置 5、 記憶装置 8、 データ更新装置 9 , 平面展開処理装置 5 1、 さらに、 グラフィック化装置 6 2から構成される。
グラフィック化装置 6 2は、 入力装置 2から取得された画像データ、 計測 データに基づいてコンピュータグラフィック (C G ) 化するものである。 次に、 交通機関が自動車の場合について、 運行経路に設置した交通情報検 出装置 6 1によって取得した画像データ、 計測データ等を交通機関自動案内 装置 1に送信する例について、 具体的に説明する。
[実施例 1 1 ]
自動車の場合には、 交通情報検出装置 6 1は、 例えば図 1 3に示すように、 道路に付設されたゲート 6 3、 照明灯 6 4等に設置される。 そして、 図 1 4 に示すように、 交通情報検出装置 6 1によって取得した画像データ、 計測デ ータ等は、
先ず、 データを集中管理するために設置された基地局 6 5に送信され、 次に、 適宜場所に複数設置された端末局 6 6に配信され、 端末局 6 6から交通機関 自動案内装置 1を搭載した各車両へと送信される。
交通情報検出装置 6 1から基地局 6 5、 端末局 6 6を介して交通機関自動 案内装置 1を搭載した各車両へ配信される画像データ、 計測データ等は、 コ ンピュータグラフィック画像 (C G ) 化されて図形、 数値等とともに送信さ れるから、 各車両の交通機関自動案内装置 1においては、 出力装置 6によつ て、 図 1 5に示すように、 図形、 数値、 文字等で理解し易く表示され、 極め て便利である。
コンピュータグラフィック化された出力画面においては、 自車両の座標は 適宜位置に固定され、 走行する自車両の周囲の状況、 すなわち道路標識、 道 路標示、 交通案内板、 他車両等の位置又表示は、 交通情報検出装置 6 1を通 過する毎に、 時々刻々と変化するようになっている。
尚、 出力画面に表示されるものは、 平面的なコンピュータグラフィック画 像に限らず、 立体的なコンピュータグラフィック画像 (3 D C G ) であって もよく、
平面展開された実画像と合成されたものであってもよい。
図 1 5に示す出力画面は、 予め設定された自車両の安全圏を侵害する又は 侵害する虞れのある他車両がある場合であって、 「追い越し車両あり 時 速: 1 4 0 k m」 等、 文字、 音声等によって運転者又は同乗者に通知される。
[実施例 1 2 ]
交通情報検出装置 6 1から交通機関自動案内装置 1への送信によって交通 情報を認識することは、 図 1 6に示すように、 特に、 交叉点等において自車 両からは左右道路が死角となる場合に、 その左右道路の交通状況を容易に把 握することができ、 交通安全対策上極めて有益である。
図 1 6に示す出力画面は、 自車両からは左右道路が死角となる位置に他車 両がある場合であって、 「前方右折車あり」 等、 文字、 音声等によって運転 者又は同乗者に通知される。
尚、 以上においては、 交通機関として路面を走行する自動車を例に挙げて 説明したが、 列車等の軌道を走行する車両、 航空機、 船舶等においても同様 に適用することができる。
さらに、 交通機関自動案内装置 1において、 運行する交通機関と周囲との 位置関係を正確に認識できる装置を付設すれば、 より効果的に交通機関を自 動案内することができる。
以下においては、 交通機関として自動車等の路面を走行する車両の場合に ついて、 運行する交通機関と周囲との位置関係を正確に認識できる位置関係 認識装置 1 0 1について説明する。
運行する車両の位置関係を認識し、 車両を案内する装置としては、 搭載し たカメラによって取得された映像から道路に付設された白線を検出し、 その 白線からはみ出さないように車両を案内する装置が既に開発されている。 この装置にあっては、 白線という特殊な対象物に限定して、 自車両を白線 との関係においてのみ位置付けているから、 白線を付設していない道路では, 位置認識機能及び自動案内機能は停止するし、 白線が曲がって形成されてい れば、 誤作動をする虞れもある。 又、 交差点等白線に沿って進行することが 必ずしも目的に沿わない場合には、 位置認識機能及び自動案内機能は全く意 味をもたないものとなってしまう。 さらに、 白線以外のものを白線と誤認識 する危険もあり、 白線に沿って走行していても、 障害物が存在した場合には、 それを回避することはできない。
本発明における位置関係認識装置 1 0 1は、 道路に付設した白線のみなら ず、 カメラによって取得された映像中の全ての対象物を利用して、 自車両の 三次元的位置を認識し、 しかも、 周囲の状況の中に自車両を三次元的に位置 付けることができるようにしたものである。
すなわち、 位置関係認識装置 1 0 1においては、 道路に付設した白線のみ ならず、 映像中に存在する全ての対象物が三次元計測の手掛りとなる。 又、 対象物そのものではなく、 対象物中にあって画像処理によって抽出しゃすい 部分を手掛りとする。 又、 対象物中にあって、 三次元計測の手掛りとなりそ うな部分を複数抽出する。 さらに、 当初から対象物を特定するのではなく、 検出できた対象物を手掛りとする、 という点にも特徴がある。
映像中の前記手掛りの部分を、 車両の進行によって生成される連続画像の 各画像中において、 マッチング法等の画像処理技術を適用して自動追跡する。 ここで、 追跡に成功するものもあれば、 追跡に失敗して逃すものもあるが、 追跡に成功した手掛りの部分のみを三次元計測の対象とすればよい。
そして、 車両が適当な距離移動する間に追跡に成功した複数の手掛りの部 分に基づいて、 所定の演算をすることによって、 自車両の三次元的位置及び 方向を検出、 認識する。
又、 複数のカメラを互いの視野が重なるように搭載して、 重なる視野の中 で対応点を検出して三次元計測を行い、 周囲の手掛りとなる部分から構成さ れた三次元座標の中に、 又は、 他の方法で取得された周囲の三次元画像の中 に、 自車両の三次元位置及び方向を位置付ける。
本発明における位置関係認識装置 1 0 1によれば、
① 大きな視差を得ることができるので、 遠方の対象物について計測精度 が向上する。
② 誤差の累積を少なくすることができる。
③ カメラ位置を演算により計測できるので、 装置構成が簡単になり、 力 メラの設定が極めて簡易になる。
④ カメラによって撮影した過去の映像データから、 三次元計測が可能に なるので、 過去の映像資料を活用することができる。
⑤ 過去に走行して取得した特徴となる点のデータから、 その特徴点を手 掛りとして、 自車両の位置を演算により三次元的に求めることができる。 ⑥ 映像には映っていない領域の車両位置及び方向を演算によって求める ことができる。
このように、 位置関係認識装置 1 0 1によれば、 白線のみによる自車両の 位置検出によっては決して為し得ない、 様々な機能を発揮することができる。 そして、 周囲の交通状況を判断し、 それを運行者に伝達し、 又は、 それに 基づいて直接に車両を制御し、 より高度な自動案内を実現することができ、 交通安全に効果的に貢献することができる。
本発明の位置関係認識装置 1 0 1は、 車両に搭載したビデオカメラ等の入 力装置によって撮影される道路面、 周囲物体等の映像情報に基づいて、 道路 面、 周囲物体等及び自車両の三次元的位置を検出し、 道路面との位置関係を 認識することができるようにしたものであり、 車両に搭載した入力装置によ つて画像を取得する画像取得部 1 0 2と、 取得した画像をある期間記録する 画像一時記録部 1 0 3と、 画像内に対応点を取るための手掛り点を自動抽出 する手掛り点自動抽出部 1 0 4と、 距離差のある二以上の画像から、 各画像 内の複数の手掛り点の対応点を検出する対応点検出部 1 0 5と、 検出された 複数の対応点から、 入力装置の位置及び方向を演算する入力装置位置方向計 測部 1 0 6と、 演算された入力装置の位置の三次元座標における相対距離を、 実測値を用いて絶対距離に変換する実測スケール変換部 1 0 7と、 から構成 されることを特徴とする。
画像取得部 1 0 2と画像一時記録部 1 0 3によれば、 自車両に搭載したビ デォカメラ等の入力装置からの映像を記録することができ、 時間軸上に並べ ることによって、 車両の進行とともに時間的に変化する画像が得られる。 つ まり、 静止対象物に関しては、 複数のカメラを車両が進行する道路上に並べ て撮影したと同様の結果となる。 このようにして、 カメラを一台使用するだ けであっても、 カメラを移動することにより、 複数の視差を得ることができ る。
次に、 手掛り点自動抽出部 1 0 4によって、 画像内の特徴的な部分を手掛 り点とするために、 画像の輪郭を抽出し、 又は色の領域に分割する等して、 画像内の特徴的な部分を自動抽出する。 ここで、 手掛り点とは、 位置の異なる地点で撮影した画像間での対応点を 求めるために、 その対応点となる画像内の特徴点を意味する。 手掛り点は、 対象物そのものである場合もあるが、 対象物の一部分である場合の方が多い c 又、 ここにいう特徴点は、 人間にとっての特徴点ではなく、 画像処理するコ ンピュータにとっての特徴点でよいので、 画像処理は極めて有利となる。 当初から検出する手掛り点を特定しておく必要はなく、 その時現場におい て容易に検出できた対象物又はその一部分を手掛り点とすることができる。 さらに、 検出された複数の手掛り点について、 当初から追跡する手掛り点を 特定しておく必要はなく、 追跡できた手掛り点のみを三次元計測の演算対象 の手掛り点とすることができる。 これらの特徴によって、 位置関係認識装置 1 0 1による位置関係の認識が実現可能となっている。
次に、 対応点検出部 1 0 5と入力装置位置方向計測部 1 0 6とによって、 複数の対応点を画像マッチング法等によって検出し、 各対応点の座標に基づ いて、 演算によってカメラ等の入力装置位置及び方向を求める。
ここで、 入力装置の位置及び方向を連続して求めることによって、 入力装 置の速度、 すなわち、 車両速度、 車両加速度、 車両進行方向を求めることが できる。
対応点のうちには、 車両の移動とともに隠れたりするものもあるが、 十分 に多くの手掛り点を選択しておき、 最終的に数個の手掛り点さえ残れば、 そ れで十分に演算は可能である。
又、 静止座標系に固定した対象物を手掛り点に選択しなければならないが、 十分に多くの手掛り点を選択しておき、 それらに統計処理を施して、 異常値 を示すものを削除し、 有効な手掛り点のみを残すことによって、 三次元計測 が可能となる。 演算によって得られたカメラ位置のデータは相対距離であり、 絶対距離に 変換するためには、 計測対象とする対応点座標又は車両位置座標に関して、 何処か一力所以上の既知の距離が必要となるが、 車両の走行によって距離に 変更がない値として、 例えば、 カメラの設置高さ又は画像内で当初から既知 の距離を用いて、 較正をしておけばよい。 又、 カメラを複数台設置する場合 には、 そのカメラ間の距離を既知の距離とすることができる。 さらに、 画像 内の対象物中に実測値が既知のものが存在すれば、 それを既知の距離として、 実測スケール変換部 1 0 7によって、 絶対距離に変換することができる。 以上のようにして、 カメラ位置及び方向を三次元的に計測することができ る。
前記位置関係認識装置 1 0 1に、 複数の手掛り点の各画像内の対応点から、 複数の手掛り点を三次元計測し、 それらとカメラ位置との関係を三次元座標 として求める対応点三次元計測部 1 0 8を付加してもよい。
対応点三次元計測部 1 0 8によれば、 カメラの位置及び方向の三次元デー タを求める演算過程で、 同時に、 手掛り点の三次元データも求まる。 これに よって、 複数の手掛り点の三次元位置、 三次元配列、 三次元分布の中にカメ ラ位置を配置することが可能になる。 すなわち、 周囲の複数の手掛り点の三 次元分布と同じ三次元座標系の中に、 車両の位置及び方向を三次元的に配置 することができる。
よって、 周囲の静止座標系内の静止対象物の中に、 言い換えれば、 周囲の ビル、 電柱、 道路等を含む三次元座標の中に、 自車両、 正確には自車両に搭 載されたカメラの位置を三次元的に位置付けることができる。
又、 対応点三次元計測部 1 0 8によって得られた対応点の三次元座標を記 録する三次元データ記録部 1 0 9を付加してもよい。 演算で求められた手掛り点の三次元データを記録して残すことで、 後にそ の周辺を走行する場合に、 既に三次元座標を取得している手掛り点を、 車両 の位置及び方向の演算の指標として参考にすることができる。
現実的には、 前もって専用装置を搭載した車両を走行させ、 手掛り点のよ り正確な三次元データを収集しておくことで、 それらを後に多くの車両が利 用することができる。
さらに、 三次元データ記録部 1 0 9に蓄積した手掛り点の三次元データを、 次回以降の周辺の走行時に、 三次元データ記録部 1 0 9から読み出す三次元 データ読み出し部 1 1 0と、 それらデータと次回以降の走行時に取得された 三次元データとを比較して、 一致点を求めて、 車両位置の演算精度を高める 対応点比較部 1 1 1 とを付加してもよい。
三次元データ記録部 1 0 9から三次元データ読み出し部 1 1 0によって、 三次元データを読み出し、 その後の走行の度に、 以前の手掛り点の座標に変 更があれば、 その座標を更新して新しいデータとして再度記録しておくのが よい。
同一場所付近の走行を重ねるにつれて、 三次元データ記録部 1 0 9のデー タを更新し、 新規に追加をすることで、 手掛り点が増加し、 又は位置精度が 向上し、 車両の位置及び方向の演算精度も向上する。
前もって専用装置で精度の高い三次元データを生成しておき、 それを後に 他の車両が利用することによって、 手掛り点の位置精度が極めて高くなる。 さらに、 前もつて専用装置で手掛り点を画素単位まで拡張した三次元地図デ ータを生成しておけば、 走行路周辺の三次元空間が構成され、 その中に車両 の位置及ぴ方向を配置できる。
又、 絶対座標が既知である対象物を対応点に選択し、 前記入力位置方向計 測部 1 0 6及び対応点三次元計測部 1 0 8によって取得した三次元データに 絶対座標を与える絶対座標変換部 1 1 2と、 ある地域に存在する手掛り点の 三次元座標を絶対座標系に統合する座標統合部 1 1 3とを付加してもよい。 絶対座標変換部 1 1 2によれば、 例えば、 G P Sでカメラ位置の絶対座標 を取得するとか、 既に緯度経度の既知である対象物を手掛り として、 相対距 離として得られた三次元データを絶対座標に変換することができる。
又、 座標統合部 1 1 3によれば、 幾つかの手掛り点の座標を共通の絶対座 標系に統一して表示でき、 直ちに、 三次元データは絶対座標を取得したこと になる。
手掛り点が絶対座標を取得すれば、 次回以降も、 或いは他の車両でも、 手 掛り点の共通の三次元データとして利用することができる。
手掛り点を集めた三次元データと一致した現場データは、 手掛り点の位置、 配列、 分布に一致したことで、 絶対座標を得たことになる。 そこから直ちに、 カメラ位置、 すなわち、 車両の絶対座標が取得できることになる。
さらに、 ある地域全体の地図の中に手掛り点による三次元座標を落とし込 むことによって、 地図と手掛り点が結合し、 新たなデータベースができあが り、 多くの車両が、 共通データとして自車両の位置及び方向のデータを記録 する地図を取得できることになる。
又、 手掛り点の名称及び属性を手掛り点の位置データに対応付けて記録保 存し、 各手掛り点の属する対象物の名称及び属性を当該手掛り点の座標デー タに付加する名称属性付加部 1 1 4と、 付加された手掛り点の座標、 名称及 び属性を地図の中に関係付けて書き込み、 記録保存するデータベース 1 1 5 とを付加してもよレ、。
手掛り点が属する対象物の名称及び属性が前もって分かっていれば、 又は、 画像認識により名称が分かれば、 対象物の名称とその一般的性質やその対象 物固有の性質も属性データとして取得することができる。
つまり、 計測時の手掛り点とデータベース内の手掛り点との対応が付けば、 その手掛り点の対象物の名称や性質を読み取ることができる。
又、 前記各種演算結果を適宜、 運転者等に表示して知らせる表示部 1 1 6 を付加してもよい。
取得したデータ、 車両位置及び方向、 手掛り点の属する対象物の名称及び 属性等を表示部 1 1 6によって表示すれば、 それらを運転者や管理者が観察 して、 状況を判断することができる。
前記演算結果により、 周囲とき車両の位置関係及び道路と自車両の位置関 係から車両の状況を自動判断する状況判断部 1 1 7と、 状況判断した結果を 用いて、 自動的に車両の目的にあった操作 (ブレーキ操作、 スピードコント ロール操作、 ハン ドル操作、 警報操作等) を自動的に行う自動車両制御部 1 1 8を付加してもよい。
状況判断部 1 1 7によれば、 自車両の位置及び方向、 手掛り点の属する対 象物の名称及び属性、 それら手掛り点の名称及び属性、 路面と車両との位置 関係、 標識、 道路標示等を総合的に判断して、 車両のおかれている状況を判 断することができる。
これによつて、 自動車両制御部 1 1 8を介して、 車両を自動的に又は半自 動的に運行させることができる。 又、 周囲の状況と車両の位置関係を判断し て、 運転者等に車両の位置情報を伝達することができる。
又、 カメラを複数台設置して画像を取り込み、 それぞれのカメラの視野の —部若しくは全部を重複させた複数カメラ画像取得部 1 1 9と、 単一カメラ よる移動距離による視差から演算される三次元距離計測と、 複数力メラによ るカメラ間視差から演算される三次元距離計測と、 の両方を併用し、 複数力 メラの視野重複方式で得られた手掛り点の三次元距離データを基準長として、 単一カメラの移動による移動距離視差方式で得られた三次元距離データを較 正することによって、 絶対距離に変換するキヤリブレーシヨン部 1 2 0と、 を付加してもよい。
車両の周囲を観察できるように、 車両を取り巻く形で複数のカメラを車両 に設置し、 各カメラの視野が一部他のカメラの視野と重複するようにすれば、 重複部分ではカメラ間視差を発生させることができる。
複数カメラ視野重複方式による三次元距離計測の最大の特徴は、 移動物体 をも計測できることである。 又、 複数カメラ視野重複方式によれば、 短距離 の計測において高い精度が出せる。
一方、 単一カメラ移動距離方式によれば、 複数カメラ方式におけるカメラ 間距離を実質的に長距離とすることが可能であるため、 長距離の三次元距離 計測をする際に有利である。 例えば、 車載カメラにおけるカメラ間距離は、 せいぜい 1 m程度であるが、 カメラ移動距離方式におけるカメラ間距離は、 l m、 1 0 m、 1 0 0 mのみならず、 l k m、 1 0 k mとすることが可能で ある。
そこで、 近距離は視野重複方式によって三次元計測し、 遠距離は視差の大 きく取れるカメラ移動距離方式によって三次元計測する。
基本的に、 単数の場合も複数の場合も計測の原理は同じであるが、 視野重 複する複数カメラ方式の場合の特徴として、 視差による計測において、 基準 長としてカメラ間距離をとることができるので、 絶対距離計測ができ、 しか も、 視差による距離計測から得られた中間距離計測の距離データによって、 単一カメラ移動方式による計測距離を較正することができるので、 短距離か ら長距離まで正確な計測が可能となる。 すなわち、 前方を走行する車両の位 置、 速度、 加速度、 進行方向を計測することができる。
又、 手掛り点の属する対象物の三次元形状を、 表示画面の中に定義された 座標系中の正しい位置に、 三次元コンピュータグラフィックスで配置して表 現し、 必要に応じて名称、 属性、 他の対象物、 自車両を、 その表示画面中に 表示する、 三次元空間を再現する形状座標属性表示部 1 2 0と、 前記表示画 面中に表現された各種対象物を示す三次元コンピュータグラフィックスの画 像上で手で触れたり、 マウスでクリックする等して、 又は、 現実画像のみを 表示し、 表示された現実画像上で目的の対象物を手で触れたり、 マウスでク リックする等して、 目的の対象物を指定することによって、 その対象物の名 称、 座標、 形状、 その他関連データ等の属性を表示し、 指示した目的の対象 物に関連するデータを入力し、 指示した目的対象物に対して、 各種の操作や 行動を指示することができる、 ユーザインターフェース部 1 2 1と、 を付加 してもよレ、。
複数の手掛り点がその属する対象物の三次元座標、 名称、 属性を取得する ことができた場合、 それらの手掛り点はそれらが属するそれぞれの対象物に 対応が取れていることを意味する。
そこで、 対象物の三次元形状と三次元座標を前もってデータベースに入れ ておくことで、 自車両とその周囲の状況を 3 D C G (三次元コンピュータグ ラフィックス) で表現して、 三次元座標系中に表示することができる。 もち ろん、 他の属性も、 そして手掛り点が見つからない対象物であっても、 その 形状と位置座標は分かっているので、 表示することができる。
再構築された三次元空間と、 その中に配置された各対象物の位置関係、 名 称、 属性等の情報から、 状況判断をより適切に行うことが出来る。 又、 表示された 3 D C G画面上の対象物をマウスでクリ ックしたり、 手で 触れたりする等して指定することにより、 若しくは、 直接音声で指示し、 音 声認識装置で指示内容を理解し、 その目的の対象物の属性をデータベースか ら読み出して表示することができる。
さらに、 現実画像の二次元データと前記三次元コンピュータグラフィック スの二次元への投影画像データとを、 それぞれ層状に形状が一致するように 重ねて構成し、 現実画像のみを表示して、 表示画面上の対象画像をマウスで クリ ックしたり、 手で触れる等して、 目的の対象物を指定すれば、 現実画像 と 3 D C G画像が互いに重なるように一致して構成されているデータ構造か ら、 3 D C Gの対応する対象物のデータを指定して、 対象物に関する名称、 座標、 属性、 その他関連情報をデータベースから呼び出し、 又は、 書き込み をすることができる。
又、 通信回線を介して、 他の車両、 若しくは他の通信ポイントと接続され、 情報を送受信する外部通信部 1 2 2を付加してもよい。
通信回線を介して、 他の車両、 若しくは他の通信ポイントと接続すれば、 自動的に、 又はユーザインターフェースを介して指示し、 自車両が生成する 手掛り点の三次元情報、 移動体情報を他に送信し、 又は、 自車両が生成する と同じにように、 他車両がしかも異なる位置で生成した手掛り点の三次元情 報、 移動体情報を他車両から受信することができる。
又、 周囲の固定点に設置されたカメラで取得した映像から解析された手掛 り点情報や、 自車両を含む車両の位置情報、 速度情報、 及び状況を判断した 結果の情報、 例えば、 渋滞情報、 事故情報等を固定局が送信し、 それらの情 報を自車両が受信し、 表示し、 若しくは、 自車両では取得できていない情報 をも受信し、 表示し、 さらに、 自車両が取得した情報に受信した情報を加え て状況判断をし、 精度の高い情報を表示することができる。
次に、 交通機関が自動車等の路面を走行する車両の場合について、 位置関 係認識装置 1 0 1によって、 運行する交通機関と周囲との位置関係を認識す る例について、 具体的に説明する。
[実施例 1 3 ]
図 1 9に示すように、 車両の屋根部に魚眼レンズを装着した 4台の超広角 カメラを視野が一部重複するように設置し、 カメラの視野の重複部分を利用 して、 車両の距離計測と速度計測を行った。 又、 近距離の手掛り点について は、 複数カメラ間の視差により三次元計測をし、 遠距離の手掛り点について は、 単一カメラの移動による手掛り点の対応点検出によって、 移動距離に基 づいて三次元計測を行った。
カメラ間の視差による演算も、 カメラ移動による運動視差による演算も、 基本的には同じ形式の演算となるが、 どれが未知数となるかが異なる。 運動 視差による場合には、 カメラの移動距離は未知数となるが、 カメラ間の視差 による場合には、 カメラ間の距離は前もって実測できるので、 既知数とする ことができる。
又、 演算で求められた三次元計測データを記録しておけば、 次に同じ地域 を走行する場合には、 以前求めた手掛り点が既知数となり、 より精度を向上 して、 三次元計測が可能となる。 手掛り点の例を図 1 8に〇印で示す。 取得した映像は、 球面に貼り付けた球面座標形式に展開するのが後の処理 にとつて有利である。 カメラの位置関係は、 カメラ間距離及び方向を正確に 計測しておくのが望ましいが、 カメラ間距離も未知数として演算で求めるこ とも可能であるから、 適当に設置してもよい。 カメラ間距離は、 実測値変換 の基準として用いることもできる。 カメラの方向も既知数とすることができるが、 カメラの固定方法によって は振動等で方向が多少ずれることも予想される場合には、 カメラの方向は未 知数として扱うことができる。
尚、 未知数が多い場合には、 手掛り点を多く取り、 演算によってそれらの 未知数を求めることができる。 原理的には、 手掛り点は画素数まで増加させ ることができる。 '
ここで、 何れか一個以上の手掛り点を視野重複するカメラの視差により正 確に計測して基準値とし、 実測スケールに変換するか、 又は、 カメラの路面 からの高さを基準値として実測スケールに変換することができる。 又、 画像 内にある長さが既知である対象物を基準長とすることもできる。
視野の重複部分は視差が得られるので、 カメラ間距離を既知の基準長とし て、 同時撮影した各カメラの映像内で、 手掛り点の対応点を画像認識によつ て求めることができる。 手掛り点は、 画像の輪郭処理により、 画像内からリ アルタイムで自動抽出することができる。 画像認識にリアルタイム性を持た せるためと、 演算を容易にするために、 輪郭化された画像内の十字交点、 三 角形状交点、 四角形状交点等を画像内から抽出する。 手掛り点のデータ収集 のためであれば、 リアルタイム性は必要がないので、 オフライン処理によつ て、 かなり多くの手掛り点を演算で求めることができる。 又、 画素全面にま で拡張することも可能である。
一般には、 多くの手掛り点のうちの幾つかを、 特徴ある点として手掛り点 とし、 対応点を画像マッチング法等によって求める。 対応点が決定されれば、 手掛り点までの三次元距離を演算によって求めることができる。 同時に、 力 メラ位置及び方向も演算によって求まる。
手掛り点は、 全てが常に対応点として見つかるとは限らない。 途中におい て対応点が見つけられなくなる場合を想定して、 多少多めに自動抽出してお くのが好ましい。
手掛り点が見つかった場合は、 後処理でもよいから、 手掛り点の三次元位 置を地図と対応させ、 手掛り点の属する対象物の名称及び属性をリンクさせ、 データベースに記録しておくのが好ましい。 これによつて、 次回以降の走行においては、 手掛り点を見つけるだけで、 それが属する対応点の名称とその対象物が持つ属性を知ることができる。 前記データベースを利用すれば、 手掛り点の位置を求めるだけで、 手掛り 点の属する対象物を認識し、 車両のおかれている状況を理解し、 次に取るベ き行動を判断することができる。 そして、 その判断結果によって、 車両方向、 速度等を適宜制御して、 車両を適切に自動案内することができる。
又、 三次元計測結果、 若しくは判断結果を画面表示、 音声等で出力すれば、 図 1 5に示すように、 運転者や管理者に通知することができる。 又、 他車両 からの情報や周囲に設置された固定カメラによる情報を統合すれば、 図 1 6 に示すように、 自車両の周囲の状況を表示し、 運転者や管理者に通知するこ とができる。 何れの場合にも、 表示画面はユーザインターフェースとして機 能し、 目的の車両を指定し、 通信を開始し、 データの送受信をし、 その車両 を明示する等できる。
尚、 以上においては、 交通機関として自動車等の路面を走行する車両を例 に挙げて説明したが、 列車等の軌道を走行する車両、 航空機、 船舶、 宇宙船 等においても、 同様に適用することができる。

Claims

請 求 の 範 囲
1 . 運行する交通機関の周囲の状況を画像、 音声等として取得する入力装置 と、 その交通機関に関する画像データ、 音声データ等を予め格納したデータ ベースと、 前記入力装置によって取得した画像データ、 音声データ等を前記 データベース内に格納した画像データ、 音声データ等と比較する比較装置と、 画像データ、 音声データ等を比較した結果が一致した場合にそのデータの内 容を認識し、 特定する認識装置と、 前記認識装置によって認識し、 特定した 結果を運行者等に文字、 画像、 音声等によって通知する出力装置とから構成 される交通機関自動案内装置。
2 . 前記入力装置によって取得された対象物に対応する画像データ、 音声デ ータ等が前記データベース内に存在しない場合に、 その新たな対象物に対応 する画像デ一タ、 音声データ等を地図上の位置と対応させて前記データべ一 スに新たに格納する記憶装置と、 対象物に対応する画像データ、 音声データ 等が前記データベース内に格納された画像データ、 音声データ等と相違する 場合に、 新しい画像データ、 音声データ等に更新して前記データベースに格 納するデータ更新装置を有することを特徴とする請求項 1に記載の交通機関 自動案内装置。
3 . 前記認識装置によって認識又は特定された事項に基づいて何等かの判断 を行い、 前記出力装置によって運行者等に判断結果に基づく指示を文字、 画 像、 音声等で通知する判断装置を有することを特徴とする請求項 1又は 2に 記載の交通機関自動案内装置。
4 . 前記判断装置は、 前記認識装置によって認識又は特定された事項に基づ いて何等かの判断を行い、 さらに、 その判断結果に基づいて前記出力装置に 所定の動作を指示し、 制動装置、 操縦装置等を自動的に作動させるものであ ることを特徴とする請求項 3に記載の交通機関自動案内装置。
5 . 前記交通機関自動案内装置を構成する一又は複数の装置が他の装置と通 信回線を介して接続されていることを特徴とする請求項 1乃至 4に記載の交 通機関自動案内装置。
6 . 運行する交通機関は自動車等の路面を走行する車両であって、 自車両の 周囲の状況を画像、 音声等として取得する入力装置と、 道路標識、 道路標示、 交通案内板等、 自動車等に関する画像データ、 音声データ等を予め格納した データベースと、 前記入力装置によって取得した画像データ、 音声データ等 を前記データベース内に格納した画像データ、 音声データ等と比較する比較 装置と、 画像データ、 音声データ等を比較した結果が一致した場合にそのデ ータの内容を認識し、 特定する認識装置と、 前記認識装置によって認識し、 特定した結果を運転者又は同乗者に文字、 画像、 音声等によって通知する出 力装置とから構成される交通機関自動案内装置。
7 . 運行する交通機関は鉄道列車等の軌道を走行する車両であって、 自車両 の周囲の状況を画像、 音声等として取得する入力装置と、 軌道敷標識、 軌道 敷表示、 軌道敷案内板等、 鉄道車両等に関する画像データ、 音声データ等を 予め格納したデータベースと、 前記入力装置によって取得した画像データ、 音声データ等を前記データベース内に格納した画像データ、 音声データ等と 比較する比較装置と、 画像データ、 音声データ等を比較した結果が一致した 場合にそのデータの内容を認識し、 特定する認識装置と、 前記認識装置によ つて認識し、 特定した結果を運転者又は同乗者に文字、 画像、 音声等によつ て通知する出力装置とから構成される交通機関自動案内装置。
8 . 運行する交通機関は船舶、 航空機等の軌道のない二次元又は三次元を航 行する船体又は機体であって、 自体の周囲の状況を画像、 音声等として取得 する入力装置と、 標識、 表示、 港湾形状、 空港形状等、 船舶又は航空機等に 関する画像データ、 音声データ等を予め格納したデータベースと、 前記入力 装置によって取得した画像データ、 音声データ等を前記データベース内に格 納した画像データ、 音声データ等と比較する比較装置と、 画像データ、 音声 データ等を比較した結果が一致した場合にそのデータの内容を認識し、 特定 する認識装置と、 前記認識装置によって認識し、 特定した結果を操縦者又は 同乗者に文字、 画像、 音声等によって通知する出力装置とから構成される交 通機関自動案内装置。
9 . 前記入力装置によって取得された交通機関の周囲の状況についての遠近 法画像データを、 遠近感を排除した平面画像データに変換する平面画像変換 装置と、 前記比較装置によって、 変換された平面画像データを前記データべ ース内に格納してある画像データと比較した結果に基づいて、 そのデータの 内容を認識し、 特定する平面画像認識装置と、 から構成される平面展開処理 装置を付設したことを特徴とする請求項 1乃至 8に記載の交通機関自動案内
1 0 . さらに、 前記平面画像認識装置によって認識、 特定された対象物に関 して、 種々の空間的物理量を計測する画像内容計測装置と、 から構成される 平面展開処理装置を付設したことを特徴とする請求項 9に記載の交通機関自 動案内装置。
1 1 . 前記平面画像変換装置は、 前記入力装置によって取得された交通機関 の周囲の状況についての 3 6 0度全周囲画像データをも、 平面画像データに 変換する機能を有することを特徴とする請求項 9又は 1 0に記載の交通機関 自動案内装置。
1 2 . 交通機関の周囲の状況を画像データ、 計測データ等として取得する交 通情報検出装置を交通機関の運行経路に設置して、 前記交通情報検出装置に よって取得した画像データ、 計測データ等を受信できるようにしたことを特 徴とする請求項 1乃至 1 1に記載の交通機関自動案内装置。
1 3 . 前記交通情報検出装置は、 取得された画像データ、 計測データに基づ いてコンピュータグラフィック化するグラフィック化装置を有することを特 徴とする請求項 1 2に記載の交通機関自動案内装置。
1 4 . 交通機関に搭載した入力装置によって画像を取得する画像取得部と、 取得した画像をある期間記録する画像一時記録部と、 画像内に対応点を取る ための手掛り点を自動抽出する手掛り点自動抽出部と、 距離差のある二以上 の画像を取り出し、 各画像内の複数の手掛り点の対応点を求める対応点検出 部と、 検出された複数の対応点から、 入力装置の位置及び方向を演算する入 力装置位置方向計測部と、 求められた入力装置の位置の三次元座標の相対距 離を、 実測値を用いて絶対距離に変換する実測スケール変換部と、 から構成 される位置関係認識装置を付設したことを特徴とする請求項 1〜 1 3に記載 の交通機関自動案内装置。
1 5 . 前記位置関係認識装置に、 複数の手掛り点の各画像内の対応点から複 数の手掛り点を三次元計測し、 それらと入力装置の位置との関係を三次元座 標として求める対応点三次元計測部を付加したことを特徴とする請求項 1 4 に記載の交通機関自動案内装置。
1 6 . 前記位置関係認識装置に、 前記対応点三次元計測部によって得られた 対応点の三次元座標を記録する三次元データ記録部を付加したことを特徴と する請求項 1 5に記載の交通機関自動案内装置。
1 7 . 前記位置関係認識装置に、 運行して得られた前記三次元データ記録部 に蓄積した手掛り点の三次元データを、 次回以降の周辺の運行時に、 三次元 データ記録部から読み出す三次元データ読み出し部と、 それらデータと、 次 回以降の運行時に取得された画像データとを比較して、 一致点を求めること によって、 交通機関の位置の演算精度を向上させる対応点比較部と、 を付加 したことを特徴とする請求項 1 6に記載の交通機関自動案内装置。
1 8 . 前記位置関係認識装置に、 絶対座標が既知である対象物を対応点に選 択することで、 前記入力装置位置方向計測部及び前記対応点三次元計測部で 取得した三次元データに絶対座標を与える絶対座標変換部と、 ある地域に存 在する手掛り点の三次元座標を絶対座標系に統合する座標統合部と、 を付加 したことを特徴とする請求項 1 7に記載の交通機関自動案内装置。
1 9 . 前記位置関係認識装置に、 手掛り点の名称及び属性を、 手掛り点の位 置データに対応付けて記録保存し、 各手掛り点の属する対象物の名称及び属 性を当該手掛り点の座標データに付加する名称属性付加部と、 付加された手 掛り点の座標、 名称、 属性を、 地図の中に関係付けて書き込み記録保存する データベースと、 を付加したことを特徴と請求項 1 8に記載の交通機関自動 案内装置。
2 0 . 前記位置関係認識装置に、 前記各種演算結果を適宜、 運行者等に表示 して知らせる表示部を付加したことを特徴とする請求項 1 9に記載の交通機 関自動案内装置。
2 1 . 前記位置関係認識装置に、 前記各種演算結果により、 周囲と運行する 交通機関の位置関係から、 交通機関の状況を自動判断する状況判断部と、 状 況判断した結果を用いて、 自動的に交通機関の目的にあった操作を自動的に 行う自動制御部を付加したことを特徴とする請求項 2 0に記載の交通機関自 動案内装置。
2 2 . 前記位置関係認識装置に、 入力装置を複数台設置して画像を取り込み、 それぞれの入力装置の視野の一部又は全部を重複させた複数入力装置画像取 得部と、 単一入力装置による入力装置移動距離による視差から演算される三 次元距離計測と複数入力装置による入力装置間視差から演算される三次元距 離計測との両方を併用し、 複数入力装置の視野重複方式で得られた手掛り点 の三次元距離データを基準長として、 単一入力装置移動による移動距離視差 方式で得られた三次元距離データを較正することによって、 絶対距離に変換 するキヤリブレーション部と、 を付加したことを特徴とする請求項 2 1に記 載の交通機関自動案内装置。
2 3 . 前記位置関係認識装置に、 手掛り点の属する対象物の三次元形状を、 表示画面の中に定義された座標系中の正しい位置に、 三次元コンピュータグ ラフィックスで配置して表現し、 必要に応じて名称、 属性、 他の対象物、 自 車両をも、 その表示画像の中に表示可能とする三次元空間を再現する形状座 標属性表示部と、 前記表示画像の中に表現された各種対象物を示す三次元コ ンピュータグラフィックスの画像上を手で触れたり、 マウスでクリ ックする 等して、 又は、 現実画像のみを表示し、 表示された現実映像上で、 目的の対 象物を手で触れたり、 マウスでクリ ックする等して、 目的の対象物を指定す ることで、 その対象物の名称、 座標、 形状、 その他関連データ等の属性を表 示し、 指示した目的の対象物に関連するデータを入力し、 指示した目的対象 物に対して、 各種の操作や行動を指示することができるユーザインターフエ ース部と、 を付加したことを特徴とする請求項 2 2に記載の交通機関自動案 内装置。
2 4 . 前記位置関係認識装置に、 通信回線を介して、 他の交通機関又は他の 通信ボイントと接続され、 情報を送受信する外部通信部を付加したことを特 徴とする請求項 2 3記載に記載の交通機関自動案内装置。
PCT/JP2003/008465 2002-07-03 2003-07-03 交通機関自動案内装置 WO2004006207A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/519,919 US7804424B2 (en) 2002-07-03 2003-07-03 Automatic guide apparatus for traffic facilities
EP03741177A EP1536393A4 (en) 2002-07-03 2003-07-03 AUTOMATIC GUIDING APPARATUS FOR PUBLIC TRANSPORT
AU2003281400A AU2003281400A1 (en) 2002-07-03 2003-07-03 Automatic guide apparatus for public transport

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-194283 2002-07-03
JP2002194283 2002-07-03

Publications (1)

Publication Number Publication Date
WO2004006207A1 true WO2004006207A1 (ja) 2004-01-15

Family

ID=30112299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008465 WO2004006207A1 (ja) 2002-07-03 2003-07-03 交通機関自動案内装置

Country Status (4)

Country Link
US (1) US7804424B2 (ja)
EP (1) EP1536393A4 (ja)
AU (1) AU2003281400A1 (ja)
WO (1) WO2004006207A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602004024930D1 (de) * 2004-07-16 2010-02-11 Fourie Strassenzustands-informationsapparatus, -system und -verfahren
US9207675B1 (en) * 2005-02-11 2015-12-08 Enovation Controls, Llc Event sensor
GB2437137A (en) * 2006-04-03 2007-10-17 Autoliv Development Ab Drivers aid that sensors the surrounding of the vehicle, and with a positioning system compares the detected objects to predict the driving conditions
JP4755556B2 (ja) * 2006-09-04 2011-08-24 クラリオン株式会社 車載装置
US20080137910A1 (en) * 2006-11-27 2008-06-12 Hanae Suzuki Locating method for locating a predetermined spot on a road and a locating apparatus using the method
JPWO2008099483A1 (ja) * 2007-02-15 2010-05-27 パイオニア株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび記録媒体
US8862395B2 (en) * 2011-01-31 2014-10-14 Raytheon Company Coded marker navigation system and method
JP5594246B2 (ja) * 2011-07-20 2014-09-24 株式会社デンソー 車線認識装置
KR20130065114A (ko) * 2011-12-09 2013-06-19 현대자동차주식회사 Gps정보를 이용한 상대차량 위치파악방법
US9036025B2 (en) * 2012-01-11 2015-05-19 International Business Macines Corporation System and method for inexpensive railroad track imaging for inspection
CN102889892B (zh) * 2012-09-13 2015-11-25 东莞宇龙通信科技有限公司 实景导航的方法及导航终端
US10410516B1 (en) 2018-05-24 2019-09-10 Veoneer Us, Inc. Systems and methods for vehicle geofencing management
US11270162B2 (en) * 2018-10-30 2022-03-08 Here Global B.V. Method and apparatus for detecting objects of interest in an environment
CN113022244B (zh) * 2018-11-13 2022-08-09 黄奕坤 三栖智能驾驶电动轿车
JP7002823B2 (ja) * 2018-12-06 2022-01-20 アルパイン株式会社 案内音声出力制御システムおよび案内音声出力制御方法
US11624630B2 (en) * 2019-02-12 2023-04-11 International Business Machines Corporation Using augmented reality to present vehicle navigation requirements
US20230102205A1 (en) * 2021-09-30 2023-03-30 Lenovo (United States) Inc. Road sign information presentation

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5844505A (en) * 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
JPH11271074A (ja) * 1998-03-20 1999-10-05 Fujitsu Ltd 目印画像照合装置及び目印画像照合方法及びプログラム記憶媒体
JP2000222681A (ja) * 1999-01-29 2000-08-11 Fujitsu Ltd 道路情報システムおよび記録媒体
JP2000283772A (ja) * 1999-03-31 2000-10-13 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2000293670A (ja) * 1999-04-08 2000-10-20 Asia Air Survey Co Ltd ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
JP2001289631A (ja) * 2000-04-06 2001-10-19 Nippon Signal Co Ltd:The 距離測定装置及び距離測定方法
JP2002139327A (ja) * 2000-11-02 2002-05-17 Sony Corp ナビゲーション装置、マーク対応動作属性登録方法およびナビゲーション装置における動作実行方法
JP2002163643A (ja) * 2000-11-28 2002-06-07 Toshiba Corp 運転案内装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59509929D1 (de) * 1994-07-06 2002-01-24 Volkswagen Ag Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
DE19736774A1 (de) * 1997-08-23 1999-02-25 Bosch Gmbh Robert Verfahren zur Informationsanzeige in einem Kraftfahrzeug
DE19842176A1 (de) * 1998-09-15 2000-03-16 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verkehrszeichenerkennung und Navigation
US6213401B1 (en) * 1998-11-19 2001-04-10 Michael Louis Brown Speed limit detecting system
DE19952153A1 (de) * 1999-10-29 2001-05-03 Volkswagen Ag Verfahren und Einrichtung zur elektronischen Erkennung von Verkehrszeichen
US6671615B1 (en) * 2000-05-02 2003-12-30 Navigation Technologies Corp. Navigation system with sign assistance
JP2002240659A (ja) * 2001-02-14 2002-08-28 Nissan Motor Co Ltd 車両周囲の状況を判断する装置
JP4578795B2 (ja) * 2003-03-26 2010-11-10 富士通テン株式会社 車両制御装置、車両制御方法および車両制御プログラム
US7444004B2 (en) * 2004-03-29 2008-10-28 Fujifilm Corporation Image recognition system, image recognition method, and machine readable medium storing thereon an image recognition program
JP4321821B2 (ja) * 2005-01-28 2009-08-26 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5844505A (en) * 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
JPH11271074A (ja) * 1998-03-20 1999-10-05 Fujitsu Ltd 目印画像照合装置及び目印画像照合方法及びプログラム記憶媒体
JP2000222681A (ja) * 1999-01-29 2000-08-11 Fujitsu Ltd 道路情報システムおよび記録媒体
JP2000283772A (ja) * 1999-03-31 2000-10-13 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2000293670A (ja) * 1999-04-08 2000-10-20 Asia Air Survey Co Ltd ビデオ画像の道路標識自動認識方法及び道路標識自動認識装置並びに道路標識自動認識のプログラムを記憶した記憶媒体
JP2001289631A (ja) * 2000-04-06 2001-10-19 Nippon Signal Co Ltd:The 距離測定装置及び距離測定方法
JP2002139327A (ja) * 2000-11-02 2002-05-17 Sony Corp ナビゲーション装置、マーク対応動作属性登録方法およびナビゲーション装置における動作実行方法
JP2002163643A (ja) * 2000-11-28 2002-06-07 Toshiba Corp 運転案内装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1536393A4 *

Also Published As

Publication number Publication date
EP1536393A4 (en) 2009-11-18
US20060087453A1 (en) 2006-04-27
EP1536393A1 (en) 2005-06-01
AU2003281400A1 (en) 2004-01-23
US7804424B2 (en) 2010-09-28

Similar Documents

Publication Publication Date Title
WO2004006207A1 (ja) 交通機関自動案内装置
CN110264783A (zh) 基于车路协同的车辆防碰撞预警系统及方法
CN112307594B (zh) 道路数据采集和模拟场景建立一体化系统及方法
CN110276988A (zh) 一种基于碰撞预警算法的辅助驾驶系统
KR100675399B1 (ko) 차량위치정보표시장치 및 방법
CN106340197A (zh) 一种车路协同辅助驾驶系统及方法
CN106114217A (zh) 行驶控制装置
CN105008857A (zh) 用于汽车的智能视频导航
CN106652647A (zh) 用于船舶航海训练模拟系统的本船分系统
CN106324618A (zh) 基于激光雷达检测车道线的系统及其实现方法
JP4327062B2 (ja) ナビゲーション装置
JP5898539B2 (ja) 車両走行支援システム
CN110491156A (zh) 一种感知方法、装置及系统
CN114442101B (zh) 基于成像毫米波雷达的车辆导航方法、装置、设备及介质
CN110471085A (zh) 一种轨道检测系统
JP3857698B2 (ja) 走行環境認識装置
US11496707B1 (en) Fleet dashcam system for event-based scenario generation
JP2004046875A (ja) 交通機関自動案内装置
Palmer et al. The autonomous siemens tram
CN114397672A (zh) 一种基于定位技术的列车主动障碍物检测方法及装置
Tagiew et al. Osdar23: Open sensor data for rail 2023
Gehrig et al. System architecture for an intersection assistant fusing image, map, and gps information
JP7291015B2 (ja) 周囲物体認識方法及び周囲物体認識装置
JP2019049811A (ja) 車両制御装置、車両制御方法、およびプログラム
JP4241350B2 (ja) 移動体補助案内装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003741177

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003741177

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2006087453

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10519919

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10519919

Country of ref document: US