WO2013069147A1 - 自律移動方法および自律移動装置 - Google Patents

自律移動方法および自律移動装置 Download PDF

Info

Publication number
WO2013069147A1
WO2013069147A1 PCT/JP2011/076056 JP2011076056W WO2013069147A1 WO 2013069147 A1 WO2013069147 A1 WO 2013069147A1 JP 2011076056 W JP2011076056 W JP 2011076056W WO 2013069147 A1 WO2013069147 A1 WO 2013069147A1
Authority
WO
WIPO (PCT)
Prior art keywords
position estimation
estimation accuracy
information
mobile device
autonomous mobile
Prior art date
Application number
PCT/JP2011/076056
Other languages
English (en)
French (fr)
Inventor
一野瀬 亮子
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2011/076056 priority Critical patent/WO2013069147A1/ja
Priority to US14/355,075 priority patent/US20140297090A1/en
Priority to JP2013542783A priority patent/JP5905483B2/ja
Publication of WO2013069147A1 publication Critical patent/WO2013069147A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Definitions

  • the present invention relates to an autonomous movement method and an autonomous mobile device technology for autonomous movement based on acquired sensor data and map data.
  • an autonomous mobile device moves in a city or a building
  • the autonomous mobile device creates a route to a destination via a road or passage, determines the direction of travel by comparing the current position (self location) with the route.
  • Move while As a method of estimating the self-position, generally, a method of acquiring latitude and longitude by GPS (Global Positioning System), or creating map data with a predetermined landmark in advance and moving surrounding landmarks to the laser
  • GPS Global Positioning System
  • GPS Global Positioning System
  • map data with a predetermined landmark in advance and moving surrounding landmarks to the laser
  • GPS or the like GPS that allows easy acquisition of latitude and longitude is an effective method for estimating its own position outdoors, but this method cannot be used indoors.
  • the accuracy of GPS may greatly deteriorate in the vicinity of buildings and roadside trees even outdoors, methods for combining with other position estimation methods have been developed to obtain stable position accuracy.
  • Patent Document 1 discloses a robot management system, a robot management terminal, a robot management method, and a program that store map data and estimate the self-position by collating with sensor data obtained by measuring the surrounding environment shape.
  • Patent Document 2 discloses a positioning combination determination system that estimates a self-position by combining a plurality of positioning means.
  • Patent Document 3 describes a position estimation error at each point when the autonomous mobile device passes, and if the error is large, the autonomous mobile system and the autonomous system that inform the administrator and prompt the administrator to update the map.
  • a mobile device is disclosed.
  • Patent Document 1 and Patent Document 2 Each of the technologies described in Patent Document 1 and Patent Document 2 has the surrounding environment shape as map data, and by collating with the sensor data, it is possible to estimate the position with high accuracy in a place characterized by the surrounding environment shape. It has become.
  • these techniques are premised on the creation of accurate surrounding environment shape data in a moving environment. Therefore, the techniques described in Patent Document 1 and Patent Document 2 require a large amount of labor in advance in a wide movement area, such as an autonomous mobile device that runs in a city, to create a map data by traveling all over the area in advance. Cost.
  • the technique described in Patent Document 3 can notify the administrator of a location where the position estimation error is large, it is a burden on the administrator that the administrator updates the map. There is a problem that the burden on the administrator is large, that is, the cost is increased.
  • a self-position estimation method (hereinafter referred to as a position estimation method) that can run without going off the road in a simpler method even if the accuracy is lower than the techniques described in Patent Document 1 and Patent Document 2.
  • a position estimation method For example, a method of traveling according to roadside trees, lines of telephone poles, roadside steps, and the like can be considered. Approximate shapes are determined for roadside trees, telephone poles, roadside steps, etc., and it is possible to identify an object without measuring individual shape data in advance. Therefore, if the number and outline arrangement thereof are known, these pieces of information (street trees, telephone poles, the number of roadside steps, and approximate positions) can be used as position marks.
  • the number and outline arrangement of roadside trees, telephone poles, roadside steps, etc. can be obtained without using an expensive sensor, for example, by looking at an existing road map or a snapshot. Therefore, a general user can easily register map data, and there is a possibility that wide-area map data can be created at an early stage.
  • map database is disclosed as it is from the viewpoint of privacy and crime prevention.
  • the autonomous mobile device used only in such an environment may have a low sensor configuration.
  • the present invention has been made in view of such a background, and an object of the present invention is to support expansion of information used for traveling of an autonomous mobile device.
  • the present invention calculates position estimation accuracy based on sensor data collected during traveling via a sensor, and updates the position estimation accuracy stored in the storage unit. And Other solutions will be described as appropriate in the embodiments.
  • FIG. 1 is a diagram illustrating a configuration example of the autonomous mobile device according to the first embodiment.
  • the autonomous mobile device 1 includes a control unit 100, a storage unit 101, a sensor 102, a route determination unit 103, a detection unit 104, an update processing unit 105, a position estimation unit 106, a movement control unit 107, a movement mechanism 108, an input / output unit 109, and A manual control unit 110 is provided.
  • the autonomous mobile device 1 is assumed to be of a type on which a person rides (boarding type), but may be an unmanned type.
  • the control unit 100 performs overall control of the autonomous mobile device 1.
  • the storage unit 101 is compared with travel route information (described later), sensor data (laser scan data, camera images provided in the autonomous mobile device 1, position information by GPS), and sensor data.
  • various types of information such as map data, route information, and landmark information for which self-location is estimated are stored.
  • the landmark information will be described later.
  • the sensor 102 is an encoder, a camera, a stereo camera, or the like used for GPS, laser scanning, or wheel odometry.
  • the route determination unit 103 determines a route along which the autonomous mobile device 1 moves.
  • the route determination unit 103 determines a route from the departure point to the destination with reference to one or more travel route information and map data stored in the storage unit 101. Since the route determination uses various existing route search algorithms, detailed description is omitted.
  • the detection unit 104 detects a mark from sensor data obtained from the sensor 102. .
  • the update processing unit 105 calculates self-position estimation accuracy, which is the accuracy when estimating the self-position, based on the obtained sensor data information, and updates various information such as travel route information.
  • the position estimation unit 106 estimates the current self position during traveling.
  • the movement control unit 107 determines the traveling direction based on the current self-position estimated by the position estimation unit 106 and the route information, and controls the movement mechanism 108 to move the autonomous mobile device 1 autonomously.
  • the moving mechanism 108 includes, for example, wheels, legs, a driving device (motor), and the like, and moves the autonomous moving device 1 in the traveling direction. ,
  • the input / output unit 109 is an information input display device such as a touch panel display for displaying information to a user and inputting necessary information.
  • the manual control unit 110 is a joystick or a handle for manually instructing a traveling direction of the autonomous mobile device 1 by a user (passenger) of the autonomous mobile device 1.
  • FIG. 2 is a conceptual diagram of an area.
  • the travel path information is managed for each area in which the area where the autonomous mobile device 1 travels is indicated by a thin line.
  • a thick line indicates a traveling road
  • a diagonal line indicates a structure
  • a thin line indicates an area boundary.
  • the numbers described in each area are area numbers for identifying the areas.
  • the position of the travel path is represented by xy coordinates.
  • the xy coordinates may be longitude-latitude, a plane orthogonal coordinate system having an arbitrary position as an origin, or any coordinate system.
  • the curve may be divided into small areas so that the traveling path in one area can travel approximately straight.
  • the branch location may be divided into one area so that the branch location can simply indicate the branch direction.
  • the area may be divided by an administrator or may be automatically divided by an automatic dividing algorithm.
  • the travel route information may be updated by generating a new area.
  • the administrator may set a new area and travel route information. For example, areas “15”, “16”, and “17” in FIG. 3 are newly added areas that were not set in the stage of FIG. Also, in FIG. 3, since the number of branches has increased in area “12” of FIG. 2, area “12” is divided and areas “16” and “17” are newly set. In addition, the broken line part in FIG. 3 is a part where the traveling path is not set.
  • FIG. 4 is a diagram illustrating a specific example of travel route information. Reference is made to FIG. 2 as appropriate.
  • the travel route information may be created as initial information by the administrator with reference to a map acquired via the Internet, or travel route information generated by another autonomous mobile device 1 may be used as the initial information.
  • the autonomous mobile device 1 travels, necessary data is added to the travel path information, and the travel path information is expanded.
  • the travel route information includes an area number, a passing direction area number, a travel lane, position estimation accuracy, and a purpose information file name.
  • the area number is the area number of the area that is the target of the travel path information, and the example of FIG. 4 indicates that the travel path information is related to the area “5”.
  • the travel route information is generated for each area.
  • the area number “5” corresponds to the area number “5” in FIG.
  • the passing direction area number describes the area numbers before and after passing when the autonomous mobile device 1 moves on the route.
  • the route determined by the route determination means 3 is the travel route area.
  • the autonomous mobile device 1 refers to the travel route information of the passage area number “6 ⁇ 12” as shown in FIG.
  • the travel lane is a position where travel is possible in the target area, and stores the end, center, entire, left and right ends, entire road, and the like of the travel path. For example, when it is possible to travel on the sidewalks on both sides of the roadway, the left and right ends are as shown in the example of FIG. Moreover, in the case of a narrow road, it is the entire road.
  • the position estimation accuracy stores the accuracy when the autonomous mobile device 1 estimates its own position in the corresponding area.
  • L means laser scanning
  • E means a wheel encoder
  • Mo means middle precision
  • Lo means low precision (Low).
  • A3 means “a position estimation method by wheel odometry”
  • B1 means “a position estimation method by traveling along a shoulder difference”. That is, in the example of FIG. 4, “L: Mi (B1)” can be self-position estimated by “position estimation method by running along a shoulder step by laser scanning” in the area, and the accuracy is “medium accuracy”. It means that.
  • E: Lo (A3) means that “position estimation method based on wheel odometry with an encoder” is possible in the area, and the accuracy thereof is “low accuracy”.
  • L + E: Mi (B1) means that “position estimation method by traveling along a shoulder step combining laser scanning and encoder” is possible in the area, and the accuracy is “medium accuracy”. ing.
  • This position estimation accuracy is sequentially updated as the autonomous mobile device 1 travels.
  • the landmark information registered when the autonomous mobile device 1 has traveled before, the type of sensor 102 that is, laser scanning, encoder, GPS, etc.
  • the update processing unit 105 may obtain the position estimation accuracy based on the travel state. For example, the position estimation accuracy is “high accuracy (Hi)” if the vehicle can travel smoothly, “medium accuracy (Mi)” if the vehicle is jerky, and “low accuracy (Lo) if the vehicle is frequently stopped. ) "Or the like. Since the position estimation accuracy varies depending on the passing direction such as going straight or turning a corner, the corresponding passing direction (“6 ⁇ 12” in FIG. 4) is appended.
  • the mark information file name is used in a position estimation method that can be used in the area (in the example of FIG. 4, “A3: position estimation method by wheel odometry” and “B1: position estimation method by traveling along a shoulder step”). This is the file name of the file in which the placemark information is stored.
  • the mark information file used for the position estimation method by traveling along the shoulder is stored with the file name “B1”, but is used for “A3”, that is, “position estimation method by wheel odometry”. This means that no file was created. This is because the wheel odometry estimates the self-position based on the travel distance calculated based on the rotation of the wheel, so that the mark information is unnecessary.
  • the landmark information is used when self-position estimation is performed.
  • position estimation method by traveling along a shoulder step information on a rough shape of a road shoulder extracted from sensor data is used. It becomes.
  • the detection unit 104 extracts a rough image of the shoulder from the laser scan data (sensor data).
  • the extracted outline image of the road shoulder is stored in the storage unit 101 as a file described in the column of the landmark information file name.
  • the necessary information for the mark information differs depending on the position estimation method. For example, in the 3D environment shape matching running, information on the 3D environment shape as a mark is necessary, and in the corner sign recognition method, information on the type, height, and size of the sign as a mark is necessary.
  • FIG. 5 is a flowchart illustrating a processing procedure in the autonomous mobile device according to the first embodiment.
  • the passenger of the autonomous mobile device 1 sets the destination information by setting the destination information via the input / output unit 109 (S101).
  • the destination information is, for example, coordinates on the map.
  • the route determination unit 103 determines a route from the current location to the destination (S102). As described above, since the route determination method is an existing technique, the description thereof is omitted. Then, the movement control unit 107 starts traveling (S103).
  • the sensor 102 senses the inside of the moving environment to acquire sensor data, and detects the feature of the mark and the position of the mark in the sensor data (such as in the image) from the sensor data.
  • the position estimation unit 106 estimates the current self-position based on the detection result of the mark by the detection unit 105, and the traveling is performed by the movement control unit 107 controlling the movement mechanism 108 based on the result.
  • the sensor data is stored in the storage unit 101.
  • the sensor data stored in the storage unit 101 may be all areas, or may be collected only in areas described as low position estimation accuracy in the travel route information.
  • the position estimation unit 106 determines whether the currently traveling area is an area where the position estimation accuracy is low or an area where self-position estimation is impossible (collectively referred to as an estimation difficult area) (that is, the position estimation unit 106). Whether or not the estimation accuracy is equal to or less than a predetermined accuracy) is periodically checked during traveling (S104).
  • the position estimation unit 106 has the highest position estimation accuracy of the travel route information shown in FIG. 4 among the currently used position estimation methods. It is determined whether or not the high position estimation accuracy is low accuracy. For example, in the example of FIG.
  • step S104 since “medium accuracy (Mi)” is the highest position estimation accuracy, the position estimation unit 106 performs the process of step S104 assuming that the position estimation accuracy in the area is “medium accuracy”.
  • the self-position estimation impossibility is an area in which all the sensors 102 cannot be used in the travel route information and it is determined that the self-position estimation is impossible. That is, this is an area in which the position estimation accuracy column in FIG. 4 is blank (in other words, the position estimation accuracy is “0”). If the result of step S104 is that the area currently being traveled is not an area that is difficult to estimate (S104 ⁇ No), the movement control unit 107 continues autonomous travel while acquiring sensor data (S105), and the process proceeds to step S107. To proceed.
  • step S104 when the currently traveling area is an estimation difficult area (S104 ⁇ Yes), the control unit 100 switches the traveling method to manual operation, and the movement control unit 107 acquires sensor data. Then, traveling by manual control is performed (S106). That is, since the area where the vehicle is currently traveling is an area that is difficult to estimate, the control unit 100 stops autonomous traveling and switches to manual control by the passenger. Specifically, a display screen for prompting manual operation by the passenger is displayed on the input / output unit 109, and the passenger operates the manual operation unit 110. Note that the area where the vehicle is currently traveling is not impossible to estimate its own position, but if the area is low in accuracy, the vehicle may travel autonomously according to the intention of the passenger.
  • the movement control unit 107 may perform autonomous traveling. However, when performing such traveling, since the position estimation accuracy is low, it may be necessary to travel while frequently correcting the traveling position using an obstacle avoidance function or the like.
  • the autonomous mobile device 1 is preferably driven at a low speed.
  • the position estimation unit 106 periodically determines whether or not the destination has been reached based on the current position and the destination information (S107). As a result of step S107, when the destination has not been reached (S107 ⁇ No), the control unit 100 returns the process to step S104. As a result of step S107, when the destination has been reached (S107 ⁇ Yes), the control unit 100 starts the update process of steps S108 to S115. First, various mark information is extracted for each area from the sensor data stored in the storage unit 101 by the detection unit 104 (S108). Next, the update processing unit 105 calculates the position estimation accuracy for each type of landmark information based on the extracted landmark information and the traveling speed at that time (S109). The calculation method of the position estimation accuracy is as described above. The update processing unit 105 updates the position estimation accuracy column in the corresponding position estimation method in the travel route information of the corresponding area to the new position estimation accuracy (S110).
  • the update processing unit 105 determines whether or not the landmark information extracted in step S108 is new landmark information of a type that has not been registered yet (S111). As a result of step S111, when it is not the mark information of the type not yet stored in the storage unit 101 (S111 ⁇ No), the update processing unit 105 skips the process of step S112. As a result of step S111, when the type of landmark information not yet stored is detected in the storage unit 101 (S111 ⁇ Yes), the update processing unit 105 displays the position of the newly detected landmark information in the travel route information. The estimation accuracy is added (S112). Information regarding the newly extracted landmark information is stored in the storage unit 101.
  • the control unit 100 determines whether or not the update processing in steps S108 to S112 has been completed for all areas (S115). As a result of step S115, when there is an area where the update process has not been completed (S115 ⁇ No), the control unit 100 returns the process to step S108 and performs the update process for the next area. As a result of step S115, when the update process has been completed for all areas (S115 ⁇ Yes), the control unit 100 ends the process.
  • the update processing unit 105 determines whether the corresponding area is accurate.
  • the position estimation accuracy may be updated to the newly calculated position estimation accuracy.
  • FIG. 6 is a diagram illustrating another configuration example of the autonomous mobile device according to the first embodiment.
  • the autonomous mobile device 1a in FIG. 6 is different from the autonomous mobile device 1 in FIG. 1 in that a remote control unit 111 is provided instead of the manual control unit 110.
  • a remote control unit 111 is provided instead of the manual control unit 110.
  • traveling by remote control is presented to the passenger in the input / output unit 109.
  • the movement control unit 107 causes the autonomous mobile device 1a to travel by remote control by wireless or the like instead of autonomous traveling.
  • the sensor 102 continues to acquire sensor data even during traveling by remote control.
  • the remote control is performed by a family at home or a remote operator at a remote control center.
  • the remote control unit 111 includes a camera, a communication device, a control device, and the like.
  • a person who performs remote control performs operations by wirelessly communicating with the camera while viewing an image of the surrounding environment of the autonomous mobile device 1a.
  • the method of performing the remote control in the difficult-to-estimate area is suitable for a child, an elderly person, or the like who is uneasy in terms of safety to operate himself / herself.
  • FIG. 7 is a diagram illustrating another configuration example of the autonomous mobile device according to the first embodiment.
  • the autonomous mobile device 1b shown in FIG. 7 detects an environmental feature that is information about travel installed on a travel path in a mobile environment instead of the manual control unit 110 in the autonomous mobile device 1 shown in FIG.
  • a feature detection unit 112 and an environment feature meaning storage unit 113 in which the environment feature and its meaning are associated with each other are included.
  • Environmental features include signs, symbols, and signboards.
  • the environmental feature detection unit 112 displays the environmental features stored in the environmental feature meaning storage unit 113 and their meanings.
  • the environmental feature and its meaning are extracted from sensor data such as an image captured by a camera provided as one of the sensors 102, and the movement control unit 107 performs autonomous traveling based on the extracted meaning. That is, the autonomous mobile device 1b of FIG. 7 travels according to the one-way sign in the difficult-to-estimate area. In such a traveling method, it may take a long time to detect environmental features, or meandering or jerky traveling with low accuracy may be caused. Therefore, the movement control unit 107 reduces the traveling speed as necessary. It is desirable. By using such a method, the autonomous mobile device 1b can autonomously travel even in an estimation difficult area.
  • the autonomous mobile device 1 according to the first embodiment can update the position estimation accuracy of the landmark information and the travel route information based on the sensor data obtained during traveling, the position estimation accuracy is improved.
  • the landmark information can be expanded and smoother driving can be performed.
  • the autonomous mobile device 1 according to the first embodiment in all areas in the route, even if the position estimation accuracy is not high accuracy or medium accuracy, other methods (manual control, remote control, The travel at the time of introduction of the autonomous mobile device 1 can be reduced. That is, traveling according to the position estimation accuracy can be performed for each area.
  • landmark information and travel route information are expanded based on an image or the like registered by a general registrant (general registrant) via a network.
  • FIG. 8 is a diagram illustrating a configuration example of the autonomous mobile system according to the second embodiment.
  • the autonomous mobile system Z includes an autonomous mobile device 1c, a management device 2, a vehicle allocation device 4, and a remote control device 5.
  • the autonomous mobile device 1 c includes a communication unit 114 that performs communication with the remote control unit 111, the management device 2, and the vehicle allocation device 4 in FIG. 6.
  • the management device 2 extracts landmark information based on an image sent from a portable device (communication device) 3 possessed by a general registrant, and calculates and manages position estimation accuracy. Moreover, the management apparatus 2 transmits information to the vehicle allocation apparatus 4 and the autonomous mobile apparatus 1c as needed.
  • the mobile device 3 is a mobile phone with a camera, a smartphone, a PC with a camera, or the like.
  • the management apparatus 2 includes a control unit 200, a storage unit 201, a route determination unit 202, a detection unit 203, an update processing unit 204, a storage processing unit 205, a communication unit 206, and a general-purpose communication unit 207.
  • the control unit 200 performs overall control of the autonomous mobile device 1c.
  • the storage unit 201 stores various information such as travel path information (described later), landmark information, and images transmitted from the mobile device 3.
  • the route determination unit 202 determines a route along which the autonomous mobile device 1c moves.
  • the route determination unit 202 refers to one or more traveling route information stored in the storage unit 201, map data, and the like, and determines a route from the departure point to the destination. Since various route search algorithms have been developed for route determination, detailed description thereof is omitted.
  • the detection unit 203 detects landmark information and the like from the image transmitted from the mobile device 3.
  • the update processing unit 204 calculates self-position estimation accuracy and the like based on an image transmitted from the mobile device 3 and updates various information such as travel route information.
  • the storage processing unit 205 stores various types of information in the storage unit 201.
  • the communication unit 206 communicates with the autonomous mobile device 1c.
  • the general-purpose communication unit 207 communicates with the mobile device 3 through the Internet or a wireless telephone line.
  • the vehicle allocation device 4 is a device that performs processing related to the vehicle allocation of the autonomous mobile device 1c in response to an instruction from the mobile device 3 or the like. Such a vehicle allocation device 4 is required when the autonomous mobile device 1c is shared by a plurality of people, but may be omitted.
  • the vehicle allocation device 4 also communicates with the management device 2 to acquire information on whether there is an area on the route that cannot be self-position estimated due to low accuracy or landmark information, and the autonomous mobile device 1c. May be sent to. Furthermore, the vehicle allocation device 4 also communicates with the autonomous mobile device 1c, and issues an autonomous movement command to the departure point to the autonomous mobile device 1c and, if necessary, a return command from the destination to the waiting area.
  • the remote control device 5 is a device for remotely controlling the autonomous mobile device 1c.
  • (Runway information) 9 and 10 are diagrams illustrating specific examples of the travel route information.
  • the area number is the area number of the area that is the target of the travel path information as in FIG. 4, and the example of FIG. 9 indicates that the travel path information is related to the area “5”.
  • the area numbers in FIGS. 9 and 10 correspond to the area numbers in FIG.
  • the passing direction area number the area numbers before and after the target area are described when the autonomous mobile device 1c moves on the route as in FIG.
  • a plurality of passage area numbers are described. This indicates that travel route information relating to a plurality of passage areas is collected.
  • 9 and 10 show a series of data.
  • the travel lane is a position where travel is possible in the target area, as in the example of FIG.
  • the information can be disclosed is information relating to the disclosure of the landmark information, and may be disclosed, undisclosed, or registration refusal, but may be other information.
  • registration refusal means that registration of landmark information is impossible.
  • a password and other authentication means are provided, and the password can be used only when it is authenticated before the use of the landmark information.
  • the information on whether or not the information can be disclosed is for the purpose of protecting the privacy of the owner of the private land area and preventing crime, and setting of the information on whether or not the information can be disclosed is preferably given to the owner of the private land area.
  • the registration rejection means that registration to the storage unit 201 is rejected in order to prevent the shape information from leaking even if there is an unauthorized access to data in the storage unit 201.
  • the position estimation accuracy includes predicted position estimation accuracy and actual position estimation accuracy, and information is stored for each passing direction area number.
  • the predicted position estimation accuracy is an expected position estimation accuracy
  • the actual position estimation accuracy is a position estimation accuracy calculated based on actual sensor data.
  • G is GPS
  • M is a magnetic sensor
  • C is a color camera
  • L is a laser scan
  • E is an encoder sensor 102. This means that “L + E” or the like indicates a combination of the corresponding sensors 102. These sensors 102 are also applicable to the first embodiment.
  • the predicted position estimation accuracy the predicted accuracy set in advance in the position estimation method information described later is described.
  • the description of the predicted position estimation accuracy may be described by the management apparatus 2 based on the predicted accuracy set in advance in the position estimation method information, or may be input by the administrator.
  • the actual position estimation accuracy is determined by the management device 2 based on the state when the corresponding sensor 102 is used and the vehicle travels by the corresponding position estimation method. For example, if the vehicle can run smoothly, the management device 2 determines “High accuracy (Hi) High”. If the vehicle travels jerky, the management device 2 determines “medium accuracy (Mi)” and frequently stops. In the case of traveling, the management device 2 determines “low accuracy (Lo)”.
  • the actual position estimation accuracy has priority.
  • “A1”, “B3”, and the like indicate position estimation methods. “A1” to “A” in the third and lower lines from the bottom of FIG. 9 and “method name and basic accuracy” of the position estimation method information in FIG. It corresponds to the position estimation method of “C4” (GPS, 3D environment shape matching traveling, etc.).
  • the registered mark information file name and method a file name in which the extracted mark information is stored and a position estimation method are described.
  • mark information used for the position estimation method “C1: bend electric pole counting” is stored in a file “xyz.xxx”.
  • the registered information file name and type store a file name in which image data sent from the mobile device 3 is stored, and type information about the image.
  • the image data “abc.zz” is an image photographed at 24 ° with respect to the north at the point of the coordinates (123, 456), and is shown to be in color.
  • the coordinates and orientation are acquired based on the GPS function of the portable device 3 or an electronic level at the time of shooting, and are sent to the management apparatus 2 together with the image data.
  • the third and subsequent lines from the bottom of FIG. 9 show position estimation method information that is information related to the position estimation method.
  • the position estimation method information includes a method name and basic accuracy, necessary mark information, mark parameters, a threshold value and prediction accuracy, an actual measurement value, and prediction accuracy.
  • the method name and basic accuracy store the position estimation method name, its symbol, and the limit accuracy (maximum accuracy) of the self-position estimation accuracy.
  • self-position estimation by GPS symbol “A1”
  • Hi highest accuracy
  • self-position estimation in wheel odometry can obtain only low accuracy (Lo) accuracy at most.
  • Necessary mark information is a mark necessary for self-position estimation by the corresponding position estimation method.
  • the necessary landmark information is not required in the GPS position estimation method, but information on the distance between the power poles is necessary for traveling along the power pole (symbol “B4”) in FIG.
  • the mark parameter is a parameter that serves as a measure of the position estimation accuracy
  • the threshold value and the prediction accuracy are a threshold value for calculating the degree of the position estimation accuracy, and an prediction accuracy derived from the threshold value.
  • the position estimation accuracy by GPS is calculated based on the open space ratio, and if the open space ratio is less than 50%, it is determined as low accuracy (Lo), and 50% to 80 If it is%, it will be determined as medium accuracy (Mi), and if it is 80% or more, it will be determined as high accuracy (Hi).
  • the actual measurement value is a value actually measured.
  • the predicted accuracy is the limit accuracy for each sensor 102.
  • the position estimation method using GPS symbol “A1”
  • G indicating GPS is described in the column of predicted accuracy
  • the accuracy (Hi) is described.
  • traveling along the utility pole (symbol “B4”) in FIG. 10 can be self-position estimated by two methods using a laser scan (“L”) and a stereo camera (“S”).
  • the two methods have different limit accuracy, and the limit accuracy of self-position estimation by laser scanning is high (Hi), but the limit accuracy by the stereo camera is medium accuracy (Mi).
  • the basic accuracy describes the lower of the predicted accuracy. Note that the travel route information in FIGS. 9 and 10 is also applicable to the first embodiment.
  • FIG. 11 and FIG. 12 are flowcharts showing a processing procedure of the autonomous mobile system according to the second embodiment.
  • the communication between the management apparatus 2 and the autonomous mobile apparatus 1c is performed via the communication parts 114 and 206, the description is abbreviate
  • a passenger uses a PC (Personal Computer), a mobile phone, or the like to transmit a vehicle allocation request to the vehicle allocation device 4 (S201 in FIG. 11).
  • the passenger transmits a dispatch request including information on the departure place and the destination using the mobile device 3.
  • the vehicle allocation device 4 transmits information regarding the departure place and the destination included in the transmitted vehicle allocation request to the management device 2, and the route determination unit 202 of the management device 2 causes the route from the departure location to the destination. Is determined (S202).
  • the route determination unit 202 of the management device 2 determines whether there is an area whose position estimation accuracy is low on the determined route, or an area where landmark information has not been acquired and self-position estimation is impossible (an estimation difficulty area). Is determined (S203). As a result of step S203, when there is no difficult estimation area on the determined route (S203 ⁇ No), the route determination unit 202 of the management device 2 notifies the vehicle allocation device 4 that there is no difficult estimation area on the determined route. Send. The vehicle allocation device 4 that has received the information that there is no hard-to-estimate area on the determined route selects an appropriate one from the autonomous mobile devices 1c that it manages (S204).
  • the vehicle allocation device 4 transmits a vehicle allocation command to the selected autonomous mobile device 1c.
  • the control unit 100 of the autonomous mobile device 1c that has received the dispatching command downloads the route information from the management device 2, and then transmits the landmark information necessary for the passing area and the travel route information that meets the travel conditions from the management device 2. Download (S205) and store each downloaded information in its own storage unit 101.
  • the movement control unit 107 of the autonomous mobile device 1c makes the vehicle autonomously travel to the departure place, so that the vehicle is allocated (S206). Even during this dispatch, the movement control unit 107 may acquire sensor data.
  • the passenger gets on the dispatched autonomous mobile device 1c, and the control unit 100 authenticates whether or not he / she is the passenger based on the authentication information input from the input / output unit 109 (S207).
  • the control unit 107 After making the unpublished landmark information permitted by the corresponding authentication usable, the movement control unit 107 travels to the destination while the position estimation unit 106 performs self-position estimation. Is started (S208).
  • mark information information as to whether or not it can be used for each appearance requester is set.
  • step S209 when the destination has not been reached (S209 ⁇ No), the movement control unit 107 continues the autonomous mobile travel while acquiring the sensor data (S210).
  • step S209 when the destination is reached (S209 ⁇ Yes), the control unit 100 of the autonomous mobile device 1c advances the process to step S223 of FIG. The processing after step S223 will be described later.
  • step S203 when there is an estimation difficult area on the determined route (S203 ⁇ Yes), the vehicle allocation device 4 displays a maneuvering selection screen on the input / output unit 109 of the autonomous mobile device 1c, and makes the passenger low In an area where accuracy and self-position estimation cannot be performed, whether to perform manual control or remote control (manual / remote control) is selected (S211).
  • the selection result is transmitted to the vehicle allocation device 4.
  • step S211 when the passenger rejects either manual or remote control methods (S211 ⁇ No), the autonomous mobile system Z ends the process.
  • step S211 when the passenger selects to perform manual or remote control (S211 ⁇ Yes), the vehicle allocation device 4 selects the autonomous mobile device 1c having the corresponding control means (manual or remote control) ( S212), a dispatch command is transmitted to the selected autonomous mobile device 1c.
  • the control unit 100 of the autonomous mobile device 1c that has received the dispatching command downloads the route information from the management device 2, and then transmits the landmark information necessary for the passing area and the travel route information that meets the travel conditions from the management device 2. Download (S213), and store the downloaded information in its own storage unit 101. Then, the movement control unit 107 of the autonomous mobile device 1c autonomously moves itself to the departure place so that the vehicle is allocated (S214).
  • the passenger gets on the dispatched autonomous mobile device 1c, and the control unit 100 authenticates whether or not he / she is the passenger based on the authentication information input from the input / output unit 109 (S215), and downloads. After making the undisclosed mark information permitted by the corresponding authentication usable, the travel is started toward the destination (S216).
  • the position estimation unit 106 of the autonomous mobile device 1c periodically determines whether the currently traveling area is a low-precision area or an area where self-position estimation is impossible (difficult to estimate area) during traveling. (S217 in FIG. 12). As a result of step S217, if the area currently being traveled is not an area that is difficult to estimate (S217 ⁇ No), the movement control unit 107 continues to travel autonomously while acquiring sensor data (S218), and the autonomous mobile device 1c. The control unit 100 proceeds to step S222. As a result of step S217, when the currently traveling area is an area that is difficult to estimate (S217 ⁇ Yes), the movement control unit 107 determines whether or not the control means selected in step S211 of FIG. 9 is remote control. (S219).
  • step S219 If remote control is selected as a result of step S219 (S219 ⁇ Yes), the remote control unit 111 is autonomously moved by communication while the sensor data is being acquired and the staff of the remote control service center is via the remote device.
  • the remote control for controlling the autonomous mobile device 1c by accessing the device 1c is performed by the movement control unit 106 (S220), and the control unit 100 of the autonomous mobile device 1c advances the process to step S222.
  • step S219 when remote control is not selected (S219 ⁇ No), that is, when manual control is selected, movement control is performed by the passenger performing manual control via the manual control unit 110.
  • the unit 107 travels by manual control while acquiring sensor data (S221).
  • the movement control unit 106 acquires sensor data only in areas that are difficult to estimate and other than registration refusal during traveling, and stores them in the storage unit 101. May be.
  • the vehicle may travel autonomously according to the intention of the passenger if the area is low in accuracy.
  • a display screen such as “Do you want to travel autonomously? Please touch this button if you want to travel autonomously” is displayed, and the passenger touches the button.
  • the movement control unit 107 may perform autonomous traveling. However, when performing such traveling, since the position estimation accuracy is low, the movement control unit 107 may need to travel while frequently correcting the traveling position using an obstacle avoidance function or the like. It is preferable to travel at a low speed.
  • the position estimation unit 106 of the autonomous mobile device 1c periodically determines whether or not the destination has been reached based on the current position (S222). As a result of step S222, when the destination has not been reached (S222 ⁇ No), the control unit 100 of the autonomous mobile device 1c returns the process to step S217. As a result of step S222, when the destination has been reached (S222 ⁇ Yes), the control unit 100 of the autonomous mobile device 1c starts the update process of steps S223 to S228.
  • the update processing unit 105 of the autonomous mobile device 1c uploads sensor data (such as laser scan data) accumulated in its own storage unit 101 to the management device 2 (S223).
  • the detection unit 203 of the management device 2 extracts various mark information for each area from the uploaded sensor data (S224).
  • the marker information is extracted for each position estimation method used and for each type of sensor 102 that has acquired the sensor data.
  • the update processing unit 204 of the management device 2 calculates the position estimation accuracy for each type of landmark information based on the extracted landmark information (S225).
  • the update processing unit 105 calculates the position estimation accuracy based on the threshold value of the travel route information, the travel state (smooth, jerky, frequent stop), and the extracted landmark information.
  • the calculated position estimation accuracy is the actual position estimation accuracy in FIGS. 9 and 10.
  • the storage processing unit 205 of the management device 2 stores the extracted landmark information in the storage unit 201 of the management device 2, and stores the calculated position estimation accuracy and disclosure availability (public / private) in the travel route information.
  • the travel route information is updated (S226).
  • the information on whether or not to disclose is input when a general registrant to be described later transmits an image captured by the mobile device 3 to the management device 2.
  • Whether or not the disclosure permission is changed at the stage of step S226 depends on whether or not the update processing unit 105 of the autonomous mobile device 1c discloses the travel route information via the input / output unit 109 before uploading the sensor data in step S223. Is confirmed with the passenger, and the result of the confirmation may be used as information on whether or not to disclose.
  • including information on whether or not to disclose can protect personal information such as at home.
  • the control unit 200 of the management apparatus 2 determines whether or not the update processing in steps S224 to S226 has been completed for all areas (S227). As a result of step S227, when there is an area where the update process has not been completed (S227 ⁇ No), the control unit 200 returns the process to step S224, and performs the process for the next area. If the update process has been completed for all areas as a result of step S227 (S227 ⁇ Yes), the update processing unit 204 notifies the autonomous mobile device 1c that the registration process of the landmark information and the travel route information has been completed.
  • the update processing unit 105 of the autonomous mobile device 1c erases the sensor data stored in its own storage device, and the storage processing unit 205 of the management device 2 erases the uploaded sensor data and landmark information. After the information is deleted (S223), the autonomous mobile system Z ends the process, and the movement control unit 107 returns itself to the dispatch center.
  • all the position estimation accuracy is updated in the management device 2, but if the calculated position estimation accuracy is higher than the currently stored location estimation accuracy, the management device 2 is updated.
  • the processing unit 204 may update the position estimation accuracy of the corresponding area to the newly calculated position estimation accuracy.
  • the update processing unit 105 may add the landmark information.
  • the management device 2 checks in advance whether or not there is a hard-to-estimate area in the route, but the autonomous mobile device 1c as in the first embodiment. While traveling, it may be determined whether or not the currently traveling area is an estimation difficult area. Further, in the processing of FIGS. 11 and 12, whether to perform manual control or remote control in an estimation difficult area is selected before traveling, but the autonomous mobile device 1c is difficult to estimate as in the first embodiment. You may make it make a passenger select manual control or remote control after reaching an area.
  • FIG. 13 is a flowchart showing a procedure of registration processing of landmark information by a general registrant.
  • the general registrant takes an image of a place where he / she wants to run autonomously with his / her camera-equipped information communication device (S301). At this time, if a general registrant takes a picture on a bicycle or car, a wide range of maps can be taken in a short time.
  • the general registrant uploads registration information including the captured image to the management apparatus 2 (S302).
  • the general registrant uploads the latitude, longitude, and orientation data using the GPS function of the camera-equipped information communication device or the electronic level.
  • the general registrant uploads the disclosure permission information together with the image.
  • the image, latitude, route, direction, and availability information are collectively referred to as registration information.
  • the storage processing unit 205 of the management device 2 acquires registration information registered in the vicinity of the received registration information and previously registered from the registration information registered in the storage unit 201 (S303). . Whether or not the vehicle is in the vicinity is determined based on information such as latitude and longitude described in the registered information file name and type column in the travel route information. Then, the detection unit 203 of the management device 2 uses the uploaded registration information and neighboring registration information as necessary, and extracts landmark information from the uploaded registration information (S304). Then, based on the extraction result, the update processing unit 204 of the management device 2 calculates the position estimation accuracy based on the extracted landmark information (S306). The calculation of the position estimation accuracy is performed according to the calculation method of the predicted position estimation accuracy described above.
  • the storage processing unit 205 of the management device 2 registers various information such as landmark information, position estimation accuracy, and disclosure possibility information in the storage unit 201 (S305).
  • the position estimation accuracy and the disclosure possibility information are stored in the travel route information.
  • the storage processing unit 205 authenticates whether or not the general registrant is the owner of the corresponding area, and if the general registrant is a private land that is not the owner, the storage processing unit 205 determines whether the general registrant has the intention. Regardless, it is preferable that the method of whether or not the travel route information is disclosed (FIG. 9) is “not disclosed”.
  • the storage processing unit 205 also stores the uploaded registration information in the storage unit 201 (S307).
  • the update processing unit 204 determines whether or not the position estimation accuracy calculated in step S305 is equal to or less than a predetermined value (S308).
  • the control unit 200 of the management device 2 ends the registration process of the mark information by the general registrant.
  • the update processing unit 204 of the management device 2 determines the position based on the position, orientation, and the like where the registration information is captured.
  • step S309 may be detected automatically by the update processing unit 204, or may be detected visually by an administrator operating the management device 2.
  • the presentation of the additional request information in step S309 serves as a reference when the next general registrant captures an image, and can improve the efficiency of enhancement of the landmark information and the position estimation accuracy. Note that the processing in steps S308 and S309 may be omitted, and the update processing unit 204 of the management apparatus 2 presents the additional request image information in step S309 regardless of the calculated position estimation accuracy value. May be.
  • the extraction of the landmark information and the calculation of the position estimation accuracy may be performed on the management apparatus 2 side, but a method of transmitting the extraction result to the management apparatus 2 by having a general registrant perform it. For example, whether or not there is a step on the shoulder in the image, what is the approximate height of the step, how many telegraph poles stand from a specific position to a specific position in the image, etc. May be transmitted to the management apparatus 2.
  • general registrants may also perform travel route information such as information on travel lanes.
  • the autonomous mobile system Z uses the mobile device 3 owned by many people, such as a camera-equipped mobile phone and a smartphone, to obtain landmark information and position with the cooperation of many people. Since the estimation accuracy can be expanded, the labor is not concentrated on the manager, and the person who wants to use can register the place information of the place that he / she wants to use by himself / herself, resulting in cost reduction. Moreover, the autonomous mobile system Z which concerns on 2nd Embodiment can maintain privacy and security, without publishing information, such as a private land, by adding the information of whether disclosure is possible to traveling path information.
  • FIG. 14 is a diagram illustrating a configuration example of the autonomous mobile system according to the third embodiment.
  • the autonomous mobile system Za includes an autonomous mobile device 1d, a management device 2, and a preprocessing device 6.
  • the autonomous mobile device 1d has a configuration in which the specific information storage unit 115 is added to the autonomous mobile device 1c in FIG.
  • the autonomous mobile device 1d may have a configuration in which the specific information storage unit 115 is added to the configurations of FIG. 1, FIG. 6, and FIG.
  • the specific information storage unit 115 is a storage unit for storing and managing the landmark information and the sensor data of the place where it is not desired to be known to outsiders or the sensor data in the management device 2 without registering it in the management device 2. It is.
  • the autonomous mobile device 1d according to the third embodiment is not a sharing but a machine that can be used only by a specific user.
  • the management device 2 has the same configuration as the management device 2 in FIG.
  • preprocessing software 601 is executed.
  • the pre-processing software 601 is software for masking mark information and sensor data of places that are not desired to be known to outsiders.
  • the sensor data is sent to the management device 2 via the preprocessing device 6.
  • the autonomous mobile device 1d When the autonomous mobile device 1d starts traveling or the like, the autonomous mobile device 1d includes the landmark information of the public area (the area in which the information on whether or not the travel path information is open is “public”), The travel route information is downloaded from the management device 2, and the landmark information and the travel route information that are not registered in the management device 2 and are stored in the specific information storage unit 115 are copied from the specific information storage unit 115. To use.
  • pre-processing software in the pre-processing device 6 is provided so that outsiders can study without entering the area. Using the wear 601, the position estimation accuracy is calculated after masking.
  • the pre-processing software 601 is software that maintains features that can determine position estimation accuracy from sensor data and reduces object recognizable features.
  • the preprocessing is a process in which a human cannot visually grasp the spatial shape of the sensor data, and a feature such as the spatial frequency of the shape is left.
  • the preprocessing software 601 performs preprocessing by performing processing such as removing colors, dividing a shape into voxels, and then randomly mixing voxels.
  • FIG. 15 is a flowchart illustrating a procedure of map data determination processing according to the third embodiment.
  • the control unit 100 of the autonomous mobile device 1d determines, as determination target information for determining whether or not it is possible to travel, such as landmark information registered in the management device 2, sensor data, map data, and images from a camera.
  • a screen for inquiring the user whether to use the registered information is displayed on, for example, the display screen of the preprocessing device 6, and whether to use the registered information as determination target information based on the user's input. Determination is made (S401).
  • step S401 when using registered information (S401 ⁇ Yes), the user selects a determination target area from the route map displayed on the input / output unit 109 (S402), and manages the area number of the area. Transmit to device 2. Then, the control unit 200 of the management apparatus 2 acquires registered information of the area selected in step S402 from the storage unit 201 (S403), and advances the process to step S408. The processing after step S408 will be described later.
  • step S401 when registered information is not used (S401 ⁇ No), that is, an area where landmark information, sensor data, etc. are not registered in the management apparatus 2, and an area that is not desired to be known by outsiders
  • the user downloads the preprocessing software to the preprocessing device 6 used by the user (S404).
  • the autonomous mobile device 1d moves a presumed travel route while shooting a video or a still camera, a laser scan (that is, the sensor 102), etc.
  • the sensor data is acquired by traveling while acquiring the sensor data by the sensor 102 in the same manner as the traveling of (S405).
  • the sensor data in this case includes images from a video camera and a still camera in addition to the sensor data in the first embodiment and the second embodiment.
  • the preprocessing software 601 of the preprocessing device 6 performs preprocessing on the sensor data (S406).
  • the pre-processed sensor data is uploaded to the management apparatus 2 (S407).
  • the user inputs shooting conditions such as a moving image, a still image, a continuous acquisition interval, and a shooting height to the preprocessing apparatus 6 as sensor data acquisition conditions (S408).
  • the user inputs the attachment conditions of the sensor 102 to the autonomous mobile device 1d to be introduced into the preprocessing device 6 (S409).
  • the attachment conditions include the type of the sensor 102 (camera, laser scan, etc.), the attachment height, the attachment direction, and the angle at which there is no obstruction around the sensor 102. If registered information is sent to the management apparatus 2 in step S403, the following processing is performed on the registered information.
  • the preprocessing device 6 uploads the various conditions input in steps S408 and S409 to the management device 2, and the update processing unit 204 of the management device 2 appropriately processes the sensor data so that the position estimation accuracy can be easily calculated. Thereafter, the position estimation accuracy is calculated according to the sensor data acquisition condition and the attachment condition (S410). Then, the update processing unit 204 of the management device 2 transmits the calculated position estimation accuracy to the preprocessing device 6 and the like, and the preprocessing device 6 displays the transmitted position estimation accuracy on the display screen, so that the user (S411). The user checks the presented position estimation accuracy, changes the conditions, and determines whether or not to calculate the position estimation accuracy again (S412).
  • step S412 when the position estimation accuracy is calculated again under different conditions (S412 ⁇ Yes), the autonomous mobile system Za returns the process to step S408, and the user inputs different conditions to the preprocessing device 6.
  • step S412 when the position estimation accuracy is not calculated again (S412 ⁇ No), the user transmits a notification to the management apparatus 2 via the preprocessing apparatus 6 to the effect that the process is to be terminated.
  • the storage processing unit 205 of the device 2 deletes the sensor data in the management device 2 uploaded in step S407 or the like (S413), and ends the process.
  • the autonomous mobile system Za according to the third embodiment is a system that does not worry about the outflow of information in an area that the outsider does not want to know.
  • the management device 2 can also improve security without issuing a calculation program for position estimation accuracy to the outside.
  • the autonomous mobile system Za according to the third embodiment calculates the position estimation accuracy based on the sensor data acquisition conditions and the attachment conditions, the user considers the optimum configuration of the sensor 102 according to the use area. Is possible.
  • the processing unit 100 and each of the units 103 to 114 in the autonomous mobile devices 1, 1e, 1b, and 1c are configured such that a program stored in a ROM (Read Only Memory) is expanded in a RAM (Random Access Memory) and a CPU (Central Processing Unit). ) To be embodied.
  • the management device 2 is a computer such as a server, and is realized by a program stored in a ROM or HD (Hard Disk) being expanded in the RAM and executed by the CPU.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

 自律移動装置の走行に使用される情報の拡充を支援することを目的とする。 自律移動装置(1)は、センサ(102)を介して、走行中に収集したセンサデータを基に、位置推定精度を算出し、記憶部(101)に格納されている位置推定精度を更新することを特徴とする。また、一般登録者から携帯機器を介して送信された画像などのデータから位置推定精度を算出して、位置推定精度を更新することを特徴とする。さらに、自律移動装置(1)の走行路はエリア毎に分割され、位置推定精度もエリア毎に管理されており、位置推定精度が低精度のエリアでは、自律移動装置(1)は、手動操縦や、遠隔操縦などによって操縦されることを特徴とする。

Description

自律移動方法および自律移動装置
 本発明は、取得したセンサデータと、地図データとを基に自律移動する自律移動方法および自律移動装置の技術に関する。
 街なかや建物内を自律移動装置が移動する場合、自律移動装置は道路や通路を経由する目的地までの経路を作成し、自分の現在位置(自己位置)と経路を照らし合わせて進む方向を決めながら移動する。自己位置を推定する方法として、一般的に、GPS(Global Positioning System)で緯度経度を取得する方法や、所定の目印を記載した地図データを事前に作成し、移動しながら周囲の目印を、レーザなどのセンサで検出し、前記地図データと照らし合わせて現在位置を推定する方法が知られている。センサとしてGPSなどを使用する場合、屋外では、緯度経度の取得が容易に可能なGPSが自己位置の推定に有効な方法であるが、屋内において、この方法は使用できない。また、屋外でも、建物や街路樹の近傍ではGPSの精度が大きく悪化することがあるため、安定した位置精度を得るため、他の位置推定方法と組み合わせる方法が開発されている。
 特許文献1には、地図データを記憶し、周囲環境形状を計測したセンサデータと照合して自己位置を推定するロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラムが開示されている。
 また、特許文献2には、複数測位手段を組み合わせて自己位置推定する測位組み合わせ決定システムが開示されている。
 さらに、特許文献3には、自律移動装置が通過した際の各地点での位置推定誤差を求め、誤差が大きい場合は、管理者に知らせて地図の更新を管理者に促す自立移動システムおよび自律移動装置が開示されている。
特開2010-277548号公報 特開2011-64523号公報 特開2011-65308号公報
 特許文献1および特許文献2に記載の技術は、いずれも周囲環境形状を地図データとして有し、センサデータと照合することで、周囲環境形状に特徴のある場所において高精度な位置推定が可能となっている。しかしながら、これらの技術は、正確な移動環境内の周囲環境形状データを予め作成しておくことが前提である。従って、特許文献1および特許文献2に記載の技術は、街なかを走る自律移動装置など、広い移動領域では、予め全域を移動走行して、地図データを作成しなければならず、多大な労力を要する。また、特許文献3に記載の技術は、位置推定誤差の大きな場所を管理者に知らせることができるものの、地図の更新を管理者が行うことは、管理者の負荷が大きい。管理者の負荷が大きいことは、すなわちコストアップに繋がるという問題がある。
 一方、環境によっては、特許文献1および特許文献2に記載の技術よりも精度が低くてもより単純な方法で、道を外れずに走行可能な自己位置の推定方式(以下、位置推定方式と称する)が考えられる。例えば、街路樹や、電信柱の列や、道端の段差などに従って走行する方法などが考えられる。街路樹や、電信柱や、道端の段差などは、おおよその形状が決まっており、予め個々の形状データを測定しなくても、対象物を識別することが可能である。従って、その個数や概略配置がわかれば、これらの情報(街路樹や、電信柱や、道端の段差の個数や、概略位置)は、位置の目印として使用可能である。街路樹や、電信柱や、道端の段差などの個数や概略配置は高価なセンサを使用しなくても、例えば既存の道路地図や、スナップ写真を見て求めることが可能である。従って、一般の利用者が簡単に地図データを登録することができ、広域の地図データを早期に作成できる可能性がある。
 ただし、このように街路樹や、電信柱や、道端の段差などを目印として使用して、位置推定を行うことは、位置推定精度の低下をまねくおそれがある。位置推定精度の低下は、蛇行や速度不安定につながるおそれがあり、好ましくない。従って、最終的には、できるだけ全域高精度な位置推定が望ましい。
 また、一般の利用者が地図データを登録する状況として、例えば、自律移動装置を使用したいと考える人が、家の周りや頻繁に使用する経路について自分で目印となる情報を取得して地図データベースに加えることが考えられる。その場合、プライバシーや防犯の観点において、地図データベースが、そのまま公開されることは好ましくない。
 また、特徴が明確で単純な形状の道など、場所によっては高額なセンサを使用せずに、比較的高精度に位置推定が可能な環境が存在する。従って、そのような環境だけで使用する自律移動装置は、センサ構成が安価になることもある。しかしながら、現状では自律移動装置の導入前に、特定の環境下で必要な位置推定精度を得るための必要最小限のセンサ構成を、誰もが容易に検討するような環境は整備されていない。
 このような背景に鑑みて本発明がなされたのであり、本発明は、自律移動装置の走行に使用される情報の拡充を支援することを目的とする。
 前記課題を解決するため、本発明は、センサを介して、走行中に収集したセンサデータを基に、位置推定精度を算出し、記憶部に格納されている位置推定精度を更新することを特徴とする。
 その他の解決手段は、実施形態中において適宜記載する。
 本発明によれば、自律移動装置の走行に使用される情報の拡充を支援することができる。
第1実施形態に係る自律移動装置の構成例を示す図である。 エリアの概念図である(その1)。 エリアの概念図である(その2)。 走行路情報の具体例を示す図である(その1)。 第1実施形態に係る自律移動装置における処理の手順を示すフローチャートである。 第1実施形態に係る自律移動装置の別の構成例を示す図である(その1)。 第1実施形態に係る自律移動装置の別の構成例を示す図である(その2)。 第2実施形態に係る自律移動システムの構成例を示す図である。 走行路情報の具体例を示す図である(その2)。 走行路情報の具体例を示す図である(その3)。 第2実施形態に係る自律移動システムの処理の手順を示すフローチャートである(その1)。 第2実施形態に係る自律移動システムの処理の手順を示すフローチャートである(その2)。 一般登録者による目印情報の登録処理の手順を示すフローチャートである。 第3実施形態に係る自律移動システムの構成例を示す図である。 第3実施形態に係る地図データ判定処理の手順を示すフローチャートである。
 次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。なお、各図面において、同様の構成要素については、同一の符号を付して説明を省略する。
[第1実施形態]
 まず、図1~図7を参照して、本発明の第1実施形態を説明する。
(自律移動装置の構成)
 図1は、第1実施形態に係る自律移動装置の構成例を示す図である。
 自律移動装置1は、制御部100、記憶部101、センサ102、経路決定部103、検出部104、更新処理部105、位置推定部106、移動制御部107、移動機構108、入出力部109および手動操縦部110を有している。なお、本実施形態において、自律移動装置1は、人が搭乗するタイプのもの(搭乗型)を想定しているが、無人のものでもよい。
 制御部100は、自律移動装置1の全体制御を行う。
 記憶部101は、後記する走行路情報(後記)や、センサデータ(レーザスキャンのデータや、自律移動装置1に備えられているカメラの画像や、GPSによる位置情報)や、センサデータと比較されることによって自己位置の推定が行われる地図データや、経路情報や、目印情報などの各種情報が格納される。目印情報は後記して説明する。
 センサ102は、GPSや、レーザスキャンや、ホイールオドメトリに使用するエンコーダや、カメラや、ステレオカメラなどである。
 経路決定部103は、自律移動装置1が移動する経路を決定する。経路決定部103は、記憶部101に記憶されている1つ以上の走行路情報や、地図データを参照して、出発地から目的地までの経路を決定する。経路の決定は、既存の各種経路探索アルゴリズムを使用するため、詳細な説明を省略する。
 検出部104は、センサ102から得られたセンサデータなどから目印を検出する。。
 更新処理部105は、得られたセンサデータの情報を基に、自己位置を推定する際の精度である自己位置推定精度などを算出し、走行路情報などの各種情報を更新する。
 位置推定部106は、走行中において現在の自己位置を推定する。
 移動制御部107は、位置推定部106が推定した現在の自己位置や、経路情報を基に進行方向を決定し、移動機構108を制御して自律移動装置1を自律的に移動させる。
 移動機構108は、例えば、車輪や、脚、駆動装置(モータ)などからなり、自律移動装置1を進行方向に移動させる。、
 入出力部109は、使用者に情報を表示して、必要な情報を入力させるための、タッチパネルディスプレイなどの情報入力表示装置である。
 手動操縦部110は、自律移動装置1の進行方向を、自律移動装置1の使用者(搭乗者)が手動で指示するためのジョイスティックや、ハンドルなどである。
(エリア)
 図2は、エリアの概念図である。
 図2に示すように、走行路情報は、自律移動装置1が走行する領域が細線で示されるエリア毎に管理されている。ここで、図2において、太線が走行路、斜線が構造物、細線がエリアの境界線を示している。また、各エリアに記載されている数字は、エリアを識別するためのエリア番号である。さらに、図2に示すように、走行路の位置はx-y座標で表される。x-y座標は、具体的には、経度-緯度でもよいし、任意の位置を原点とする平面直交座標系でもどんな座標系でもよい。また、エリア内における走行方法の単純化のため、1つのエリア内の走行路はおおよそ直進走行できるよう、カーブは細かくエリア分割されるとよい。また、分岐場所でも単純に分岐方向を示せるように、分岐場所は1つのエリアに分割されるとよい。なお、エリアの分割は、管理者が行ってもよいし、自動分割アルゴリズムによる自動分割でもよい。
 また、図3のように、自律移動装置1によって、走行路情報に記憶されていない走行路が検出された場合、新たなエリアが生成されることによって、走行路情報が更新されてもよいし、管理者が新たなエリアと、走行路情報を設定してもよい。例えば、図3のエリア「15」、「16」,「17」は、図2の段階では設定されていなかったが、新たに加えられたエリアである。また、図3では、図2のエリア「12」において、分岐が増えたので、エリア「12」が分割されて、エリア「16」、「17」が新たに設定されている。なお、図3における破線部分は走行路が設定されていない部分である。
 図4は、走行路情報の具体例を示す図である。適宜、図2を参照する。
 走行路情報は、インターネットを介して取得された地図を参考に管理者が初期情報として作成したり、他の自律移動装置1によって生成された走行路情報が初期情報として使用されてもよい。そして、自律移動装置1が走行することによって、走行路情報に必要なデータが追加されていって、走行路情報が拡充されていく。
 図4に示すように、走行路情報は、エリア番号、通過方向エリア番号、走行レーン、位置推定精度、目的情報ファイル名を有している。
 エリア番号は、走行路情報の対象となっているエリアのエリア番号であり、図4の例はエリア「5」に関する走行路情報であることを示している。このように、走行路情報は、各エリア毎に生成される。なお、このエリア番号「5」は、図2のエリア番号「5」に対応している。
 通過方向エリア番号は、自律移動装置1が経路上を移動する際に、通過する前後のエリア番号が記述される。ここでは、出発地がエリア「9」(以下、エリア番号は図2のエリア番号に準ずる)、目的地がエリア「13」の場合において、経路決定手段3に決定された経路が、走行路エリア「9」,「10」,「7」,「6」,「5」,「12」,「13」を順に経由するものであるものとして説明を行う。このような経路の場合、自律移動装置1がエリア「5」を通過する際には、エリア「6」からエリア「5」に入って、エリア「12」へ通過する。従って、自律移動装置1は、図4のような通過エリア番号が曲がり通過「6→12」の走行路情報を参照する。
 また、走行レーンは、対象となっているエリアにおける走行可能な位置であり、走行路の端、中央、全体、左右端、道全体などが格納される。例えば、車道の両側の歩道を走行してよい場合は、図4の例のように左右端となる。また、狭い道の場合は、道全体などとなる。
 位置推定精度は、該当エリアで自律移動装置1が自己位置を推定する際の精度が格納されている。図4の例における「L」はレーザスキャンを意味しており、「E」はホイールのエンコーダを意味している。また、「Mi」は中精度(Middle)を意味し、「Lo」は低精度(Low)を意味している。また、「A3」は「ホイールオドメトリによる位置推定方式」を意味し、「B1」は「路肩段差沿い走行による位置推定方式」を意味している。
 つまり、図4の例において、「L:Mi(B1)」は、当該エリアにおいて「レーザスキャンで路肩段差沿い走行による位置推定方式」による自己位置推定が可能であり、その精度は「中精度」であることを意味している。同様に、「E:Lo(A3)」は、当該エリアにおいて「エンコーダでホイールオドメトリによる位置推定方式」が可能であり、その精度は「低精度」であることを意味している。また、「L+E:Mi(B1)」は、当該エリアにおいて「レーザスキャンとエンコーダを組み合わせた路肩段差沿い走行による位置推定方式」が可能であり、その精度が「中精度」であることを意味している。
 この位置推定精度は、自律移動装置1が走行すると、順次更新されていく。
 まだ、自律移動装置1が実走行をしていないエリアでは、以前に自律移動装置1が走行した際に登録された目印情報や、センサ102の種類(つまり、レーザスキャンや、エンコーダや、GPSなど)を基に、管理者などが経験に基づき、重みづけなどをして求めるとよい。目印情報については、後記して説明する。自律移動装置1が実走行をしたエリアでは、更新処理部105が走行状態を基に位置推定精度を求めてもよい。例えば、位置推定精度は、スムーズに走行できれば「高精度(Hi:High)」、ぎくしゃくした走行であれば「中精度(Mi)」、頻繁に停止しながらの走行であれば「低精度(Lo)」などと算出される。なお、位置推定精度は、直進、角を曲がるなど通過方向によって異なるので、該当の通過方向(図4では、「6→12」)が付記されている。
 目印情報ファイル名は、当該エリアにおいて使用可能な位置推定方式(図4の例では、「A3:ホイールオドメトリによる位置推定方式」と「B1:路肩段差沿い走行による位置推定方式」)で使用される目印情報が格納されているファイルのファイル名である。図4の例では、路肩段差沿い走行による位置推定方式に使用される目印情報のファイルが「B1」というファイル名で格納されているが、「A3」すなわち「ホイールオドメトリによる位置推定方式」に使用されたファイルはないことを意味している。これは、ホイールオドメトリが、ホイールの回転に基づいて算出される走行距離で自己位置を推定するため、目印情報が不要であるためである。
 ここで、目印情報は、自己位置推定を行う際に使用されるものであり、例えば、「路肩段差沿い走行による位置推定方式」であれば、センサデータから抽出される路肩の概略形状などに関する情報となる。このような情報は、例えば、「路肩段差沿い走行による位置推定方式」が位置推定方式として推定されているのであれば、検出部104によって、レーザスキャンデータ(センサデータ)から路肩の概略画像が抽出されて、抽出された路肩の概略画像が目印情報ファイル名の欄に記載されているファイルとして記憶部101に格納される。
 このように、目印情報は位置推定方式によって必要な情報が異なる。例えば、3D環境形状マッチング走行では、目印となる3D環境形状に関する情報が必要となり、曲がり角標識認識方式では、目印となる標識の種類、高さ、大きさに関する情報が必要となる。
 図5は、第1実施形態に係る自律移動装置における処理の手順を示すフローチャートである。適宜図1を参照する。
 まず、自律移動装置1の搭乗者が入出力部109を介して目的地情報を設定することによって目的地設定が行われる(S101)。目的地情報は、例えば、地図上の座標などである。
 そして、経路決定部103が現在地から目的地までの経路を決定する(S102)。前記したように経路の決定方法は既存の技術であるため、説明を省略する。
 そして、移動制御部107が走行を開始する(S103)。
 走行中において、センサ102は移動環境内をセンシングしてセンサデータを取得し、そのセンサデータから目印の特徴や、センサデータ内(画像内など)における目印の位置を検出している。
 位置推定部106は、検出部105による目印の検出結果などを基に、現在の自己位置を推定し、その結果を基に移動制御部107が移動機構108を制御することによって、走行が行われる。この時、センサデータは、記憶部101に格納される。記憶部101に格納されるセンサデータは、すべてのエリアでもよいし、走行路情報において位置推定精度が低いと記述されているエリアのみ収集するようにしてもよい。
 位置推定部106は、現在走行しているエリアが、位置推定精度が低精度なエリアや、自己位置推定不可能なエリア(まとめて、推定困難エリアと称する)であるか否か(つまり、位置推定精度が所定の精度以下であるか否か)を、走行中において定期的に確認している(S104)。ここで、走行しているエリアが、位置推定精度が設定されている場合、位置推定部106は、現在使用している位置推定方式のうち、図4に示す走行路情報の位置推定精度における最も高い位置推定精度が低精度であるか否かを判定する。例えば、図4の例では、「中精度(Mi)」が最も高い位置推定精度なので、位置推定部106は当該エリアにおける位置推定精度が「中精度」であるものとしてステップS104の処理を行う。
 なお、自己位置推定不可能とは、走行路情報において、すべてのセンサ102を使用することができず、自己位置の推定が不可能と判定されているエリアである。つまり、図4における位置推定精度の欄が空欄であるエリアである(言い換えれば、位置推定精度が「0」)。
 ステップS104の結果、現在走行しているエリアが、推定困難エリアでない場合(S104→No)、移動制御部107はセンサデータを取得しつつ、自律移動走行を継続し(S105)、ステップS107へ処理を進める。
 ステップS104の結果、現在走行しているエリアが、推定困難エリアであった場合(S104→Yes)、制御部100は、走行方法を手動操縦に切り替え、移動制御部107はセンサデータを取得しつつ、手動操縦による走行を行う(S106)。つまり、制御部100は、現在走行しているエリアが、推定困難エリアであるため自律移動走行をやめて、搭乗者による手動操縦に切り替える。具体的には、入出力部109に搭乗者による手動操縦を促す表示画面が表示され、搭乗者は手動操縦部110で操縦を行う。なお、現在走行しているエリアが、自己位置推定不可能ではないが、低精度な場合、搭乗者の意向により自律移動走行をしてもよい。この場合、例えば、入出力部109に、「自律移動走行を継続しますか?する場合は、このボタンにタッチして下さい。」などといった表示画面が表示され、搭乗者がそのボタンにタッチした場合、移動制御部107が自律移動走行を行うようにしてもよい。ただし、このような走行を行う場合、位置推定精度が低いため、障害物回避機能などを用いて、走行位置を頻繁に修正しながら走行する必要性が生じる可能性があるので、移動制御部107は、自律移動装置1を低速で走行させることが好ましい。
 位置推定部106は、現在位置と、目的地情報を基に、目的地に達したかどうかを、走行中において定期的に判定している(S107)。
 ステップS107の結果、目的地に到達していない場合(S107→No)、制御部100はステップS104へ処理を戻す。
 ステップS107の結果、目的地に達している場合(S107→Yes)、制御部100は、ステップS108~S115の更新処理を始める。
 まず、検出部104が記憶部101に格納しているセンサデータから、エリア毎に各種目印情報を抽出する(S108)。
 次に、更新処理部105が、抽出した目印情報や、そのときの走行速度などを基に目印情報の種類ごとの位置推定精度を算出する(S109)。位置推定精度の算出方法は前記した通りである。
 更新処理部105は、該当するエリアの走行路情報のうち、該当する位置推定方式における位置推定精度の欄を、新たな位置推定精度に更新する(S110)。
 次に、更新処理部105は、ステップS108で抽出された目印情報が、まだ登録されていない種類の新たな目印情報であるか否かを判定する(S111)。
 ステップS111の結果、記憶部101に、まだ記憶されていない種類の目印情報ではない場合(S111→No)、更新処理部105は、ステップS112の処理をスキップする。
 ステップS111の結果、記憶部101に、まだ記憶されていない種類の目印情報が検出された場合(S111→Yes)、更新処理部105は、走行路情報に、新たに検出された目印情報の位置推定精度を追加する(S112)。また、新たに抽出された目印情報に関する情報は、記憶部101に格納される。
 制御部100は、すべてのエリアについて、ステップS108~S112の更新処理を完了したか否かを判定する(S115)。
 ステップS115の結果、更新処理を完了していないエリアが存在する場合(S115→No)、制御部100はステップS108へ処理を戻し、次のエリアについて更新処理を行う。
 ステップS115の結果、すべてのエリアについて更新処理を完了している場合(S115→Yes)、制御部100は処理を終える。
 なお、第1実施形態では、すべての位置推定精度が更新されているが、算出された位置推定精度が、現在記憶されている位置推定精度より高い場合、更新処理部105が、該当するエリアの位置推定精度を、新たに算出された位置推定精度に更新するようにしてもよい。
(第1実施形態の変形例)
 図6は、第1実施形態に係る自律移動装置の別の構成例を示す図である。図6において、図1と同様の構成要素については、図1と同一の符号を付し、説明を省略する。
 図6の自律移動装置1aが、図1の自律移動装置1と異なる点は、手動操縦部110の代わりに遠隔操縦部111を有している点である。
 自律移動装置1aが走行しているエリアが推定困難エリアである場合(図5のS104→Yes)、入出力部109に搭乗者に遠隔操縦による走行が提示される。搭乗者が遠隔操縦による走行を選択した場合、移動制御部107は、自律走行の代わりに、無線などによる遠隔操縦で自律移動装置1aを走行させる。なお、遠隔操縦による走行中においても、センサ102はセンサデータを取得し続ける。遠隔操縦は、自宅にいる家族や、遠隔操縦センタなどにいる遠隔操縦者によって行われる。遠隔操縦部111には、カメラ、通信装置、制御装置などが備わっており、遠隔操縦する人物はカメラで自律移動装置1aの周囲環境の画像を見ながら無線で通信して操作を行う。このように推定困難エリアで、遠隔操縦を行う方法は、自分が操作することに安全面で不安のある子供や高齢者等に適している。
 図7は、第1実施形態に係る自律移動装置の別の構成例を示す図である。図7において、図1と同様の構成要素については、図1と同一の符号を付し、説明を省略する。
 図7に示す自律移動装置1bは、図1に示す自律移動装置1における手動操縦部110の代わりに、移動環境内において、走行路に設置されている走行に関する情報である環境特徴を検出する環境特徴検出部112と、環境特徴とその意味が対応付けられた環境特徴意味記憶部113を有している。
 環境特徴は、標識や記号、看板などである。
 現在走行中のエリアの位置推定精度が推定困難エリアである場合(図5のS104→Yes)、環境特徴検出部112が、環境特徴意味記憶部113に格納されている環境特徴と、その意味を読み出し、センサ102の1つとして備えられているカメラで撮像された画像などセンサデータから環境特徴と、その意味を抽出し、移動制御部107は、抽出した意味に基づいて自律走行を行う。つまり、図7の自律移動装置1bは、推定困難エリアにおいて、一方通行などの標識に従って走行を行う。
 このような走行方法は、環境特徴の検出に時間が長くかかったり、低精度による蛇行、ぎくしゃくした走行になることがあるため、移動制御部107が、必要に応じて、走行速度を低速にすることが望ましい。
 このような方法を用いることで、自律移動装置1bは推定困難エリアでも自律走行が可能となる。
 以上、第1実施形態に係る自律移動装置1は、走行中に得られたセンサデータを基に、目印情報や、走行路情報の位置推定精度を更新することができるので、位置推定精度の向上や、目印情報の拡充を図ることができ、よりスムーズな走行を行うことができる。
 また、第1実施形態に係る自律移動装置1は、経路中のすべてのエリアにおいて、位置推定精度が高精度あるいは中精度でなくても、推定困難エリアでは他の方法(手動操縦、遠隔操縦、環境特徴検出による走行)を利用することができるので、自律移動装置1の導入時における負担が軽減される。つまり、位置推定精度に応じた走行をエリア毎に行うことができる。
[第2実施形態]
 次に、図8~図13を参照して、本発明の第2実施形態を説明する。第2実施形態は、一般の登録者(一般登録者)がネットワークを経由して登録した画像などを基に、目印情報、走行路情報の拡充を行うものである。
 図8は、第2実施形態に係る自律移動システムの構成例を示す図である。なお、図8において、第1実施形態と同様の構成要素については、同一の符号を付して説明を省略する。
 自律移動システムZは、自律移動装置1c、管理装置2、配車装置4、遠隔操縦装置5を有している。
 自律移動装置1cは、図1の自律移動装置1の構成に加え、図6の遠隔操縦部111、管理装置2、配車装置4との通信を行う通信部114を有している。
 管理装置2は、一般登録者が所持している携帯機器(通信機器)3から送られてきた画像を基に、目印情報を抽出し、位置推定精度を算出・管理する。また、管理装置2は必要に応じて、配車装置4や、自律移動装置1cに情報を送信する。なお、携帯機器3は、カメラ付きの携帯電話や、スマートフォンや、カメラ付きのPCなどである。
 管理装置2は、制御部200、記憶部201、経路決定部202、検出部203、更新処理部204、格納処理部205、通信部206および汎用通信部207を有している。
 制御部200は、自律移動装置1cの全体制御を行う。
 記憶部201は、後記する走行路情報(後記)や、目印情報や、携帯機器3から送信された画像などの各種情報が格納されている。
 経路決定部202は、自律移動装置1cが移動する経路を決定する。経路決定部202は、記憶部201に記憶されている1つ以上の走行路情報や、地図データなどを参照して、出発地から目的地までの経路を決定する。経路の決定には、各種経路探索アルゴリズムが開発されているため、詳細な説明を省略する。
 検出部203は、携帯機器3から送信された画像から目印情報などを検出する。
 更新処理部204は、携帯機器3から送信された画像などを基に自己位置推定精度などを算出し、走行路情報などの各種情報を更新する。
 格納処理部205は、各種情報を記憶部201に格納する。
 通信部206は、自律移動装置1cとの通信を行うものである。
 汎用通信部207は、インターネットや無線電話回線を通じて、携帯機器3と通信を行うものである。
 配車装置4は、携帯機器3からの指示などを契機に、自律移動装置1cの配車に関する処理を行う装置である。このような配車装置4は、自律移動装置1cを、複数の人でシェアリングする場合に必要となるが、省略してもよい。
 また、配車装置4は、管理装置2とも通信し、経路上に低精度や目印情報が未取得で自己位置推定不可能なエリアがあるか否かの情報などを取得して、自律移動装置1cへ送信してもよい。さらに配車装置4は、自律移動装置1cとも通信し、自律移動装置1cへ出発地までの自律移動指令や、必要に応じて、目的地から待機場までの帰還指令を出す。
 遠隔操縦装置5は、自律移動装置1cを遠隔操縦するための装置である。
(走行路情報)
 図9および図10は、走行路情報の具体例を示す図である。
 エリア番号は、図4と同様に走行路情報の対象となっているエリアのエリア番号であり、図9の例はエリア「5」に関する走行路情報であることを示している。なお、図9および図10におけるエリア番号は図2のエリア番号に対応している。
 通過方向エリア番号は、図4と同様に自律移動装置1cが経路上を移動する際に、対象となっているエリアの前後のエリア番号が記述される。なお、図9の例では、図4の例と異なり、複数の通過エリア番号が記載されているが、これは、複数の通過エリアに関する走行路情報がまとめられていることを示している。なお、図9および図10は、ひと続きのデータである。
 走行レーンは、図4の例と同様に、対象となっているエリアにおける走行可能な位置である。なお、図9の例では「日祝10:00-16:00 全幅」の情報があるが、これはエリア「5」が日曜、祝日の10:00~16:00の間は全幅で通行可能であることを意味している。
 公開可否は、目印情報の公開に関する情報であり、公開、非公開、登録拒否の3つが考えられるが、これ以外の情報でもよい。
 ここで、公開は誰でも利用可能であり、非公開は特定の人のみ利用可能であり、登録拒否は目印情報の登録不可という意味である。非公開の場合は、パスワードやその他の認証手段を設け、目印情報の利用前に、認証された場合のみ利用可能とする。公開可否の情報は私有地エリアの所有者のプライバシー保護や防犯が目的であり、公開可否情報の設定は、私有地エリアの所有者に設定権利を与えるとよい。なお、登録拒否は、万が記憶部201内のデータへの不正アクセスがあった場合でも、形状情報が流出することを防ぐために、記憶部201への登録を拒否すると言う意味である。
 位置推定精度は、予想位置推定精度と、実績位置推定精度を有し、通過方向エリア番号毎に情報が格納されている。
 予想位置推定精度は、予想される位置推定精度であり、実績位置推定精度は実際のセンサデータを基に算出される位置推定精度である。
 なお、予想位置推定精度および実績位置推定精度において、「G」はGPS、「M」は磁気センサ、「C」はカラーカメラ、「L」はレーザスキャン、「E」はエンコーダの各センサ102を意味しており、「L+E」などは該当するセンサ102の組み合せを示している。これらのセンサ102は第1実施形態にも適用可能である。
 また、予想位置推定精度および実績位置推定精度において、「Hi」は高精度(High)、「Mi」は中精度(Middle),「Lo」は低精度(Low)、「Fa」は不可(Failure)、「Uk」は未確認(Unknown)、「-」は未取得であることを意味している。さらに、高精度+(Hi+)、中精度(Mi+)、低精度(Lo+)などの精度を有する。これらの、位置推定精度は第1実施形態にも適用可能である。なお、不可とは、該当するエリアでは、環境条件のため、該当するセンサ102が使用できないことを意味しており、未取得とは、センサ102の使用が不可であるため、センサデータを取得していないことを意味する。
 予想位置推定精度は、後記する位置推定方式情報において予め設定されている予想精度が記述される。予想位置推定精度の記述は、管理装置2が位置推定方式情報において予め設定されている予想精度を基に記述してもよいし、管理者が入力してもよい。
 実績位置推定精度は、該当するセンサ102を用い、該当する位置推定方式で走行したときの状態を基に管理装置2が判定する。例えば、スムーズに走行できれば、管理装置2は「高精度(Hi:High)」と判定し、ぎくしゃくした走行であれば、管理装置2は「中精度(Mi)」と判定し、頻繁に停止しながらの走行であれば、管理装置2は「低精度(Lo)」と判定する。
 なお、位置推定精度は、実績位置推定精度の方が優先される。
 また、「A1」、「B3」などは、位置推定方式を示しており、図9の下から3行目以下および図10における位置推定方式情報の「方式名と基本精度」における「A1」~「C4」の位置推定方式(GPSや、3D環境形状マッチング走行など)に対応している。
 登録目印情報ファイル名と方式には、抽出された目印情報が格納されているファイル名と、位置推定方式が記述されている。図9の例では、位置推定方式が「C1:曲がり角電柱計数」に用いられる目印情報が「xyz.xxx」というファイルに格納されている。
 登録情報ファイル名と種別には、携帯機器3から送られた画像データが格納されているファイル名と、その画像に関する種別情報が格納されている。例えば、「abc.zz」という画像データは、座標(123,456)の地点において、北に対する向き24°で撮影された画像であり、カラーであることが示されている。座標や、向きは撮影時に携帯機器3のGPS機能や、電子水準器などを基に取得され、管理装置2へ画像データとともに送られる。このように座標や、向きなどの情報を画像データのファイル名とともに格納することで、例えば、近傍地域のデータが複数登録されることにより、詳細な目印情報が得られる場合があるので、近傍地域の画像を撮影するよう一般登録者に促したり、ほぼ同一の物体を、少し離れた位置から撮影した画像があれば、ステレオ視により距離情報を得ることが可能となることがわかるなどの利点がある。
 図9の下から3行目以降は位置推定方式に関する情報である位置推定方式情報を示す。
 位置推定方式情報は、方式名と基本精度、必要目印情報、目印パラメータ、閾値と予想精度、実測値、予想精度を有する。
 方式名と基本精度には、位置推定方式名と、その記号と、その自己位置推定精度における限界精度(最高精度)が格納されている。例えば、GPS(記号「A1」)による自己位置推定は最高精度が高精度(Hi)な自己位置推定精度である。これに対し、ホイールオドメトリ(記号「A3」)における自己位置推定は、最高でも低精度(Lo)な精度しか得ることができない。
 なお、位置推定方式情報における「Hi」、「Mi」、「Lo」、「Fa」、「Uk」などの記号は予想位置推定精度や、実績位置推定精度で説明済みなので、ここでの説明を省略する。また、「Av」は可能を意味する(Available)。
 ここで、絶対位置による位置推定方式は、例えば、「A1」~「A3」があり、ある特徴に沿うように走行する方式は、例えば、「B1」~「B5」があり、目印で曲がる方式は、例えば、「C1」~「C4」の各方式がある。
 必要目印情報は、該当する位置推定方式による自己位置の推定の際に必要な目印である。例えば、GPSによる位置推定方式では必要目印情報は不要であるが、図10の電柱沿い走行(記号「B4」)では、電柱の間隔に関する情報が必要となる。
 目印パラメータは、位置推定精度の目安となるパラメータであり、閾値と予想精度は位置推定精度の度合いを算出するための閾値と、その閾値から導き出される予想精度である。例えば、GPS(記号「A1」)による位置推定精度は、上空開空間率を基に算出され、その上空開空間率が50%未満であれば低精度(Lo)と判定され、50%~80%であれば中精度(Mi)と判定され、80%以上であれば高精度(Hi)と判定される。
 実測値は、実際に測定された値である。
 予想精度はセンサ102別の限界精度である。例えば、GPS(記号「A1」)による位置推定方式では、使用されるセンサ102はGPSのみであるため、予想精度の欄にはGPSを示す「G」が記載され、GPSによる限界精度である高精度(Hi)が記述されている。一方、図10の電柱沿い走行(記号「B4」)は、レーザスキャン(「L」)と、ステレオカメラ(「S」)による2通りの方法で自己位置推定が可能である。この2つの方法は、限界精度が異なっており、レーザスキャンによる自己位置推定の限界精度は高精度(Hi)であるが、ステレオカメラによる限界精度は中精度(Mi)である。基本精度には、これらの予想精度のうち、精度の低い方が記述される。
 なお、図9および図10における走行路情報は、第1実施形態にも適用可能である。
(フローチャート)
 図11および図12は、第2実施形態に係る自律移動システムの処理の手順を示すフローチャートである。なお、管理装置2と自律移動装置1cの間の通信は、通信部114,206を介して行われるが、図11の説明では、その記述を省略する。
 まず、搭乗者がPC(Personal Computer)や携帯電話などを使用して、配車装置4に配車要求を送信する(図11のS201)。搭乗者は、携帯機器3で、出発地、目的地に関する情報を含む配車要求を送信する。
 次に、配車装置4が、送信された配車要求に含まれる出発地および目的地に関する情報を、管理装置2へ送信し、管理装置2の経路決定部202が、出発地から目的地までの経路を決定する(S202)。
 そして、管理装置2の経路決定部202は、決定した経路上に位置推定精度が低精度であるエリア、または目印情報が未取得で自己位置推定不可能なエリア(推定困難エリア)があるか否かを判定する(S203)。
 ステップS203の結果、決定した経路上に推定困難エリアがない場合(S203→No)、管理装置2の経路決定部202は、決定した経路上に推定困難エリアがない旨の情報を配車装置4へ送信する。
 決定した経路上に推定困難エリアがない旨の情報を受信した配車装置4は、自身が管理する自律移動装置1cの中から適切な1台を選択する(S204)。
 そして、配車装置4は、選択した自律移動装置1cへ配車指令を送信する。
 配車指令を受信した自律移動装置1cの制御部100は、経路情報を管理装置2からダウンロードした後、通過するエリアに必要な目印情報と、走行条件に適合する走行路情報とを管理装置2からダウンロードして(S205)、ダウンロードした各情報を自身の記憶部101に格納する。
 そして、自律移動装置1cの移動制御部107が、自身を出発地へ自律走行させることによって、配車が行われる(S206)。この配車中でも、移動制御部107はセンサデータを取得してもよい。
 搭乗者が、配車された自律移動装置1cに搭乗し、制御部100が、入出力部109から入力された認証情報を基に、搭乗者本人であるか否かの認証を行い(S207)、ダウンロードした目印情報の内、該当認証で許可がおりた非公開目印情報を使用可能状態にした後、位置推定部106による自己位置推定が行われつつ、移動制御部107が目的地へ向けて走行を開始する(S208)。なお、目印情報には、登場要求者毎に使用できるか否かの情報が設定されている。
 また、自律移動装置1cの位置推定部106は、走行をしながら定期的に、現在位置と走行路情報を比較して、目的地に達したか否かを判定している(S209)。
 ステップS209の結果、目的地に達していない場合(S209→No)、移動制御部107はセンサデータを取得しつつ、自律移動走行を継続する(S210)。
 ステップS209の結果、目的地に達した場合(S209→Yes)、自律移動装置1cの制御部100は図12のステップS223へ処理を進める。ステップS223以降の処理については後記する。
 ステップS203の結果、決定した経路上に推定困難エリアがある場合(S203→Yes)、配車装置4は、自律移動装置1cの入出力部109に、操縦選択画面を表示させ、搭乗者に、低精度や自己位置推定不可能なエリアでは手動操縦または遠隔操縦(手動/遠隔操縦)を行うか否かを選択させる(S211)。選択結果は、配車装置4へ送信される。
 ステップS211の結果、搭乗者が手動または遠隔操縦のいずれの方法も拒否した場合(S211→No)、自律移動システムZは処理を終了する。
 ステップS211の結果、搭乗者が手動または遠隔操縦を行うことを選択した場合(S211→Yes)、配車装置4は、該当する操縦手段(手動または遠隔操縦)を有する自律移動装置1cを選択し(S212)、選択した自律移動装置1cへ配車指令を送信する。
 配車指令を受信した自律移動装置1cの制御部100は、経路情報を管理装置2からダウンロードした後、通過するエリアに必要な目印情報と、走行条件に適合する走行路情報とを管理装置2からダウンロードして(S213)、ダウンロードした各情報を自身の記憶部101に格納する。
 そして、自律移動装置1cの移動制御部107が、自身を出発地へ自律移動させることによって、配車が行われる(S214)。
 搭乗者が、配車された自律移動装置1cに搭乗し、制御部100が入出力部109から入力された認証情報を基に、搭乗者本人であるか否かの認証を行い(S215)、ダウンロードした目印情報の内、該当認証で許可がおりた非公開目印情報を使用可能状態にした後、目的地へ向けて走行を開始する(S216)。
 自律移動装置1cの位置推定部106は、走行中において定期的に、現在走行しているエリアが低精度なエリアや自己位置推定不可能なエリア(推定困難エリア)であるか否かを判定している(図12のS217)。
 ステップS217の結果、現在走行しているエリアが推定困難エリアでない場合(S217→No)、移動制御部107は、センサデータを取得しつつ、自律移動走行を継続し(S218)、自律移動装置1cの制御部100はステップS222へ処理を進める。
 ステップS217の結果、現在走行しているエリアが推定困難エリアである場合(S217→Yes)、移動制御部107は、図9のステップS211で選択した操縦手段が遠隔操縦であるか否かを判定する(S219)。
 ステップS219の結果、遠隔操縦が選択されていた場合(S219→Yes)、センサデータが取得されつつ、遠隔操縦サービスセンターの係員などが遠隔装置を介して、遠隔操縦部111が、通信で自律移動装置1cにアクセスして自律移動装置1cを操縦する遠隔操縦を、移動制御部106が行い(S220)、自律移動装置1cの制御部100はステップS222へ処理を進める。
 ステップS219の結果、遠隔操縦が選択されていない場合(S219→No)、すなわち、手動操縦が選択されていた場合、手動操縦部110を介して、搭乗者が手動操縦を行うことによって、移動制御部107は、センサデータを取得しつつ、手動操縦による走行を行う(S221)。
 なお、ステップS216の遠隔操縦、ステップS217の手動操縦のいずれの場合も、移動制御部106は走行中に登録拒否以外かつ推定困難エリアのみにおけるセンサデータを取得し、記憶部101に格納するようにしてもよい。
 また、現在走行しているエリアが、自己位置推定不可能ではないが、低精度な場合、搭乗者の意向により自律移動走行をしてもよい。この場合、例えば、入出力部109に、「自律移動走行をしますか?する場合は、このボタンにタッチして下さい。」などといった表示画面が表示され、搭乗者が、そのボタンにタッチした場合、移動制御部107が自律移動走行を行うようにしてもよい。ただし、このような走行を行う場合、位置推定精度が低いため移動制御部107は障害物回避機能などを用いて、走行位置を頻繁に修正しながら走行する必要性が生じる可能性があるため、低速で走行することが好ましい。
 自律移動装置1cの位置推定部106は、現在位置を基に、目的地に達したかどうかを、走行中において定期的に判定している(S222)。
 ステップS222の結果、目的地に達していない場合(S222→No)、自律移動装置1cの制御部100はステップS217へ処理を戻す。
 ステップS222の結果、目的地に達している場合(S222→Yes)、自律移動装置1cの制御部100はステップS223~S228の更新処理を始める。
 まず、自律移動装置1cの更新処理部105は、自身の記憶部101に蓄積したセンサデータ(レーザスキャンデータなど)を管理装置2へアップロードする(S223)。
 次に、管理装置2の検出部203がアップロードされたセンサデータから、エリア毎に各種目印情報を抽出する(S224)。目印情報は使用される位置推定方式や、センサデータを取得したセンサ102の種類毎に抽出される。
 そして、管理装置2の更新処理部204が、抽出した目印情報を基に目印情報の種類ごとの位置推定精度を算出する(S225)。具体的には、走行路情報の閾値や、走行状態(スムーズ、ぎくしゃく、頻繁停止)や、抽出した目印情報を基に、更新処理部105は位置推定精度を算出する。なお、ここで、算出される位置推定精度は、図9、図10における実績位置推定精度である。
 そして、管理装置2の格納処理部205が、抽出した目印情報を管理装置2の記憶部201に格納し、算出した位置推定精度および公開可否(公開/非公開)を走行路情報に格納することで走行路情報の更新を行う(S226)。公開可否の情報は、後記する一般登録者が携帯機器3で撮影した画像を管理装置2へ送信する際に入力される情報である。ステップS226の段階で、公開可否を変更するかどうかは、自律移動装置1cの更新処理部105が、ステップS223におけるセンサデータのアップロード前に、入出力部109を介して、走行路情報の公開可否を搭乗者に確認し、その確認結果を公開可否の情報としてもよい。このように、公開可否の情報を含むことは、自宅内など個人情報の保護につながる。
 管理装置2の制御部200は、すべてのエリアについて、ステップS224~S226の更新処理を完了したか否かを判定する(S227)。
 ステップS227の結果、更新処理を完了していないエリアが存在する場合(S227→No)、制御部200はステップS224へ処理を戻し、次のエリアについて処理を行う。
 ステップS227の結果、すべてのエリアについて更新処理を完了している場合(S227→Yes)、更新処理部204は、目印情報および走行路情報の登録処理が終わったことを自律移動装置1cへ通知し、自律移動装置1cの更新処理部105が、自身の記憶装置に格納されているセンサデータを消去するとともに、管理装置2の格納処理部205がアップロードされたセンサデータおよび目印情報を消去するといった各種情報の消去が行われた(S223)後、自律移動システムZは処理を終了し、移動制御部107は、自身を配車センタへ帰還させる。
 なお、第2実施形態では、管理装置2において、すべての位置推定精度が更新されているが、算出された位置推定精度が、現在記憶されている位置推定精度より高い場合、管理装置2の更新処理部204が、該当するエリアの位置推定精度を、新たに算出された位置推定精度に更新するようにしてもよい。
 また、更新処理部105は、現在記憶されていない新たな種類の目印情報が検出された場合に、その目印情報を追加するようにしてもよい。
 また、図11および図12の処理では、管理装置2が、事経路中に推定困難エリアが存在するか否かを事前にチェックしているが、第1実施形態のように、自律移動装置1cが走行しながら、現在走行中のエリアが推定困難エリアであるか否かを判定してもよい。
 また、図11および図12の処理では、推定困難エリアで手動操縦するか、遠隔操縦するかが、走行前に選択されているが、第1実施形態のように、自律移動装置1cが推定困難エリアに到達してから、手動操縦するか、遠隔操縦するかを搭乗者に選択させるようにしてもよい。
 図13は、一般登録者による目印情報の登録処理の手順を示すフローチャートである。
 まず、一般登録者は、手持ちのカメラ付き情報通信機器で、自律走行をさせたい場所の画像を撮影する(S301)。このとき、一般登録者が自転車や自動車に乗って撮影すれば、広い範囲の地図を短時間で撮影できる。
 次に、一般登録者は、撮影した画像を含む登録情報を管理装置2にアップロードする(S302)。このとき、一般登録者は、カメラ付き情報通信機器のGPS機能や、電子水準器などを利用して、緯度、経度、向きのデータもアップロードする。また、一般登録者は、公開可否情報も画像とともにアップロードする。画像、緯度、経路、向き、公開可否情報をまとめて登録情報と称することとする。
 管理装置2の格納処理部205は、登録情報を受信すると、記憶部201に登録されている登録情報の中から、受信した登録情報の近傍かつ以前に登録された登録情報を取得する(S303)。近傍であるか否かは、走行路情報における登録情報ファイル名と種別の欄に記述されている緯度、経度などの情報を基に判定される。
 そして、管理装置2の検出部203は、アップロードされた登録情報と、近傍の登録情報を必要に応じて利用し、アップロードされた登録情報から目印情報を抽出する(S304)。
 そして、抽出結果を基に、管理装置2の更新処理部204が、抽出した目印情報を基に位置推定精度を算出する(S306)。位置推定精度の算出は、前記した予想位置推定精度の算出方法に従って行われる。
 そして、管理装置2の格納処理部205が目印情報、位置推定精度、公開可否情報の各種情報を記憶部201に登録する(S305)。ここで、位置推定精度、公開可否情報は走行路情報に格納される。
 このとき、格納処理部205が、一般登録者が該当エリアの所有者か否かの認証を行い、一般登録者が所有者でない私有地だった場合、格納処理部205は、一般登録者の意思に拘わらず、走行路情報の公開可否(図9)の方法「非公開」にすることが好ましい。
 ここで、格納処理部205は、アップロードされた登録情報も記憶部201に格納する(S307)。
 ここで、更新処理部204は、ステップS305で算出された位置推定精度が所定の値以下であるか否かを判定する(S308)。
 ステップS308の結果、算出された位置推定精度が所定の値より大きい場合(S308→No)、管理装置2の制御部200は一般登録者による目印情報の登録処理を終了する。
 ステップS308の結果、算出された位置推定精度が所定の値以下の場合(S308→Yes)、管理装置2の更新処理部204は、登録情報が撮影された位置や、向きなどを基に、位置推定精度が向上する目印情報が得られるような位置、向きの画像データの要求(追加要求情報)を一般登録者に提示した(S309)後、制御部200は、一般登録者による目印情報の登録処理を終了する。ステップS309で提示される内容は、更新処理部204が自動で検出してもよいし、管理装置2を運用している管理者が目視で検出してもよい。ステップS309における追加要求情報の提示は、次回一般登録者が画像を撮影するときの参考になり、目印情報や、位置推定精度の拡充の効率化を図ることができる。なお、ステップS308、S309の処理は省略してもよいし、算出された位置推定精度の値に関わりなく、管理装置2の更新処理部204がステップS309における追加要求画像情報の提示を行うようにしてもよい。
 目印情報の抽出や、位置推定精度の算出は管理装置2側で行ってもよいが、一般登録者に行ってもらい、抽出結果を管理装置2へ送信する方法を用いてもよい。例えば、画像内の路肩に段差があるか否か、その段差の概略高さはいくらか、画像内の特定の位置から特定の位置までの間に電信柱が何本立っているかなどを一般登録者が判断して、管理装置2へ送信してもよい。また、走行レーンに関する情報などの走行路情報も一般登録者に行ってもらってもよい。
 第2実施形態に係る自律移動システムZは、カメラ付携帯電話や、スマートフォンなど多くの人が所有している携帯機器3を利用することにより、多くの人の協力を得て目印情報や、位置推定精度を拡充できるので、管理者に労力が集中せず、また、使用したい人が自分の使用したい場所の目印情報を自分で登録できるので、結果的にコスト削減に繋がる。
 また、第2実施形態に係る自律移動システムZは、走行路情報に公開可否の情報を付加することで、私有地などの情報を公表することなく、プライバシーとセキュリティを保つことができる。
[第3実施形態]
 次に、図14および図15を参照して、本発明の第3実施形態について説明する。第3実施形態は、自律移動装置1dのテスト走行などの結果を基に、自律移動装置1dが走行できるか否かを外部で判定してもらう際に、センサデータをマスクするものである。
(システム構成)
 図14は、第3実施形態に係る自律移動システムの構成例を示す図である。なお、図14において、第1実施形態および第2実施形態と同様の構成要素については、同一の符号を付して説明を省略する。
 自律移動システムZaは、自律移動装置1d、管理装置2、前処理用装置6を有している。
 自律移動装置1dは、図8における自律移動装置1cに特定情報用記憶部115を加えた構成を有している。なお、自律移動装置1dは、図1、図6、図7の構成に特定情報用記憶部115を加えた構成でもよい。
 特定情報用記憶部115は、建物の配置や内部構造を部外者に知られたくない場所の目印情報や、センサデータを管理装置2に登録せずに、自身で格納管理するための記憶部である。
 なお、第3実施形態に係る自律移動装置1dはシェアリングではなく、特定ユーザのみが使用できる機体であることが望ましい。
 管理装置2は、図8における管理装置2と同様の構成である。
 前処理用装置6には、前処理用ソフトウェア601が実行されている。前処理用ソフトウェア601は、部外者に知られたくない場所の目印情報や、センサデータをマスクするためのソフトウェアである。
 第3実施形態において、センサデータは前処理用装置6を経由して管理装置2へ送られる。
 自律移動装置1dが走行などを開始するときには、自律移動装置1dは、経由するエリアのうち、公開エリア(走行路情報の公開可否の情報が「公開」となっているエリア)の目印情報や、走行路情報は管理装置2からダウンロードし、管理装置2に非登録で、特定情報用記憶部115に記憶しているエリアの目印情報や、走行路情報は、特定情報用記憶部115からコピーして使用する。また、自律移動装置1dを導入するときのセンサ102の構成や、位置推定精度を検討する際には、部外者がエリアに立ち入ることなく検討できるよう、前処理用装置6における前処理用ソフトウエア601を使用して、マスクをかけた上で位置推定精度の算出を行う。前処理用ソフトウエア601はセンサデータから位置推定精度を判定可能な特徴を維持し、かつ、物体認識可能特徴を減少させるソフトウエアである。前処理とは、センサデータに対して人間が視覚的には空間形状が把握できない状態で、かつ、形状の空間周波数などの特徴は残すよう処理するものである。前処理用ソフトウェア601は、具体的には、色を除去し、形状をボクセルに分割した後、ボクセルをランダムに混ぜるなどの処理を行うことで前処理を行う。
 図15は、第3実施形態に係る地図データ判定処理の手順を示すフローチャートである。
 まず、自律移動装置1dの制御部100は、走行可能か否かの判定を行う判定対象情報として、管理装置2に登録済みの目印情報や、センサデータや、地図データや、カメラによる画像などの登録済み情報を使用するか否かをユーザに問合せる画面を、例えば前処理用装置6の表示画面に表示し、ユーザの入力を基に判定対象情報として、登録済み情報を使用するか否かを判定する(S401)。
 ステップS401の結果、登録済み情報を使用する場合(S401→Yes)、ユーザは入出力部109に表示されている経路地図から、判定対象エリアを選択し(S402)、そのエリアのエリア番号を管理装置2へ送信する。
 そして、管理装置2の制御部200は、ステップS402で選択されたエリアの登録済み情報を記憶部201から取得し(S403)、ステップS408へ処理を進める。ステップS408以降の処理については後記する。
 ステップS401の結果、登録済み情報を使用しない場合(S401→No)、つまり、管理装置2に目印情報や、センサデータなどが登録されていないエリアであり、かつ部外者に知られたくないエリアにおける走行の可否を検討したい場合、ユーザは、自身が使用している前処理用装置6に前処理用ソフトウエアをダウンロードする(S404)。
 そして、自律移動装置1dが、走行想定経路を移動しながら、搭載したビデオカメラやスチルカメラや、レーザスキャン(すなわち、センサ102)などで動画や、一定間隔での連続画像を撮影したり、通常の走行と同様にセンサ102によるセンサデータの取得を行いながら走行することでセンサデータを取得する(S405)。この場合のセンサデータには、第1実施形態や、第2実施形態におけるセンサデータに加え、ビデオカメラや、スチルカメラによる画像も含まれる。
 そして、ユーザが撮影したセンサデータを、前処理用装置6へ送信あるいは入力した後、前処理用装置6の前処理用ソフトウエア601が、センサデータに対して前処理を実行し(S406)、前処理後のセンサデータを管理装置2へアップロードする(S407)。
 その後、ユーザは、センサデータ取得条件として、動画、静止画、連続取得間隔、撮影高さなどの撮影条件を前処理用装置6に入力する(S408)。それから、ユーザは、導入予定の自律移動装置1dへのセンサ102の取り付け条件を前処理用装置6に入力する(S409)。取り付け条件は、具体的には、センサ102(カメラや、レーザスキャンなど)の種類、取り付け高さ、取り付け向き、センサ102の周囲に遮るものがない角度などである。なお、ステップS403で登録済み情報が管理装置2に送られている場合、以下の処理を登録済み情報に対して行う。
 前処理用装置6は、ステップS408、S409で入力した各種条件を、管理装置2へアップロードし、管理装置2の更新処理部204は、位置推定精度の算出を行いやすいようセンサデータを適宜加工した後、センサデータ取得条件や、取り付け条件に応じて位置推定精度を算出する(S410)。
 そして、管理装置2の更新処理部204は、算出した位置推定精度を前処理用装置6などに送信し、前処理用装置6は送信された位置推定精度を表示画面に表示することで、ユーザに提示する(S411)。
 ユーザは、提示された位置推定精度を確認し、条件を変えて、再度位置推定精度の算出を行うか否かの判定を行う(S412)。
 ステップS412の結果、条件を変えてもう一度位置推定精度の算出を行う場合(S412→Yes)、自律移動システムZaはステップS408へ処理を戻し、ユーザが異なる条件を前処理用装置6に入力する。
 ステップS412の結果、再度位置推定精度を算出することを行わない場合(S412→No)、ユーザは前処理用装置6を介して、処理を終了する旨の通知を管理装置2へ送信し、管理装置2の格納処理部205は、ステップS407などでアップロードされた管理装置2内のセンサデータを消去して(S413)、処理を終了する。
 第3実施形態に係る自律移動システムZaは、部外者に知られたくないエリアの情報の流出を心配することがないシステムである。管理装置2も、位置推定精度の算出プログラムを外部に出すことなく、セキュリティを向上させることができる。また、第3実施形態に係る自律移動システムZaは、センサデータ取得条件や、取り付け条件を基に位置推定精度を算出しているので、ユーザは使用エリアに応じた最適なセンサ102の構成を検討可能である。
 自律移動装置1,1e,1b,1cにおける処理部100や、各部103~114は、 ROM(Read Only Memory)に格納されたプログラムが、RAM(Random Access Memory)に展開され、CPU(Central Processing Unit)によって実行されることによって具現化する。
 管理装置2は、サーバなどのコンピュータであり、ROMや、HD(Hard Disk)に格納されたプログラムが、RAMに展開され、CPUによって実行されることによって具現化する。
 1,1a,1c,1d 自律移動装置
 2   管理装置
 3   携帯機器(通信機器)
 4   配車装置
 5   遠隔操縦装置
 6   前処理用装置
 100 制御部(自律移動装置)
 101 記憶部
 102 センサ
 103 経路決定部(自律移動装置)
 104 検出部(自律移動装置)
 105 更新処理部(自律移動装置)
 106 位置推定部
 107 移動制御部
 108 移動機構
 109 入出力部
 110 手動操縦部
 111 遠隔操縦部
 112 環境特徴検出部
 113 環境特徴意味記憶部
 114 通信部(自律移動装置)
 115 登録情報記憶部
 200 制御部(管理装置)
 201 記憶部(管理装置)
 202 経路決定部(管理装置)
 203 検出部(管理装置)
 204 更新処理部(管理装置)
 205 格納処理部
 206 通信部(管理装置)
 207 汎用通信部
 601 前処理用ソフトウェア
 Z,Za 自律移動システム

Claims (20)

  1.  記憶部に格納されており、自己位置の推定精度である位置推定精度を基に、自律移動する自律移動装置における自律移動方法であって、
     前記自律移動装置は、
     センサを介して、走行中に収集したセンサデータを基に、前記位置推定精度を算出し、前記記憶部に格納されている位置推定精度を更新する
     ことを特徴とする自律移動方法。
  2.  前記位置推定精度が、走行路を分割してエリア毎に設定されている
     ことを特徴とする請求の範囲第1項に記載の自律移動方法。
  3.  前記自律移動装置は、
     前記位置推定精度毎に、異なった手法による走行を行う
     ことを特徴とする請求の範囲第1項に記載の自律移動方法。
  4.  前記自律移動装置は、
     前記位置推定精度が所定の精度以下の前記エリアでは、手動による移動を行い、
     前記位置推定精度が所定の精度より大きい前記エリアでは、自律移動を行う
     ことを特徴とする請求の範囲第3項に記載の自律移動方法。
  5.  前記自律移動装置は、
     前記位置推定精度が所定の精度以下の前記エリアでは、遠隔操作による移動を行い、
     前記位置推定精度が所定の精度より大きい前記エリアでは、自律移動を行う
     ことを特徴とする請求の範囲第3項に記載の自律移動方法。
  6.  前記自律移動装置は、
     前記センサデータから抽出される、自己位置の推定に使用される目印情報が、新たな目印情報である場合、当該新たな目印情報に関する情報を記憶部に格納する
     ことを特徴とする請求の範囲第1項に記載の自律移動方法。
  7.  前記自律移動装置は、
     前記センサデータを基に、走行路に設置されている走行に関する情報である環境特徴を抽出し、
     前記位置推定精度が所定の精度以下の前記エリアでは、前記環境特徴に従った移動を行い、
     前記位置推定精度が所定の精度より大きい前記エリアでは、自律移動を行う
     ことを特徴とする請求の範囲第2項に記載の自律移動方法。
  8.  記憶部に格納されており、自己位置の推定精度である位置推定精度を基に、自律移動する自律移動装置と、
     前記位置推定精度を記憶部に格納している管理装置と、
     を有する自律移動システムにおける自律移動方法であって、
     前記管理装置は、
     一般登録者が所有する通信機器から送信されたデータを基に、前記位置推定精度を算出し、前記管理装置の記憶部に、当該算出した位置推定精度を前記管理装置の前記記憶部格納し、
     前記自律移動装置は、
     前記管理装置から送信された位置推定精度を基に、自律移動する
     ことを特徴とする自律移動方法。
  9.  前記位置推定精度が、走行路を分割したエリア毎に設定されている
     ことを特徴とする請求の範囲第8項に記載の自律移動方法。
  10.  前記自律移動装置は、
     前記位置推定精度毎に、異なった手法による走行を行う
     ことを特徴とする請求の範囲第8項に記載の自律移動方法。
  11.  前記自律移動装置は、
     前記位置推定精度が所定の精度以下の前記エリアでは、手動による移動を行い、
     前記位置推定精度が所定の精度より大きい前記エリアでは、自律移動を行う
     ことを特徴とする請求の範囲第10項に記載の自律移動方法。
  12.  前記自律移動装置は、
     前記位置推定精度が所定の精度以下の前記エリアでは、遠隔操作による移動を行い、
     前記位置推定精度が所定の精度より大きい前記エリアでは、自律移動を行う
     ことを特徴とする請求の範囲第10項に記載の自律移動方法。
  13.  前記通信機器から送信されたデータには、当該送信されたデータが取得された状況に関する情報が含まれており、
     前記管理装置は、
     前記状況に関する情報を基に、前記送信されたデータが取得された状況とは異なる状況におけるデータを送信する旨の要求を前記通信機器へ送信する
     ことを特徴とする請求の範囲第8項に記載の自律移動方法。
  14.  前記自律移動システムは、
     配車装置をさらに有し、
     前記配車装置は、
     前記管理装置から送信される配車情報を基に、前記自律移動装置を、所定の場所へ配車する
     ことを特徴とする請求の範囲第8項に記載の自律移動方法。
  15.  前記自律移動システムは、
     前処理用装置をさらに有し、
     前記前処理用装置は、
     入力装置を介して入力される情報を基に、前記自律移動装置から取得したセンサデータの一部を加工して、前記加工後のセンサデータを前記管理装置へ送信し、
     前記管理装置は、
     前記送信された加工後のセンサデータを基に、前記位置推定精度を算出する
     ことを特徴とする請求の範囲第8項に記載の自律移動方法。
  16.  前記管理装置は、
     入力部を介して、前記自律移動装置における前記センサに関する情報が入力され、
     算出された前記位置推定精度とともに、前記センサに関する情報を出力する
     ことを特徴とする請求の範囲第8項に記載の自律移動方法。
  17.  センサを介して、走行中に収集したセンサデータを基に、自己位置の推定精度であ位置推定精度を算出し、記憶部に格納されている位置推定精度を更新する更新処理部と、
     前記位置推定精度を基に、自律移動を行う制御部
     を有することを特徴とする自律移動装置。
  18.  前記位置推定精度が、走行路を分割したエリア毎に設定されている
     ことを特徴とする請求の範囲第17項に記載の自律移動装置。
  19.  前記制御部は、
     前記位置推定精度毎に、異なった手法による走行を行う
     ことを特徴とする請求の範囲第18項に記載の自律移動装置。
  20.  前記自律移動装置は、搭乗者が搭乗する
     ことを特徴とする請求の範囲第17項に記載の自律移動装置。
PCT/JP2011/076056 2011-11-11 2011-11-11 自律移動方法および自律移動装置 WO2013069147A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/076056 WO2013069147A1 (ja) 2011-11-11 2011-11-11 自律移動方法および自律移動装置
US14/355,075 US20140297090A1 (en) 2011-11-11 2011-11-11 Autonomous Mobile Method and Autonomous Mobile Device
JP2013542783A JP5905483B2 (ja) 2011-11-11 2011-11-11 自律移動方法および自律移動装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/076056 WO2013069147A1 (ja) 2011-11-11 2011-11-11 自律移動方法および自律移動装置

Publications (1)

Publication Number Publication Date
WO2013069147A1 true WO2013069147A1 (ja) 2013-05-16

Family

ID=48288769

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/076056 WO2013069147A1 (ja) 2011-11-11 2011-11-11 自律移動方法および自律移動装置

Country Status (3)

Country Link
US (1) US20140297090A1 (ja)
JP (1) JP5905483B2 (ja)
WO (1) WO2013069147A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179414A (ja) * 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法
JP2015191264A (ja) * 2014-03-27 2015-11-02 株式会社ニコン 自律走行車両
JP2015230552A (ja) * 2014-06-04 2015-12-21 住友電気工業株式会社 自律運転制御装置、車両、コンピュータプログラム、及び自律運転制御方法
WO2016038931A1 (ja) * 2014-09-11 2016-03-17 本田技研工業株式会社 運転支援装置
JP2016095851A (ja) * 2014-11-13 2016-05-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 自律的な乗客用の乗り物のためのコンピューティング装置、コンピュータにより実施される方法及びシステム
WO2019167210A1 (ja) * 2018-02-28 2019-09-06 本田技研工業株式会社 制御装置、移動体及びプログラム
WO2019167203A1 (ja) * 2018-02-28 2019-09-06 本田技研工業株式会社 制御装置、作業機械及びプログラム
JP2019168812A (ja) * 2018-03-22 2019-10-03 ヤンマー株式会社 自動走行システム
JPWO2018189770A1 (ja) * 2017-04-10 2019-11-07 三菱電機株式会社 地図管理装置および自律移動体制御装置
JP2020086817A (ja) * 2018-11-22 2020-06-04 トヨタ自動車株式会社 移動指示システム
JP2020194528A (ja) * 2020-03-16 2020-12-03 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム
JP2021096703A (ja) * 2019-12-18 2021-06-24 株式会社豊田自動織機 走行制御装置
JPWO2021161678A1 (ja) * 2020-02-12 2021-08-19
JPWO2021166620A1 (ja) * 2020-02-21 2021-08-26
JP2022079777A (ja) * 2017-01-31 2022-05-26 パイオニア株式会社 情報処理装置
JP2023019708A (ja) * 2021-07-29 2023-02-09 キヤノン株式会社 情報処理装置、情報処理方法、自律走行ロボット装置、及びコンピュータプログラム
JP7497686B2 (ja) 2021-01-19 2024-06-11 株式会社豊田自動織機 産業車両

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US9801517B2 (en) 2015-03-06 2017-10-31 Wal-Mart Stores, Inc. Shopping facility assistance object detection systems, devices and methods
US9733096B2 (en) 2015-06-22 2017-08-15 Waymo Llc Determining pickup and destination locations for autonomous vehicles
CN105116900B (zh) * 2015-08-28 2017-07-25 浙江工业大学 基于Nash迭代的分布式多移动机器人编队控制方法
JP6760743B2 (ja) * 2016-03-11 2020-09-23 株式会社ゼンリン 移動体位置特定システム
JP6387548B2 (ja) * 2016-03-14 2018-09-12 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
CN107272727B (zh) * 2016-04-01 2022-02-01 松下电器(美国)知识产权公司 自主移动体
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
CN107333245B (zh) 2017-06-16 2020-08-07 华为技术有限公司 一种机动车辆自动驾驶方法及终端设备
CN111033423B (zh) * 2018-04-18 2023-11-21 百度时代网络技术(北京)有限公司 用于评估自动驾驶车辆的定位系统的方法
US11656617B1 (en) * 2018-12-27 2023-05-23 United Services Automobile Association (Usaa) Remote pilot of vehicle during unsafe driving conditions
DE102019204267A1 (de) * 2019-03-27 2020-10-01 Robert Bosch Gmbh Verfahren zur Steuerung zumindest eines autonomen Arbeitsgeräts
KR102289874B1 (ko) * 2020-01-09 2021-08-13 국방과학연구소 대상 물체의 위치를 추정하는 장치 및 방법
DE102022206725A1 (de) * 2022-06-30 2024-01-04 Mercedes-Benz Group AG Verfahren zur Verarbeitung von Poseninformationen in einem zumindest teilweise automatisierten Fahrzeug und/oder Roboter

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184521A (ja) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp 自動配車システム
JP2003256047A (ja) * 2001-12-28 2003-09-10 Yamaha Motor Co Ltd 自動誘導タイプ乗用移動車
JP2005062083A (ja) * 2003-08-19 2005-03-10 Komatsu Engineering Corp 位置誤差補正機能を持つ測量システム
JP2007322138A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp 移動装置及び移動装置の自己位置推定方法
JP2010152835A (ja) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd 無人移動体システム
JP2011065308A (ja) * 2009-09-16 2011-03-31 Hitachi Ltd 自律移動システム及び自律移動装置
JP2011064523A (ja) * 2009-09-16 2011-03-31 Hitachi Ltd 測位組み合わせ決定システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7499776B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation Systems and methods for control of an unmanned ground vehicle
US7499804B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation System and method for multi-modal control of an autonomous vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184521A (ja) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp 自動配車システム
JP2003256047A (ja) * 2001-12-28 2003-09-10 Yamaha Motor Co Ltd 自動誘導タイプ乗用移動車
JP2005062083A (ja) * 2003-08-19 2005-03-10 Komatsu Engineering Corp 位置誤差補正機能を持つ測量システム
JP2007322138A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp 移動装置及び移動装置の自己位置推定方法
JP2010152835A (ja) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd 無人移動体システム
JP2011065308A (ja) * 2009-09-16 2011-03-31 Hitachi Ltd 自律移動システム及び自律移動装置
JP2011064523A (ja) * 2009-09-16 2011-03-31 Hitachi Ltd 測位組み合わせ決定システム

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179414A (ja) * 2014-03-19 2015-10-08 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム及び撮影情報共有方法
JP2015191264A (ja) * 2014-03-27 2015-11-02 株式会社ニコン 自律走行車両
JP2015230552A (ja) * 2014-06-04 2015-12-21 住友電気工業株式会社 自律運転制御装置、車両、コンピュータプログラム、及び自律運転制御方法
WO2016038931A1 (ja) * 2014-09-11 2016-03-17 本田技研工業株式会社 運転支援装置
JPWO2016038931A1 (ja) * 2014-09-11 2017-04-27 本田技研工業株式会社 運転支援装置
US10604155B2 (en) 2014-09-11 2020-03-31 Honda Motor Co., Ltd. Driving assistance device
JP2016095851A (ja) * 2014-11-13 2016-05-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 自律的な乗客用の乗り物のためのコンピューティング装置、コンピュータにより実施される方法及びシステム
JP2022079777A (ja) * 2017-01-31 2022-05-26 パイオニア株式会社 情報処理装置
JPWO2018189770A1 (ja) * 2017-04-10 2019-11-07 三菱電機株式会社 地図管理装置および自律移動体制御装置
JPWO2019167203A1 (ja) * 2018-02-28 2020-12-03 本田技研工業株式会社 制御装置、作業機械及びプログラム
WO2019167210A1 (ja) * 2018-02-28 2019-09-06 本田技研工業株式会社 制御装置、移動体及びプログラム
US11718976B2 (en) 2018-02-28 2023-08-08 Honda Motor Co., Ltd. Control apparatus, work machine, control method, and computer readable storage medium
JPWO2019167210A1 (ja) * 2018-02-28 2020-10-22 本田技研工業株式会社 制御装置、移動体及びプログラム
WO2019167203A1 (ja) * 2018-02-28 2019-09-06 本田技研工業株式会社 制御装置、作業機械及びプログラム
JP2019168812A (ja) * 2018-03-22 2019-10-03 ヤンマー株式会社 自動走行システム
JP2020086817A (ja) * 2018-11-22 2020-06-04 トヨタ自動車株式会社 移動指示システム
JP7215107B2 (ja) 2018-11-22 2023-01-31 トヨタ自動車株式会社 移動指示システム
JP2021096703A (ja) * 2019-12-18 2021-06-24 株式会社豊田自動織機 走行制御装置
JP7347194B2 (ja) 2019-12-18 2023-09-20 株式会社豊田自動織機 走行制御装置
JPWO2021161678A1 (ja) * 2020-02-12 2021-08-19
JP7265677B2 (ja) 2020-02-12 2023-04-26 ヤマハモーターパワープロダクツ株式会社 車両およびそれに用いられる携帯端末
JPWO2021166620A1 (ja) * 2020-02-21 2021-08-26
JP7255743B2 (ja) 2020-02-21 2023-04-11 株式会社デンソー 管制装置、駐車場システム及び位置精度算出方法
JP7285799B2 (ja) 2020-03-16 2023-06-02 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム
JP2020194528A (ja) * 2020-03-16 2020-12-03 東京海上日動火災保険株式会社 事故分析装置、事故分析方法及びプログラム
JP7497686B2 (ja) 2021-01-19 2024-06-11 株式会社豊田自動織機 産業車両
JP2023019708A (ja) * 2021-07-29 2023-02-09 キヤノン株式会社 情報処理装置、情報処理方法、自律走行ロボット装置、及びコンピュータプログラム
JP7447060B2 (ja) 2021-07-29 2024-03-11 キヤノン株式会社 情報処理装置、情報処理方法、自律走行ロボット装置、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP5905483B2 (ja) 2016-04-20
JPWO2013069147A1 (ja) 2015-04-02
US20140297090A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP5905483B2 (ja) 自律移動方法および自律移動装置
JP5901779B2 (ja) 画像データベース地図サービスからアシストシステム内にデータを移す方法
US10282861B2 (en) Pose error estimation and localization using static features
US11538342B2 (en) Method for providing parking space guide service
US9031779B2 (en) System and method for hazard detection and sharing
KR101505871B1 (ko) 주차 위치 확인시스템 및 이를 이용한 주차 위치 확인방법
US10553113B2 (en) Method and system for vehicle location
US11183056B2 (en) Electronic device for generating map data and operating method therefor
WO2016174670A1 (en) A method and system for automatically detecting and mapping points-of-interest and real-time navigation using the same
CN112585659A (zh) 一种导航方法、装置和系统
KR101643292B1 (ko) 주차 위치 확인 시스템 및 이를 이용한 주차 위치 확인 방법
US20230016153A1 (en) Map Feature Identification Using Motion Data and Surfel Data
WO2020085142A1 (ja) 計測装置及び計測システム
US20220281486A1 (en) Automated driving vehicle, vehicle allocation management device, and terminal device
Somyat et al. NavTU: android navigation app for Thai people with visual impairments
US11783574B2 (en) Artificial intelligence based real time vehicle parking verification
JP2011113245A (ja) 位置認識装置
JP6810723B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20210154833A (ko) 교통 참가자를 안내하기 위한 컴퓨터 구현 방법
JP2021105754A (ja) 車載処理装置、及び車載処理システム
US20240159558A1 (en) Systems and Methods for Detecting and Mapping User Location with Vehicle Sensors
CN112205010B (zh) 基于智能地址牌的用于位置确定的辅助定位和导航的系统和方法
JP2023516507A (ja) 改良された乗り物運用区域検知
JP2024000677A (ja) 駐車場マップ生成システムおよび駐車場マップ生成プログラム
JP2022003437A (ja) 移動体の制御システム及び制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11875336

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14355075

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013542783

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11875336

Country of ref document: EP

Kind code of ref document: A1