WO2020189832A1 - 자율주행 차량을 이용한 운송 서비스 제공 방법 - Google Patents

자율주행 차량을 이용한 운송 서비스 제공 방법 Download PDF

Info

Publication number
WO2020189832A1
WO2020189832A1 PCT/KR2019/003323 KR2019003323W WO2020189832A1 WO 2020189832 A1 WO2020189832 A1 WO 2020189832A1 KR 2019003323 W KR2019003323 W KR 2019003323W WO 2020189832 A1 WO2020189832 A1 WO 2020189832A1
Authority
WO
WIPO (PCT)
Prior art keywords
stop
autonomous vehicle
area
destination
zone
Prior art date
Application number
PCT/KR2019/003323
Other languages
English (en)
French (fr)
Inventor
김중항
최성환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US16/490,501 priority Critical patent/US11332159B2/en
Priority to PCT/KR2019/003323 priority patent/WO2020189832A1/ko
Priority to KR1020197019823A priority patent/KR20200112630A/ko
Publication of WO2020189832A1 publication Critical patent/WO2020189832A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Definitions

  • the present invention relates to a method of providing a boarding/alighting service at a designated location to a user by using an autonomous vehicle.
  • buses and taxis are mainly used for transportation services using vehicles.
  • the bus moves along a designated route, there is a problem that convenience is inferior in that the destination of the occupant and the stop of the bus may be different.
  • An object of the present invention is to provide a boarding and disembarkation service at a designated location to a user using an autonomous vehicle.
  • an object of the present invention is to wait for a certain period of time in an area with low traffic congestion when the level of traffic congestion at the boarding and disembarkation point is high.
  • an object of the present invention is to determine whether boarding or disembarkation is possible based on an external image captured by an autonomous vehicle.
  • an object of the present invention is to sequentially move the autonomous vehicle to the boarding and disembarkation stations based on at least one of the waiting position and the waiting time of the autonomous vehicle waiting to move to the boarding and disembarkation sites.
  • an object of the present invention is to change a zone for getting on and off the vehicle when the waiting time is longer than a predetermined time, and to move the autonomous vehicle to the changed zone.
  • an object of the present invention is to inform adjacent vehicles of the occupancy of an area for the user's boarding and alighting or the occupancy of an area for the standby of an autonomous vehicle through vehicle-to-vehicle (V2V) communication.
  • V2V vehicle-to-vehicle
  • a method of providing a transport service using an autonomous vehicle for achieving the above object includes receiving driving information from a user terminal and identifying a destination based on the received driving information, the destination Generating a driving route to and transmitting it to an autonomous vehicle, if the autonomous vehicle is within a preset distance from the destination, identify a stop zone corresponding to the destination, and determine whether a stop is possible for the identified stop zone. According to the determining step and the determination result, a driving route to the stop zone is generated and transmitted to the autonomous vehicle, or a waiting area is set on the driving route to the destination and a driving route to the set waiting area is generated. And transmitting to the autonomous vehicle.
  • the present invention provides a boarding and disembarkation service at a designated location to a user using an autonomous vehicle, so that the occupants can freely set the boarding location and destination, and provide an economical transportation service by not paying labor costs for service use. I can.
  • the present invention can prevent the problem of passing a destination without allowing a user to board or alight in an area with high traffic congestion by waiting for a certain period of time in an area with a low traffic congestion level when the level of traffic congestion at the getting on and off point is high.
  • the present invention may provide a boarding/alighting service in consideration of various external factors that are not predicted by an algorithm by determining whether boarding is possible based on an external image captured by an autonomous vehicle.
  • the present invention provides a transport service by sequentially moving the autonomous vehicle to the loading/unloading location based on at least one of the waiting position and the waiting time of the autonomous vehicle waiting to move to the getting on and off location, thereby providing a plurality of autonomous vehicles. It can be operated efficiently.
  • the user's waiting time for getting on and off can be reduced by changing a zone for getting on and off and moving the autonomous vehicle to the changed zone.
  • the present invention informs that the occupancy of an area for a user's boarding or a waiting area for a user or an autonomous driving vehicle is scheduled to be occupied by an adjacent vehicle through vehicle-to-vehicle (V2V) communication. Collision between general vehicles can be prevented.
  • V2V vehicle-to-vehicle
  • FIG. 1 is a view showing a transport service providing system according to an embodiment of the present invention.
  • FIG. 2 is an internal block diagram of the server and the autonomous vehicle shown in FIG. 1;
  • FIG. 3 is a flow chart illustrating a method for providing a transport service according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a process of inputting driving information through a user terminal.
  • FIG. 5 is a flow chart for explaining a process of determining whether a stop is possible according to a traffic congestion level.
  • FIG. 6 is a diagram for explaining a stop zone and a waiting zone.
  • FIG. 7 is a diagram showing an augmented image displayed on an autonomous vehicle when entering a stop zone.
  • FIG. 8 is a diagram showing an augmented image displayed on an autonomous vehicle when entering a waiting area.
  • FIG. 9 is a view showing a plurality of waiting points included in the waiting area.
  • FIG. 10 is a diagram illustrating an augmented image displayed on an adjacent vehicle when an autonomous vehicle approaches a stop zone.
  • 11 is a flowchart illustrating a process of guiding an autonomous vehicle entering a waiting area to a stopping area.
  • FIG. 12 is a view for explaining a process of determining that the autonomous vehicle is impossible to stop in a stop zone.
  • FIGS. 13A and 13B are diagrams each showing an augmented image and a map image displayed on a user terminal when a stop zone is changed.
  • the present invention relates to a method of providing a boarding/alighting service at a designated location to a user by using an autonomous vehicle.
  • the present invention to be described later provides a boarding and disembarkation service at a designated location to a user using an autonomous vehicle, thereby allowing the occupant to freely set the boarding location and destination, and to avoid paying labor costs for service use. It relates to how to make sure you are provided with transport services.
  • FIG. 1 is a diagram illustrating a system for providing a transportation service according to an embodiment of the present invention
  • FIG. 2 is a block diagram illustrating the server and the autonomous vehicle shown in FIG. 1.
  • FIG. 3 is a flowchart illustrating a method for providing a transport service according to an embodiment of the present invention.
  • FIG. 4 is a diagram for describing a process of inputting driving information through a user terminal.
  • FIG. 5 is a flowchart illustrating a process of determining whether a vehicle can be stopped according to a traffic congestion level
  • FIG. 6 is a diagram illustrating a stopping area and a waiting area.
  • FIG. 7 is a diagram illustrating an augmented image displayed on an autonomous vehicle when entering a stop zone
  • FIG. 8 is a diagram illustrating an augmented image displayed on an autonomous vehicle when entering a waiting area.
  • FIG. 9 is a diagram showing a plurality of waiting points included in the waiting area.
  • FIG. 10 is a diagram showing an augmented image displayed on an adjacent vehicle when an autonomous vehicle approaches a stop zone.
  • FIG. 11 is a flowchart illustrating a process of guiding an autonomous vehicle entering a waiting area to a stopping area.
  • FIG. 12 is a diagram for explaining a process of determining that the autonomous vehicle is unable to stop in a stop zone.
  • FIGS. 13A and 13B are diagrams respectively showing an augmented image and a map image displayed on a user terminal when a stop zone is changed.
  • the transportation service described in the present invention may include a boarding and alighting service. Accordingly, the transportation service may include a boarding service for a passenger to be boarded and an alighting service for a passenger.
  • a transport service providing system 1 may include a server 100, an autonomous vehicle 200, and a user terminal 300.
  • the transport service providing system 1 shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. 1, and some components may be added, changed or deleted as necessary. I can.
  • a target using a transport service is used interchangeably with terms such as a passenger, a passenger, and a user.
  • the server 100, the autonomous vehicle 200, and the user terminal 300 constituting the transport service providing system 1 may be connected through a wireless network to perform data communication with each other.
  • the user terminal 300 is a terminal of a user using a transportation service, and may be defined as a terminal of a passenger or a passenger.
  • the autonomous vehicle 200 may refer to a vehicle that drives itself to a destination without a driver's manipulation.
  • the self-driving vehicle 200 may be a concept including an arbitrary means of movement such as a car or a motorcycle, but hereinafter, for convenience of explanation, it is assumed that the autonomous vehicle 200 is a vehicle.
  • the autonomous vehicle 200 may be operated by a transport company, and a user may board the autonomous vehicle 200 in the process of providing a transport service to be described later.
  • a plurality of human machine interfaces may be provided inside the autonomous vehicle 200.
  • the HMI can perform the function of visually and aurally outputting vehicle information or status to the driver through a number of physical interfaces.
  • the HMI can receive various user operations to provide transportation services, and can output service-related contents to the user.
  • the server 100 may be built on a cloud basis, and may store and manage information collected from the autonomous vehicle 200 and the user terminal 300 connected through a wireless network. Such a server 100 may be managed by a transport company operating the autonomous vehicle 200 and may control the autonomous vehicle 200 using wireless data communication.
  • the server 100 may include a route generation module 110, a stop management module 120, a database 130, and a first communication module 140.
  • the autonomous vehicle 200 may include a display module 210, an autonomous driving module 220, a GPS module 230, a camera module 240, and a second communication module 250.
  • the internal configurations of the server 100 and the autonomous vehicle 200 shown in FIG. 2 are exemplary, and their components are not limited to the example shown in FIG. 2, and some components may be added or changed as necessary. Or it can be deleted.
  • the modules in the server 100 and the autonomous vehicle 200 are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), and FPGAs (field programmable gate arrays). ), processor (processors), controllers (controllers), micro-controllers (micro-controllers), microprocessors (microprocessors) may be implemented as at least one physical element.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processor processor
  • controllers controllers
  • micro-controllers micro-controllers
  • microprocessors microprocessors
  • a method of providing a transport service using an autonomous vehicle 200 is based on driving information received from the user terminal 300. Identifying a destination (S10), generating a driving route to the destination and transmitting it to the autonomous vehicle 200 (S20), determining whether the location of the autonomous vehicle 200 is within a preset distance from the destination It may include a step (S30).
  • the method of providing a transport service includes the step of identifying a stop area SA corresponding to the destination when the autonomous vehicle 200 is within a preset distance from the destination (S40), and whether a stop for the stop area SA is possible. It may include a determining step (S50).
  • the transportation service providing method may include a step (S60) of generating a driving route to the stopping area SA and transmitting it to the autonomous vehicle 200 when it is determined that stopping in the stopping area SA is possible. And, if it is determined that stopping in the stopping area SA is impossible, setting the waiting area WA (S70) and generating a driving route to the waiting area WA, and transmitting the driving route to the autonomous vehicle 200 It may include (S80).
  • This method of providing a transport service may be performed by the server 100 described above, and the server 100 includes the autonomous vehicle 200 and the user terminal 300 to perform the operation of each step shown in FIG. 3. And data communication.
  • the route generation module 110 in the server 100 may receive driving information from the user terminal 300 and identify a destination based on the received driving information (S10).
  • the first communication module 140 provided in the server 100 may perform wireless data communication with the user terminal 300 to receive driving information.
  • the user may input driving information through the user terminal 300.
  • an application (hereinafter, referred to as a transport application) related to a transport service may be installed in advance.
  • the transportation application may provide an interface for inputting driving information, and a user may input driving information through the corresponding interface.
  • the driving information may include information on a destination of the autonomous vehicle 200 in operation, and specifically, may include at least one of a boarding position (a boarding point) and a disembarking position (a drop-off position).
  • a boarding position a boarding point
  • a disembarking position a drop-off position
  • the driving information may include a boarding position at which the boarding prospective person wants to board.
  • the driving information may include the getting off position at which the occupant wants to get off.
  • the transport application may provide an address search window through the screen of the user terminal 300, and the user desires to board the location (Requested pickup location) address (31, Los Angeles Airport Terminal 1).
  • the route generation module 110 may receive the address 31 of the location where the user wishes to ride, as the ride location.
  • the transportation application may provide a map 32 through the screen of the user terminal 300, and the user may touch the location 33 to be boarded on the map 32.
  • the route generation module 110 may receive the location 33 touched by the user as a ride location.
  • the method for inputting a ride location described with reference to FIG. 4 may be used as it is for a user to input a location for getting off. Meanwhile, a method of inputting a boarding position and a disembarkation position is not limited to the method described in FIG. 4, and any method for specifying an address or a geographic location may be used.
  • the route generation module 110 may identify at least one of a boarding position and an alighting position included in the driving information as a destination.
  • the route generation module 110 may identify a boarding position included in the driving information as a destination.
  • the route generation module 110 may identify a disembarkation location included in the driving information as a destination.
  • the route generation module 110 can identify both the boarding location and the getting off location as sequential destinations of the autonomous vehicle 200. have.
  • the route generation module 110 may generate a driving route to the destination and transmit the generated driving route to the autonomous vehicle 200 (S20).
  • the route generation module 110 identifies the current location of the autonomous vehicle 200 through the GPS (Global Positioning System) module of the autonomous vehicle 200, and a driving route from the identified current location to the destination Can be created.
  • GPS Global Positioning System
  • the route generation module 110 may generate a driving route based on the traffic situation information, and for this purpose, the route generation module 110 is connected to the traffic information server 400 through a network to provide current traffic from the traffic information server 400.
  • Receive context information is a server that manages traffic-related information, such as road information, traffic congestion, and road conditions in real time, and may be a server operated by the state or the private sector.
  • a method of generating a driving route by reflecting the traffic condition information may follow any method used in the art, and a detailed description thereof will be omitted.
  • the driving route may be implemented as a map including route guidance information, and specifically, may be implemented as a high definition map (HD map) including 3D terrain data.
  • HD map high definition map
  • the path generation module 110 may transmit the generated driving path to the autonomous driving module 220 in the autonomous driving vehicle 200 through the first communication module 140.
  • the autonomous driving module 220 may receive a driving path through the second communication module 250 and may control the driving of the autonomous driving vehicle 200 according to the received driving path.
  • the autonomous driving vehicle 200 may move to a destination along a driving route without a separate user manipulation.
  • the stop management module 120 may determine whether the autonomous vehicle 200 is within a preset distance from the destination (S30).
  • the autonomous vehicle 200 may move to a destination along the above-described driving route.
  • the distance between the moving autonomous vehicle 200 and the destination may gradually decrease.
  • the stop management module 120 may determine whether the autonomous vehicle 200 has entered the destination within a preset distance by identifying the location of the autonomous vehicle 200 and comparing the distance between the identified location and the destination.
  • the stop management module 120 receives location information from the GPS module 230 in the autonomous vehicle 200 to identify the location of the autonomous vehicle 200, and compares the identified location with the location of the destination. Thus, it may be determined whether the autonomous vehicle 200 is within a preset distance from the destination.
  • the GPS module 230 in the autonomous vehicle 200 may receive a signal transmitted from a satellite and calculate the location information of the autonomous vehicle 200.
  • the GPS module 230 may transmit the calculated location information to the server 100 through the second communication module 250.
  • the stop management module 120 receives the location information of the autonomous vehicle 200 through the first communication module 140 to identify the current location of the autonomous vehicle 200 and determine the distance between the identified location and the destination. Can be calculated.
  • the stop management module 120 may continuously identify the current location of the autonomous vehicle 200. On the other hand, if the calculated distance is within a preset distance, the stop management module 120 may identify the stop area SA corresponding to the destination (S40). That is, the stop management module 120 may identify the stop area SA when the autonomous vehicle 200 approaches the destination.
  • the stop zone is an area where the autonomous vehicle 200 temporarily stops so that the user can get on the autonomous vehicle 200 or get off the autonomous vehicle 200, and the vehicle can be stopped systematically. Can be set by region.
  • a stop area SA corresponding to a destination may be stored in advance in the database 130 in the server 100.
  • the stop area SA corresponding to the destination is a parking lot of the first terminal (eg, A in FIG. 4 ). ) May be preset and stored in the database 130.
  • the stop management module 120 may refer to the database 130 to identify the stop area SA as the parking lot of the first terminal.
  • the stop management module 120 may determine whether or not the autonomous vehicle 200 can stop for the stop area SA (S50).
  • the stop management module 120 may determine whether a stop is possible for the stop area SA based on traffic information. More specifically, the stop management module 120 may determine whether a stop is possible for the stop area SA based on the traffic congestion level of the stop area SA.
  • the traffic congestion degree of the stop area SA is a parameter provided by the above-described traffic information server 400, and is expressed numerically according to the occupied state of the vehicle on the road of a certain area including the stop area SA. It can be a parameter. For example, when a number of vehicles occupy a road adjacent to the stop area (SA), the degree of traffic congestion may increase, and when only a few vehicles occupy a road adjacent to the stop area (SA), the traffic congestion level decreases. I can.
  • the stop management module 120 may perform data communication with the traffic information server 400 to identify the degree of traffic congestion in the stop area SA (S51). When the traffic congestion level is identified, the stop management module 120 may compare the traffic congestion level and a preset reference value (S52). This reference value may be statistically determined as a parameter for determining whether a vehicle can be stopped.
  • the stop management module 120 compares the traffic congestion level of the stop area SA and a reference value to determine the stop area SA, a state in which the autonomous vehicle 200 can be stopped, or the autonomous vehicle 200 It can be judged as a state in which it is impossible to stop, indicating that it is impossible to stop.
  • the stop management module 120 may determine the stop area SA as a stop impossible state (S53), and if the traffic congestion level is less than the reference value, the stop management module 120 It can be determined that the vehicle can be stopped (S54).
  • a stop area SA set on a driving route to a destination may be included in area A. Since area A is occupied by a number of vehicles, the traffic congestion level of area A may be higher than the reference value. In this case, the stop management module 120 may determine the stop zone SA as a stop impossible state.
  • the number of vehicles occupying area A may be a small number, and accordingly, traffic congestion in area A may be less than a reference value.
  • the stop management module 120 may determine the stop zone SA as a stopable state.
  • the route generation module 110 generates a driving route to the stop area SA according to the above-described determination result and transmits it to the autonomous vehicle 200 (S60), or transmits the waiting area WA on the driving route to the destination. After setting (S70), a driving route to the set waiting area WA may be generated and transmitted to the autonomous vehicle 200 (S80).
  • the route generation module 110 may generate a driving route to the stopping area SA and transmit it to the autonomous vehicle 200.
  • the method of generating the driving route to the stopping area SA is the same as the method described in step S30 shown in FIG. 3, and thus a detailed description thereof will be omitted.
  • the autonomous driving module 220 can move the autonomous vehicle 200 to the stopping area SA along the driving path to the stopping area SA, and the autonomous driving module 220 stops using an autonomous parking algorithm.
  • the autonomous vehicle 200 may be parked in the area SA.
  • an Augmented Reality engine may be mounted on the display module 210 in the autonomous vehicle 200. Accordingly, the display module 210 may output an augmented image for guiding the stop area SA through the windshield of the autonomous vehicle 200.
  • an augmented image indicating the stop area SA on the windshield of the autonomous vehicle 200 and the stop area SA An augmented image for indicating the direction may be displayed. The occupant can easily grasp the expected movement path of the autonomous vehicle 200 and the location of his or her disembarkation through the augmented image.
  • the boarding-planned person when the boarding-planned person calls the autonomous driving vehicle 200 as a destination, the boarding-planned person can board the autonomous driving vehicle 200 parked in the stop area SA corresponding to the destination.
  • the occupant when the occupant boards the autonomous vehicle 200 and moves to the destination, the occupant may get off the autonomous vehicle 200 parked in the stop area SA corresponding to the destination.
  • the stopping management module 120 sets the waiting area WA on the driving route to the destination, and the route generation module 110 is the waiting area WA ) May be generated and transmitted to the autonomous vehicle 200.
  • the waiting area WA may be defined as an area in which the autonomous vehicle 200 temporarily waits to enter the stopping area SA, which is currently in a state where it is impossible to stop.
  • the stop management module 120 may set an arbitrary waiting area WA in which the autonomous vehicle 200 can stop on a driving route to a destination as an area separated from the stopping area SA by a predetermined distance.
  • the stop management module 120 may set an area in which traffic congestion is less than the reference value on the driving route to the destination as the waiting area WA.
  • the stop management module 120 may set an arbitrary area in which a stop is possible among areas B in which traffic congestion is less than the reference value on the driving route to the destination as the waiting area WA.
  • the route generation module 110 may generate a driving route to the waiting area WA and transmit it to the autonomous vehicle 200. Since the method of generating the driving route to the waiting area WA is the same as the method described in step S30 shown in FIG. 3, a detailed description will be omitted here.
  • the autonomous driving module 220 can move the autonomous vehicle 200 to the waiting area WA along the driving route to the waiting area WA, and the autonomous driving module 220 is waiting using an autonomous parking algorithm.
  • the autonomous vehicle 200 may be parked in the area WA.
  • the present invention is a problem in that the autonomous vehicle 200 waits for a certain time in an area with low traffic congestion when the level of traffic congestion of the boarding and disembarkation point is high, so that the user cannot get on or off in an area with high traffic congestion and passes the destination. Can be prevented.
  • the display module 210 in the autonomous vehicle 200 may output an augmented image for guiding the waiting area WA through the windshield of the autonomous vehicle 200.
  • the windshield of the autonomous driving vehicle 200 when the autonomous vehicle 200 moves to the waiting area WA, the windshield of the autonomous driving vehicle 200 includes an augmented image indicating the stopping area SA and the waiting area WA. , An augmented image for indicating a direction to the waiting area WA may be displayed. Through the augmented image, the occupant can easily grasp the predicted movement path of the autonomous vehicle 200, the standby position of the autonomous vehicle 200, and the location of their getting off.
  • the waiting area WA may include a plurality of waiting points wp that are sequentially arranged along the driving route to the destination.
  • the server 100 identifies an unoccupied standby point that is not occupied among the plurality of standby points wp, and generates a driving route to any unoccupied standby point closest to the destination among the identified unoccupied standby points. Thus, it can be transmitted to the autonomous vehicle 200.
  • the occupied standby point may be defined as a standby point currently occupied or scheduled to be occupied
  • the non-occupied standby point may be defined as a standby point that is currently not occupied and not scheduled to be occupied.
  • the waiting area WA may include a plurality of waiting points wp1 to wp6 arranged in a line on a shoulder along a driving route to a destination.
  • the server 100 may generate a driving route for any one of the plurality of waiting points wp1 to wp6 and transmit it to the autonomous vehicle 200. Accordingly, information on which waiting point is an occupied waiting point may be stored in the database 130 in the server 100.
  • the stop management module 120 May identify unoccupied standby points among the plurality of standby points wp1 to wp6 as first, fourth, and sixth standby points wp1, wp4, and wp6.
  • the route generation module 110 may generate a driving route to the first waiting point wp1 closest to the destination among the unoccupied waiting points wp1, wp4, and wp6 and transmit the generated driving route to the autonomous vehicle 200.
  • the route generation module 110 After the first waiting point wp1 is occupied, the route generation module 110 generates a driving route to the fourth standby point wp4 closest to the destination among the non-occupied waiting points wp4 and wp6 to provide the autonomous vehicle. Can send.
  • the autonomous vehicle 200 may occupy a waiting point close to the destination according to the order of entering the waiting area WA.
  • the autonomous vehicle 200 in autonomous driving according to the driving route to the stop zone (SA) or the waiting zone (WA) is connected to an adjacent vehicle through vehicle-to-vehicle (V2V) communication.
  • V2V vehicle-to-vehicle
  • a signal to be occupied for the waiting area WA may be transmitted.
  • the second communication module 250 in the autonomous vehicle 200 may support any vehicle-to-vehicle communication protocol.
  • the autonomous vehicle 200 moving to the stop area SA or the waiting area WA is a nearby autonomous vehicle 200 or a general vehicle supporting a vehicle-to-car communication protocol (for example, autonomous driving technology is applied. It is possible to transmit a signal to be occupied for the stopping area SA or the waiting area WA to the vehicle that has not been completed.
  • the scheduled occupancy signal may be a signal indicating that entry into the stopping area SA or the waiting area WA is scheduled to prevent surrounding vehicles from entering the stopping area SA or the waiting area WA. .
  • the vehicle may generate a visual or audible output warning of entering a specific stopping area SA or a waiting area WA.
  • the autonomous vehicle 200 may transmit an occupancy schedule signal to a vehicle equipped with an adjacent augmented reality engine.
  • the vehicle that has received the occupancy schedule signal may output an augmented image for guiding that the occupancy of the stop zone SA is scheduled by the specific autonomous vehicle 200 through the windshield of the vehicle.
  • the present invention also informs the adjacent vehicle that the occupancy of an area for the user's boarding and alighting or a waiting area for the autonomous vehicle 200 is scheduled through vehicle-to-vehicle (V2V) communication, It is possible to prevent a collision between the autonomous driving vehicle 200 and a general vehicle that may occur in.
  • V2V vehicle-to-vehicle
  • the stop management module 120 receives external image information from the camera module 240 in the autonomous vehicle 200, and determines whether a stop for the stop zone SA is possible based on the received external image information. I can.
  • an autonomous vehicle 200 moving to a destination according to a driving route is defined as a first autonomous vehicle 200, and a first autonomous vehicle
  • the destination 200 and the destination are not the same, the autonomous vehicle 200 that passes through or is located near the destination of the first autonomous vehicle 200 is defined as the second autonomous vehicle 200.
  • an autonomous vehicle 200 that passes a destination or is located near the destination may be defined as the second autonomous vehicle 200.
  • all autonomous vehicles 200 managed by the server 100 may include a camera module 240.
  • the camera module 240 may capture an external image of the autonomous vehicle 200 and transmit the captured image to the server 100.
  • the route generation module 110 may generate a driving route to a destination and transmit it to the first autonomous vehicle 200, and the first autonomous vehicle 200 is You can go to
  • the camera module 240 of the first autonomous vehicle 200 moving to the destination may capture an external image, and a stop area SA corresponding to the destination may be photographed in the captured external image.
  • the camera module 240 of the second autonomous vehicle 200 can also capture an external image, and the external image captured by the camera module 240 of the second autonomous vehicle 200 is also a first autonomous vehicle.
  • the stop area SA corresponding to the destination of 200 may be photographed.
  • the external image information captured by the camera module 240 of the first and second autonomous vehicles 200 may be transmitted to the server 100, and the server 100 may be ), you can determine whether it is possible to stop.
  • the stop management module 120 determines the stop area SA. It can be judged that it is possible to stop.
  • the stop management module 120 cannot stop the stop area SA. It can be judged by the state.
  • the server 100 may receive external image information, and based on the received external image information, the stop zone SA ) Can be determined as a possible stop.
  • the server 100 can confirm that the stop zone SA included in the area A is not occupied by the vehicle. . In this case, the server 100 may determine that the corresponding stop area SA is again in a stopable state.
  • the server 100 stops again the stopping area SA, which is determined to be impossible to stop. It can be judged as possible.
  • the server 100 may perform the operation of step S60 shown in FIG. 2, and the autonomous vehicle 200 may park in the stopping area SA. I can.
  • the present invention determines whether boarding is possible based on an external image captured by the autonomous vehicle 200, thereby providing boarding and disembarkation services in consideration of various external factors not predicted by an algorithm.
  • the stop management module 120 may determine whether the position of the autonomous vehicle 200 is within the waiting area WA (S90). More specifically, the stop management module 120 continuously determines whether the current location of the autonomous vehicle 200 is within the waiting area WA based on the location information received from the GPS module 230 of the autonomous vehicle 200. Can be judged as.
  • the stop management module 120 may determine whether or not a stop is possible for the stopping area SA (S100).
  • the operation of step S100 may be continuously performed according to a preset period.
  • the server 100 may operate according to step S60 shown in FIG. 3, and the autonomous vehicle 200 may move to the stopping area SA. You can move to the stop zone (SA) according to the driving route of.
  • the server 100 in performing the operation of step S60, enters the waiting area WA among the plurality of autonomous vehicles 200 located in the waiting area WA. 200) can transmit a driving route to the stop area SA.
  • the plurality of autonomous vehicles 200 may enter the same waiting area WA and wait. However, the time point at which each autonomous vehicle 200 enters the waiting area WA may be different.
  • the stop management module 120 determines when each autonomous vehicle 200 enters the waiting area WA based on the location information received from the GPS module 230 of each autonomous vehicle 200. ). Thereafter, when it is determined that the stop zone SA is in a stopable state, the stop management module 120 refers to the database 130, and the stop zone () in the autonomous vehicle 200 that first entered the waiting zone WA SA) can be transmitted.
  • the driving route to the stop area SA may be preferentially transmitted to the autonomous vehicle 200 that has been waiting for the longest in the waiting area WA.
  • the server 100 stops at the autonomous vehicle 200 occupying a standby point wp closest to a destination among a plurality of autonomous vehicles 200 each occupying a plurality of standby points wp. It is also possible to transmit the travel route to (SA).
  • the second, third and fifth waiting points wp2, wp3, and wp5 may be occupied by the autonomous vehicle 200, respectively.
  • the stopping area SA may be determined to be in a stopable state by step S100 shown in FIG. 11.
  • the route generation module 110 generates a driving route to the stop area SA, and uses the generated driving route as the autonomous vehicle 200 occupying the second waiting point wp2 closest to the destination. Can send to.
  • the driving route to the stop area SA may be preferentially transmitted to the autonomous vehicle 200 located at the waiting point closest to the destination among the waiting area WA.
  • the present invention provides a transport service by sequentially moving the autonomous vehicle 200 to the boarding and disembarkation point based on at least one of the waiting position and the waiting time of the autonomous vehicle 200 waiting to move to the boarding and dismounting area.
  • a plurality of autonomous vehicles 200 can be efficiently operated.
  • the stop management module 120 determines the position of the autonomous vehicle 200 in the waiting zone WA for a preset time or longer. It can be determined whether it is within (S110). As a result of the determination, if the occupied time for the waiting area WA is less than a preset time, the stop management module 120 may continuously determine whether or not a stop is possible for the stopping area SA (S100).
  • the stop management module 120 changes the stop area SA to the adjacent stop area SA' (S120), and the adjacent stop area SA ') may be generated and transmitted to the autonomous vehicle 200 (S130).
  • the stop management module 120 may store the time point at which each autonomous vehicle 200 enters the waiting area WA in the database 130, and the current time from the time point at which each autonomous vehicle 200 enters the waiting area WA The occupied time, which is the time until, can be counted.
  • the stop management module 120 may change the preset stop area SA to an adjacent stop area SA'.
  • the adjacent stopping zone SA' may be defined as another stopping zone SA within a preset distance from the stopping zone SA.
  • the adjacent stop zone (SA') is a stop other than the preset stop zone (SA) among the plurality of stop zones (SA) corresponding to the destination. It can be a zone (SA).
  • the adjacent stopping area SA' may be a stopping area SA corresponding to another destination adjacent to the destination.
  • the adjacent stopping zone SA' may be set as a stopping zone SA determined to be in a stopable state in addition to the preset stopping zone SA. That is, the stop management module 120 may change the stopping area SA determined to be in the current stop impossible state to the adjacent stopping area SA′ determined to be able to stop.
  • the route generation module 110 may generate a driving route to the adjacent stopping area SA′ and transmit it to the autonomous vehicle 200,
  • the autonomous vehicle 200 may move to an adjacent stop zone SA'.
  • the operation of the autonomous vehicle 200 after moving to the adjacent stop area SA' may be the same as the operation of the autonomous vehicle 200 after moving to the stop area SA.
  • the user's waiting time for getting on and off is reduced by changing the zone for getting on and off and moving the autonomous vehicle 200 to the changed zone.
  • the stop management module 120 may change the stop zone SA to an adjacent stop zone SA' when a stop disable signal is received from the autonomous vehicle 200.
  • the stop impossibility signal is a signal generated inside the autonomous vehicle 200 and may be a signal indicating that stopping in the stop zone SA is impossible due to an arbitrary factor.
  • the camera module 240 may capture an image of the stop area SA.
  • the autonomous driving module 220 may identify that the stop area SA is occupied by a general vehicle, structure, or person, based on an image captured by the camera module 240.
  • the autonomous driving module 220 may identify flooding, imbalance, and the like of the road surface of the stopping area SA based on the image captured by the camera module 240.
  • the autonomous driving module 220 may identify that the stop area SA is occupied based on the image captured by the camera module 240.
  • the display module 210 may output an augmented image for guiding that a car is impossible to stop in the stop area SA through the windshield of the autonomous vehicle 200.
  • the display module 210 may display an augmented image indicating that the stop area SA is occupied and an augmented image indicating that entry into the stop area SA is impossible. .
  • the occupant can easily grasp that stopping at the currently set alighting position is impossible through the augmented image.
  • the autonomous driving module 220 may generate a stop disable signal and transmit it to the server 100.
  • the stop management module 120 in the server 100 may change the stop area SA into an adjacent stop area SA' in response to the stop disable signal and receive the stop disable signal.
  • the server 100 may transmit information on the adjacent stopping area SA′ to the user terminal 300.
  • Information on the adjacent stop area SA' may include location information, and the location information may be expressed on the user terminal 300 as an augmented image or a map.
  • the transport application installed in the user terminal 300 uses the location information for the adjacent stop area SA' received from the server 100 as an augmented image to an external image captured by the user terminal 300. I can express it.
  • the transport application may express location information on the adjacent stop area SA' received from the server 100 on a map displayed on the user terminal 300.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Operations Research (AREA)

Abstract

본 발명은 자율주행 차량을 이용하여 사용자에게 지정된 위치에서의 승하차 서비스를 제공하는 방법에 관한 것이다. 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 운송 서비스 제공 방법은 사용자 단말로부터 운행 정보를 수신하고, 상기 수신된 운행 정보에 기초하여 목적지를 식별하는 단계, 상기 목적지까지의 주행 경로를 생성하여 자율주행 차량에 송신하는 단계, 상기 자율주행 차량이 상기 목적지와 미리 설정된 거리 이내이면 상기 목적지에 대응하는 정차 구역을 식별하고, 상기 식별된 정차 구역에 대한 정차 가능 여부를 판단하는 단계 및 상기 판단 결과에 따라 상기 정차 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하거나, 상기 목적지까지의 주행 경로 상에서 대기 구역을 설정하고 상기 설정된 대기 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계를 포함하는 것을 특징으로 한다.

Description

자율주행 차량을 이용한 운송 서비스 제공 방법
본 발명은 자율주행 차량을 이용하여 사용자에게 지정된 위치에서의 승하차 서비스를 제공하는 방법에 관한 것이다.
최근 들어 운전자의 조작 없이 차량 스스로 목적지까지 자율 운행하는 자율주행 차량에 대한 기술 개발이 이루어지고 있으며, 자율주행 차량을 이용하는 다양한 서비스가 미래 산업 중 하나로 각광받고 있다.
한편, 현재 차량을 이용한 운송 서비스에는 주로 버스와 택시가 이용되는데, 버스의 경우 지정된 경로를 따라 이동하므로 탑승자의 목적지와 버스의 정차지가 다를 수 있다는 점에서 편의성이 떨어지는 문제가 있다.
한편, 택시의 경우 탑승자가 탑승지와 목적지를 모두 결정할 수 있다는 장점은 있으나, 탑승자가 원하는 위치까지 운전자가 직접 차량을 운전해야 하므로 운송 서비스 이용에 인건비가 추가되고, 이에 따라 서비스의 이용 비용이 비싸다는 단점이 있다.
이에 따라, 탑승자가 탑승지와 목적지를 자유롭게 설정할 수 있게 하고 서비스 이용 비용에서 인건비를 절감하기 위해, 자율주행 차량을 운수 서비스에 적용하려는 시도가 시작되고 있다.
본 발명은 자율주행 차량을 이용하여 사용자에게 지정된 위치에서의 승하차 서비스를 제공하는 것을 목적으로 한다.
또한, 본 발명은 승하차지의 교통 혼잡도가 높은 경우 자율주행 차량을 교통 혼잡도가 낮은 구역에 일정 시간 대기시키는 것을 목적으로 한다.
또한, 본 발명은 자율주행 차량에서 촬영된 외부 영상에 기초하여 승하차 가능 여부를 판단하는 것을 목적으로 한다.
또한, 본 발명은 승하차지로 이동하기 위해 대기중인 자율주행 차량의 대기 위치 및 대기 시간 중 적어도 하나에 기초하여 순차적으로 자율주행 차량을 승하차지로 이동시키는 것을 목적으로 한다.
또한, 본 발명은 대기 시간이 일정 시간 이상이면 승하차를 위한 구역을 변경하고, 변경된 구역으로 자율주행 차량을 이동시키는 것을 목적으로 한다.
또한, 본 발명은 차대차(Vehicle-to-Vehicle; V2V) 통신을 통해 인접 차량에 사용자의 승하차를 위한 구역의 점유 또는 자율주행 차량의 대기를 위한 구역의 점유를 알리는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 운송 서비스 제공 방법은 사용자 단말로부터 운행 정보를 수신하고, 상기 수신된 운행 정보에 기초하여 목적지를 식별하는 단계, 상기 목적지까지의 주행 경로를 생성하여 자율주행 차량에 송신하는 단계, 상기 자율주행 차량이 상기 목적지와 미리 설정된 거리 이내이면 상기 목적지에 대응하는 정차 구역을 식별하고, 상기 식별된 정차 구역에 대한 정차 가능 여부를 판단하는 단계 및 상기 판단 결과에 따라 상기 정차 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하거나, 상기 목적지까지의 주행 경로 상에서 대기 구역을 설정하고 상기 설정된 대기 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 자율주행 차량을 이용하여 사용자에게 지정된 위치에서의 승하차 서비스를 제공함으로써, 탑승자가 탑승지와 목적지를 자유롭게 설정할 수 있도록 하고, 서비스 이용에 인건비를 지불하지 않도록 하여 경제적인 운송 서비스를 제공받도록 할 수 있다.
또한, 본 발명은 승하차지의 교통 혼잡도가 높은 경우 자율주행 차량을 교통 혼잡도가 낮은 구역에 일정 시간 대기시킴으로써, 교통 혼잡도가 높은 지역에서 사용자를 승하차 시키지 못하고 목적지를 지나쳐 버리는 문제를 방지할 수 있다.
또한, 본 발명은 자율주행 차량에서 촬영된 외부 영상에 기초하여 승하차 가능 여부를 판단함으로써, 알고리즘으로 예측되지 않은 다양한 외부 요인을 고려하여 승하차 서비스를 제공할 수 있다.
또한, 본 발명은 승하차지로 이동하기 위해 대기중인 자율주행 차량의 대기 위치 및 대기 시간 중 적어도 하나에 기초하여 순차적으로 자율주행 차량을 승하차지로 이동시킴으로써, 운송 서비스를 제공함에 있어서 복수의 자율주행 차량을 효율적으로 운용할 수 있다.
또한, 본 발명은 대기 시간이 일정 시간 이상이면 승하차를 위한 구역을 변경하고, 변경된 구역으로 자율주행 차량을 이동시킴으로써 승하차를 위한 사용자의 대기 시간을 줄일 수 있다.
또한, 본 발명은 차대차(V2V) 통신을 통해 인접 차량에 사용자의 승하차를 위한 구역 또는 자율주행 차량의 대기를 위한 구역의 점유가 예정되어 있음을 알림으로써, 승하차지에서 발생할 수 있는 자율주행 차량과 일반 차량간의 충돌을 방지할 수 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템을 도시한 도면.
도 2는 도 1에 도시된 서버 및 자율주행 차량의 내부 블록도.
도 3은 본 발명의 일 실시예에 따른 운송 서비스 제공 방법을 도시한 순서도.
도 4는 사용자 단말을 통해 운행 정보가 입력되는 과정을 설명하기 위한 도면.
도 5는 교통 혼잡도에 따라 정차 가능 여부를 판단하는 과정을 설명하기 위한 순서도.
도 6은 정차 구역과 대기 구역을 설명하기 위한 도면.
도 7은 정차 구역에 진입 시 자율주행 차량에 표시되는 증강 이미지를 도시한 도면.
도 8는 대기 구역에 진입 시 자율주행 차량에 표시되는 증강 이미지를 도시한 도면.
도 9는 대기 구역에 포함된 복수의 대기 포인트를 도시한 도면.
도 10은 자율주행 차량이 정차 구역에 접근 시 인접 차량에 표시되는 증강 이미지를 도시한 도면.
도 11은 대기 구역에 진입한 자율주행 차량을 정차 구역으로 안내하는 과정을 설명하기 위한 순서도.
도 12는 자율주행 차량이 정차 구역에 대한 정차가 불가능하다고 판단하는 과정을 설명하기 위한 도면.
도 13a 및 도 13b는 정차 구역 변경 시 사용자 단말에 표시되는 증강 이미지 및 지도 이미지를 각각 도시한 도면.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
본 발명은 자율주행 차량을 이용하여 사용자에게 지정된 위치에서의 승하차 서비스를 제공하는 방법에 관한 것이다.
보다 구체적으로, 후술하는 본 발명은 자율주행 차량을 이용하여 사용자에게 지정된 위치에서의 승하차 서비스를 제공함으로써, 탑승자가 탑승지와 목적지를 자유롭게 설정할 수 있도록 하고, 서비스 이용에 인건비를 지불하지 않도록 하여 경제적인 운송 서비스를 제공받도록 하는 방법에 관한 것이다.
이하, 도 1 내지 도 13을 참조하여, 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템과, 이러한 시스템이 자율주행 차량을 이용하여 운송 서비스를 제공하는 방법에 대해 구체적으로 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템을 도시한 도면이고, 도 2는 도 1에 도시된 서버 및 자율주행 차량의 내부 블록도이다.
도 3은 본 발명의 일 실시예에 따른 운송 서비스 제공 방법을 도시한 순서도이다. 또한, 도 4는 사용자 단말을 통해 운행 정보가 입력되는 과정을 설명하기 위한 도면이다.
도 5는 교통 혼잡도에 따라 정차 가능 여부를 판단하는 과정을 설명하기 위한 순서도이고, 도 6은 정차 구역과 대기 구역을 설명하기 위한 도면이다.
도 7은 정차 구역에 진입 시 자율주행 차량에 표시되는 증강 이미지를 도시한 도면이고, 도 8는 대기 구역에 진입 시 자율주행 차량에 표시되는 증강 이미지를 도시한 도면이다.
도 9는 대기 구역에 포함된 복수의 대기 포인트를 도시한 도면이다.
도 10은 자율주행 차량이 정차 구역에 접근 시 인접 차량에 표시되는 증강 이미지를 도시한 도면이다.
도 11은 대기 구역에 진입한 자율주행 차량을 정차 구역으로 안내하는 과정을 설명하기 위한 순서도이다. 또한, 도 12는 자율주행 차량이 정차 구역에 대한 정차가 불가능하다고 판단하는 과정을 설명하기 위한 도면이다.
도 13a 및 도 13b는 정차 구역 변경 시 사용자 단말에 표시되는 증강 이미지 및 지도 이미지를 각각 도시한 도면이다.
본 발명에서 설명되는 운송 서비스는 승차 및 하차 서비스를 포함할 수 있다. 이에 따라, 운송 서비스는 탑승 예정자에 대한 승차 서비스와, 탑승자에 대한 하차 서비스를 포함할 수 있다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템(1)은 서버(100), 자율주행 차량(200) 및 사용자 단말(300)을 포함할 수 있다. 도 1에 도시된 운송 서비스 제공 시스템(1)은 일 실시예에 따른 것이고, 그 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
한편, 이하에서는 설명의 편의를 위해 운송 서비스를 이용하는 대상을 탑승 예정자, 탑승자, 사용자 등의 용어로 혼용하여 사용하도록 한다.
운송 서비스 제공 시스템(1)을 구성하는 서버(100), 자율주행 차량(200) 및 사용자 단말(300)은 무선 네트워크로 연결되어 상호 데이터 통신을 수행할 수 있다. 본 발명에서 사용자 단말(300)은 운송 서비스를 이용하는 사용자의 단말로서, 탑승 예정자 또는 탑승자의 단말로 정의될 수 있다.
자율주행 차량(200)은 운전자의 조작 없이도 스스로 목적지까지 주행하는 차량을 의미할 수 있다. 이러한 자율주행 차량(200)은 자동차, 오토바이 등의 임의의 이동수단을 포함하는 개념일 수 있으나, 이하에서는 설명의 편의를 위해 자율주행 차량(200)이 자동차인 것으로 가정하여 설명하도록 한다.
자율주행 차량(200)은 운송 회사에 의해 운용될 수 있고, 후술하는 운송 서비스 제공 과정에 있어서 자율주행 차량(200)에는 사용자가 탑승할 수 있다.
이러한 자율주행 차량(200)의 내부에는 다수의 HMI(Human Machine Interface)가 구비될 수 있다. 기본적으로 HMI는 다수의 물리적인 인터페이스를 통해 차량의 정보나 상태를 운전자에게 시각적 및 청각적으로 출력하는 기능을 수행할 수 있다. 또한, 운송 서비스 제공 과정에 있어서 HMI는 운송 서비스 제공을 위해 다양한 사용자 조작을 입력받을 수 있고, 사용자에게 서비스 관련 내용을 출력할 수도 있다.
서버(100)는 클라우드를 기반으로 구축될 수 있고, 무선 네트워크로 연결된 자율주행 차량(200) 및 사용자 단말(300)에서 수집된 정보를 저장 및 관리할 수 있다. 이와 같은 서버(100)는 자율주행 차량(200)을 운용하는 운송 회사에 의해 관리될 수 있고, 무선 데이터 통신을 이용하여 자율주행 차량(200)을 제어할 수 있다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 서버(100)는 경로 생성 모듈(110), 정차 관리 모듈(120), 데이터베이스(130) 및 제1 통신 모듈(140)을 포함할 수 있다. 한편, 자율주행 차량(200)은 디스플레이 모듈(210), 자율주행 모듈(220), GPS 모듈(230), 카메라 모듈(240) 및 제2 통신 모듈(250)을 포함할 수 있다.
도 2에 도시된 서버(100) 및 자율주행 차량(200)의 내부 구성은 예시적인 것이고, 그 구성요소들이 도 2에 도시된 예시에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
서버(100)와 자율주행 차량(200) 내 모듈은 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 중 적어도 하나의 물리적인 요소로 구현될 수 있다.
한편, 도 3을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량(200)을 이용한 운송 서비스 제공 방법(이하, 운송 서비스 제공 방법)은 사용자 단말(300)로부터 수신된 운행 정보에 기초하여 목적지를 식별하는 단계(S10), 목적지까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신하는 단계(S20), 자율주행 차량(200)의 위치가 목적지와 미리 설정된 거리 이내인지 여부를 판단하는 단계(S30)를 포함할 수 있다.
또한, 운송 서비스 제공 방법은, 자율주행 차량(200)이 목적지와 미리 설정된 거리 이내이면 목적지에 대응하는 정차 구역(SA)을 식별하는 단계(S40), 정차 구역(SA)에 대한 정차 가능 여부를 판단하는 단계(S50)를 포함할 수 있다.
또한, 운송 서비스 제공 방법은, 정차 구역(SA)에 대한 정차가 가능한 것으로 판단되면 정차 구역(SA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신하는 단계(S60)를 포함할 수 있고, 정차 구역(SA)에 대한 정차가 불가능한 것으로 판단되면 대기 구역(WA)을 설정하는 단계(S70) 및 대기 구역(WA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신하는 단계(S80)를 포함할 수 있다.
이와 같은 운송 서비스 제공 방법은 전술한 서버(100)에 의해 수행될 수 있으며, 서버(100)는 도 3에 도시된 각 단계의 동작을 수행하기 위해 자율주행 차량(200) 및 사용자 단말(300)과 데이터 통신을 수행할 수 있다.
이하에서는 운송 서비스 제공 방법을 이루는 각 단계를 도면을 참조하여 구체적으로 설명하도록 한다.
서버(100) 내 경로 생성 모듈(110)은 사용자 단말(300)로부터 운행 정보를 수신하고, 수신된 운행 정보에 기초하여 목적지를 식별할 수 있다(S10).
보다 구체적으로, 서버(100)에 구비된 제1 통신 모듈(140)은 사용자 단말(300)과 무선 데이터 통신을 수행하여 운행 정보를 수신할 수 있다. 이를 위해, 사용자는 사용자 단말(300)을 통해 운행 정보를 입력할 수 있다.
사용자 단말(300)에는 운송 서비스에 관한 어플리케이션(이하, 운송 어플리케이션)이 미리 설치될 수 있다. 운송 어플리케이션은 운행 정보의 입력을 위한 인터페이스를 제공할 수 있고, 사용자는 해당 인터페이스를 통해 운행 정보를 입력할 수 있다.
운행 정보는 운행중인 자율주행 차량(200)의 목적지에 관한 정보를 포함할 수 있고, 구체적으로는 승차 위치(승차지) 및 하차 위치(하차지) 중 적어도 하나를 포함할 수 있다. 예컨대, 탑승 예정자가 자율주행 차량(200)을 호출하는 경우 운행 정보는 탑승 예정자가 승차하고자 하는 승차 위치를 포함할 수 있다. 또한, 탑승자가 자율주행 차량(200)에서 하차하는 경우 운행 정보는 탑승자가 하차하고자 하는 하차 위치를 포함할 수 있다.
사용자가 승차 위치를 입력하는 과정을 도 4를 참조하여 설명하면, 운송 어플리케이션은 사용자 단말(300)의 화면을 통해 주소 검색 창을 제공할 수 있고, 사용자는 주소 검색 창에 승차하고자 하는 위치(Requested pickup location)의 주소(31, Los Angeles Airport Terminal 1)를 입력할 수 있다. 이 경우, 경로 생성 모듈(110)은 사용자가 승차하고자 하는 위치의 주소(31)를 승차 위치로서 수신할 수 있다.
또한, 운송 어플리케이션은 사용자 단말(300)의 화면을 통해 지도(32)를 제공할 수 있고, 사용자는 지도(32) 상에서 승차하고자 하는 위치(33)를 터치할 수 있다. 이 경우, 경로 생성 모듈(110)은 사용자에 의해 터치된 위치(33)를 승차 위치로서 수신할 수 있다.
도 4를 참조하여 설명한 승차 위치 입력 방법은 사용자가 하차 위치를 입력하는 데에도 그대로 이용될 수 있다. 한편, 승차 위치 및 하차 위치를 입력하는 방법은 도 4에서 설명한 방법에 국한되지 않으며, 주소나 지리적 위치를 특정하기 위한 임의의 방법이 이용될 수 있다.
경로 생성 모듈(110)은 운행 정보에 포함된 승차 위치 및 하차 위치 중 적어도 하나를 목적지로 식별할 수 있다.
보다 구체적으로, 탑승 예정자에 대한 승차 서비스를 제공하기 위해 경로 생성 모듈(110)은 운행 정보에 포함된 승차 위치를 목적지로 식별할 수 있다. 또한, 탑승자에 대한 하차 서비스를 제공하기 위해 경로 생성 모듈(110)은 운행 정보에 포함된 하차 위치를 목적지로 식별할 수 있다. 한편, 탑승 예정자의 사용자 단말(300)로부터 승차 위치 및 하차 위치가 모두 수신된 경우, 경로 생성 모듈(110)은 승차 위치와 하차 위치를 모두 자율주행 차량(200)의 순차적인 목적지로 식별할 수 있다.
이어서, 경로 생성 모듈(110)은 목적지까지의 주행 경로를 생성하고, 생성된 주행 경로를 자율주행 차량(200)에 송신할 수 있다(S20).
보다 구체적으로, 경로 생성 모듈(110)은 자율주행 차량(200)의 GPS(Global Positioning System) 모듈을 통해 자율주행 차량(200)의 현재 위치를 식별하고, 식별된 현재 위치로부터 목적지까지의 주행 경로를 생성할 수 있다.
경로 생성 모듈(110)은 교통 상황 정보에 기초하여 주행 경로를 생성할 수 있고, 이를 위해 경로 생성 모듈(110)은 교통 정보 서버(400)와 네트워크로 연결되어 교통 정보 서버(400)로부터 현재 교통 상황 정보를 수신할 수 있다. 여기서 교통 정보 서버(400)는 도로 정보, 교통 혼잡도, 노면의 상태 등 교통에 관련한 정보를 실시간으로 관리하는 서버로서, 국가 또는 민간에서 운영하는 서버일 수 있다.
교통 상황 정보를 반영하여 주행 경로를 생성하는 방법은 당해 기술분야에서 이용되는 임의의 방법에 따를 수 있는 바, 여기서는 자세한 설명을 생략하도록 한다.
주행 경로는 경로 안내 정보를 포함하는 지도로 구현될 수 있고, 구체적으로는 3차원 지형 데이터를 포함하는 고정밀 지도(High Definition Map; HD map)으로 구현될 수 있다.
경로 생성 모듈(110)은, 생성된 주행 경로를 제1 통신 모듈(140)을 통해 자율주행 차량(200) 내 자율주행 모듈(220)로 송신할 수 있다. 자율주행 모듈(220)은 제2 통신 모듈(250)을 통해 주행 경로를 수신할 수 있고, 수신된 주행 경로에 따라 자율주행 차량(200)의 운전을 제어할 수 있다.
자율주행 모듈(220)의 주행 제어에는 차간 간격 유지, 차선 이탈 방지, 차선 트래킹, 신호등 감지, 보행자 감지, 구조물 감지, 교통상황 감지, 자율 주차 등을 위한 알고리즘이 적용될 수 있으며, 이 외에도 자율주행을 위해 당해 기술분야에서 이용되는 다양한 알고리즘이 적용될 수 있다.
자율주행 모듈(220)의 제어에 따라 자율주행 차량(200)은 별도의 사용자 조작 없이도 주행 경로를 따라 목적지까지 이동할 수 있다.
정차 관리 모듈(120)은 자율주행 차량(200)이 목적지와 미리 설정된 거리 이내인지 여부를 판단할 수 있다(S30).
자율주행 차량(200)은 전술한 주행 경로를 따라 목적지로 이동할 수 있다. 이동 중인 자율주행 차량(200)과 목적지 간의 거리는 점차 감소할 수 있다. 정차 관리 모듈(120)은 자율주행 차량(200)의 위치를 식별하고, 식별된 위치와 목적지 사이의 거리를 비교하여 자율주행 차량(200)이 목적지에 미리 설정된 거리 이내로 진입하였는지를 판단할 수 있다.
보다 구체적으로, 정차 관리 모듈(120)은 자율주행 차량(200) 내 GPS 모듈(230)로부터 위치 정보를 수신하여 자율주행 차량(200)의 위치를 식별하고, 식별된 위치와 목적지의 위치를 비교하여 자율주행 차량(200)이 목적지와 미리 설정된 거리 이내인지 여부를 판단할 수 있다.
자율주행 차량(200) 내 GPS 모듈(230)은 위성에서 송신되는 신호를 수신하여 자율주행 차량(200)의 위치 정보를 산출할 수 있다. GPS 모듈(230)은 산출된 위치 정보를 제2 통신 모듈(250)을 통해 서버(100)로 송신할 수 있다.
정차 관리 모듈(120)은 제1 통신 모듈(140)을 통해 자율주행 차량(200)의 위치 정보를 수신하여 자율주행 차량(200)의 현재 위치를 식별하고, 식별된 위치와 목적지 사이의 거리를 산출할 수 있다.
산출된 거리가 미리 설정된 거리를 초과하면 정차 관리 모듈(120)은 지속적으로 자율주행 차량(200)의 현재 위치를 식별할 수 있다. 반면에, 산출된 거리가 미리 설정된 거리 이내이면 정차 관리 모듈(120)은 목적지에 대응하는 정차 구역(SA)을 식별할 수 있다(S40). 즉, 정차 관리 모듈(120)은 자율주행 차량(200)이 목적지에 근접하게 되는 시점에서 정차 구역(SA)을 식별할 수 있다.
여기서 정차 구역(SA)은 사용자가 자율주행 차량(200)에 승차하거나 자율주행 차량(200)으로부터 하차할 수 있도록 자율주행 차량(200)이 일시적으로 정차하는 구역으로, 제도적으로 차량의 정차가 가능한 지역으로 설정될 수 있다.
서버(100) 내 데이터베이스(130)에는 목적지에 대응하는 정차 구역(SA)이 미리 저장될 수 있다. 도 4를 예로 들어 설명하면, 로스 엔젤레스 공항 제1 터미널(Los Angeles Airport Terminal 1)을 목적지로 설정한 경우, 목적지에 대응하는 정차 구역(SA)은 제1 터미널의 주차장(예컨대, 도 4의 A)으로 미리 설정되어 데이터베이스(130)에 저장될 수 있다. 정차 관리 모듈(120)은 데이터베이스(130)를 참조하여 정차 구역(SA)을 제1 터미널의 주차장으로 식별할 수 있다.
정차 구역(SA)이 식별되면, 정차 관리 모듈(120)은 정차 구역(SA)에 대한 자율주행 차량(200)의 정차 가능 여부를 판단할 수 있다(S50).
일 예에서, 정차 관리 모듈(120)은 교통 정보에 기초하여 정차 구역(SA)에 대한 정차 가능 여부를 판단할 수 있다. 보다 구체적으로, 정차 관리 모듈(120)은 정차 구역(SA)의 교통 혼잡도에 기초하여 정차 구역(SA)에 대한 정차 가능 여부를 판단할 수 있다.
정차 구역(SA)의 교통 혼잡도는 전술한 교통 정보 서버(400)에서 제공되는 파라미터로서, 정차 구역(SA)을 포함하는 일정 영역의 도로에 대한 차량의 점유 상태에 따라 수치적으로 표현되는 임의의 파라미터일 수 있다. 예컨대, 정차 구역(SA)의 인근 도로를 다수의 차량이 점유하고 있는 경우 교통 혼잡도는 상승할 수 있고, 정차 구역(SA)의 인근 도로를 소수의 차량만이 점유하고 있는 경우 교통 혼잡도는 하강할 수 있다.
도 5를 참조하면, 정차 관리 모듈(120)은 교통 정보 서버(400)와 데이터 통신을 수행하여 정차 구역(SA)의 교통 혼잡도를 식별할 수 있다(S51). 교통 혼잡도가 식별되면 정차 관리 모듈(120)은 교통 혼잡도와, 미리 설정된 기준치를 비교할 수 있다(S52). 이러한 기준치는 정차 가능 여부를 결정하기 위한 파라미터로서 통계적으로 결정될 수 있다.
정차 관리 모듈(120)은 정차 구역(SA)의 교통 혼잡도와 기준치를 비교하여 정차 구역(SA)을, 자율주행 차량(200)의 정차가 가능함을 나타내는 정차 가능 상태, 또는 자율주행 차량(200)의 정차가 불가능함을 나타내는 정차 불가능 상태로 판단할 수 있다.
정차 관리 모듈(120)은 교통 혼잡도가 기준치 이상이면 정차 관리 모듈(120)은 정차 구역(SA)을 정차 불가능 상태로 판단할 수 있고(S53), 교통 혼잡도가 기준치 미만이면 정차 구역(SA)을 정차 가능 상태로 판단할 수 있다(S54).
도 6을 참조하면, 목적지까지의 주행 경로 상에 설정된 정차 구역(SA)은 A 영역에 포함될 수 있다. A 영역은 다수의 차량이 점유하고 있으므로 A 영역의 교통 혼잡도는 기준치 이상일 수 있다. 이 때, 정차 관리 모듈(120)은 정차 구역(SA)을 정차 불가능 상태로 판단할 수 있다.
반면에, 도 6에 도시된 바와는 달리, A 영역을 점유하고 있는 차량은 소수일 수 있고, 이에 따라, A 영역의 교통 혼잡도는 기준치 미만일 수 있다. 이 때, 정차 관리 모듈(120)은 정차 구역(SA)을 정차 가능 상태로 판단할 수 있다.
경로 생성 모듈(110)은 전술한 판단 결과에 따라 정차 구역(SA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신하거나(S60), 목적지까지의 주행 경로 상에서 대기 구역(WA)을 설정하고(S70) 설정된 대기 구역(WA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다(S80).
보다 구체적으로, 정차 구역(SA)이 정차 가능 상태로 판단되면, 경로 생성 모듈(110)은 정차 구역(SA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다. 정차 구역(SA)까지의 주행 경로를 생성하는 방법은, 도 3에 도시된 단계(S30)에서 설명한 방법과 동일하므로 여기서는 자세한 설명을 생략하도록 한다.
자율주행 모듈(220)은 정차 구역(SA)까지의 주행 경로를 따라 자율주행 차량(200)을 정차 구역(SA)으로 이동시킬 수 있고, 자율주행 모듈(220)은 자율 주차 알고리즘을 이용하여 정차 구역(SA)에 자율주행 차량(200)을 주차시킬 수 있다.
한편, 자율주행 차량(200) 내 디스플레이 모듈(210)에는 증강현실(Augmented Reality) 엔진이 탑재될 수 있다. 이에 따라, 디스플레이 모듈(210)은 자율주행 차량(200)의 전면 유리를 통해 정차 구역(SA)을 안내하기 위한 증강 이미지를 출력할 수 있다.
도 7을 참조하면, 자율주행 차량(200)이 정차 구역(SA)으로 이동하였을 때, 자율주행 차량(200)의 전면 유리에는 정차 구역(SA)을 표시하는 증강 이미지와, 정차 구역(SA)으로 방향을 지시하기 위한 증강 이미지가 표시될 수 있다. 탑승자는 증강 이미지를 통해 자율주행 차량(200)의 예상 이동 경로와, 자신의 하차 위치를 손쉽게 파악할 수 있다.
전술한 과정을 통해, 탑승 예정자가 자율주행 차량(200)을 목적지로 호출한 경우, 탑승 예정자는 목적지에 대응하는 정차 구역(SA)에 주차된 자율주행 차량(200)에 탑승할 수 있다. 또한, 탑승자가 자율주행 차량(200)에 탑승하여 목적지로 이동한 경우, 탑승자는 목적지에 대응하는 정차 구역(SA)에 주차된 자율주행 차량(200)에서 하차할 수 있다.
전술한 바와 달리 정차 구역(SA)이 정차 불가능 상태로 판단되면, 정차 관리 모듈(120)은 목적지까지의 주행 경로 상에서 대기 구역(WA)을 설정하고, 경로 생성 모듈(110)은 대기 구역(WA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다.
여기서, 대기 구역(WA)은 자율주행 차량(200)이 현재 정차 불가능 상태인 정차 구역(SA)에 진입하기 위해 임시적으로 대기하는 구역으로 정의될 수 있다.
정차 관리 모듈(120)은, 정차 구역(SA)과 일정 거리 떨어진 구역으로서 목적지까지의 주행 경로 상에서 자율주행 차량(200)이 정차할 수 있는 임의의 대기 구역(WA)을 설정할 수 있다.
이를 위해, 정차 관리 모듈(120)은 목적지까지의 주행 경로 상에서 교통 혼잡도가 기준치 미만인 구역을 대기 구역(WA)으로 설정할 수 있다.
다시 도 6을 참조하면, 정차 구역(SA)을 포함하는 A 영역의 교통 혼잡도가 높음에 따라 정차 구역(SA)은 정차 불가능 상태로 판단될 수 있다. 이 때, 정차 관리 모듈(120)은 목적지까지의 주행 경로 상에서 교통 혼잡도가 기준치 미만인 B 구역 중 정차가 가능한 임의의 구역을 대기 구역(WA)으로 설정할 수 있다.
대기 구역(WA)이 설정되면, 경로 생성 모듈(110)은 대기 구역(WA)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다. 대기 구역(WA)까지의 주행 경로를 생성하는 방법은, 도 3에 도시된 단계(S30)에서 설명한 방법과 동일하므로 여기서는 자세한 설명을 생략하도록 한다.
자율주행 모듈(220)은 대기 구역(WA)까지의 주행 경로를 따라 자율주행 차량(200)을 대기 구역(WA)으로 이동시킬 수 있고, 자율주행 모듈(220)은 자율 주차 알고리즘을 이용하여 대기 구역(WA)에 자율주행 차량(200)을 주차시킬 수 있다.
상술한 바와 같이, 본 발명은 승하차지의 교통 혼잡도가 높은 경우 자율주행 차량(200)을 교통 혼잡도가 낮은 구역에 일정 시간 대기시킴으로써, 교통 혼잡도가 높은 지역에서 사용자를 승하차 시키지 못하고 목적지를 지나쳐 버리는 문제를 방지할 수 있다.
한편, 자율주행 차량(200) 내 디스플레이 모듈(210)은 자율주행 차량(200)의 전면 유리를 통해 대기 구역(WA)을 안내하기 위한 증강 이미지를 출력할 수 있다.
도 8을 참조하면, 자율주행 차량(200)이 대기 구역(WA)으로 이동하였을 때, 자율주행 차량(200)의 전면 유리는 정차 구역(SA) 및 대기 구역(WA)을 표시하는 증강 이미지와, 대기 구역(WA)으로 방향을 지시하기 위한 증강 이미지가 표시될 수 있다. 탑승자는 증강 이미지를 통해 자율주행 차량(200)의 예상 이동 경로, 자율주행 차량(200)의 대기 위치 및 자신의 하차 위치를 손쉽게 파악할 수 있다.
한편, 대기 구역(WA)은 목적지까지의 주행 경로를 따라 순차적으로 정렬된 복수의 대기 포인트(wp)를 포함할 수 있다. 이 때, 서버(100)는 복수의 대기 포인트(wp) 중 점유되지 않은 비점유 대기 포인트를 식별하고, 식별된 비점유 대기 포인트 중 목적지와 가장 가까운 어느 한 비점유 대기 포인트까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다.
여기서 점유 대기 포인트는 현재 점유 중이거나 점유 예정인 대기 포인트로 정의될 수 있고, 비점유 대기 포인트는 현재 비점유 중이며 점유 예정이 아닌 대기 포인트로 정의될 수 있다.
도 9를 참조하면, 대기 구역(WA)은 목적지까지의 주행 경로를 따라 갓길에 일렬로 정렬된 복수의 대기 포인트(wp1~wp6)를 포함할 수 있다. 서버(100)는 복수의 대기 포인트(wp1~wp6) 중 어느 한 대기 포인트에 대한 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다. 이에 따라, 서버(100) 내 데이터베이스(130)에는 어느 대기 포인트가 점유 대기 포인트인지에 대한 정보가 저장될 수 있다.
예를 들어, 도 9에 도시된 바와 같이 복수의 대기 포인트(wp1~wp6) 중 제2, 제3 및 제5 대기 포인트(wp2, wp3, wp5)가 점유 대기 포인트인 경우, 정차 관리 모듈(120)은 복수의 대기 포인트(wp1~wp6) 중 비점유 대기 포인트를 제1, 제4 및 제6 대기 포인트(wp1, wp4, wp6)로 식별할 수 있다. 경로 생성 모듈(110)은 비점유 대기 포인트(wp1, wp4, wp6) 중 목적지와 가장 가까운 제1 대기 포인트(wp1)까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다.
제1 대기 포인트(wp1)가 점유된 이후 경로 생성 모듈(110)은 비점유 대기 포인트(wp4, wp6) 중 목적지와 가장 가까운 제4 대기 포인트(wp4)까지의 주행 경로를 생성하여 자율주행 차량에 송신할 수 있다.
이러한 과정에 따라, 자율주행 차량(200)은 대기 구역(WA)에 진입하는 순서에 따라 목적지와 가까운 대기 포인트를 점유할 수 있다.
한편, 정차 구역(SA) 또는 대기 구역(WA)까지의 주행 경로에 따라 자율주행 중인 자율주행 차량(200)은 차대차(Vehicle-to-Vehicle; V2V) 통신을 통해 인접 차량에 정차 구역(SA) 또는 대기 구역(WA)에 대한 점유 예정 신호를 송신할 수 있다.
보다 구체적으로, 자율주행 차량(200) 내 제2 통신 모듈(250)은 임의의 차대차 통신 프로토콜을 지원할 수 있다. 이에 따라, 정차 구역(SA) 또는 대기 구역(WA)으로 이동중인 자율주행 차량(200)은, 차대차 통신 프로토콜을 지원하는 주변의 자율주행 차량(200) 또는 일반 차량(예컨대, 자율주행 기술이 적용되지 않은 차량)에 정차 구역(SA) 또는 대기 구역(WA)에 대한 점유 예정 신호를 송신할 수 있다.
여기서 점유 예정 신호는 주변의 차량이 정차 구역(SA) 또는 대기 구역(WA)에 진입하지 않도록 하기 위해, 정차 구역(SA) 또는 대기 구역(WA)에 대한 진입이 예정되어 있음을 나타내는 신호일 수 있다. 이러한 점유 예정 신호를 수신한 차량은 특정 정차 구역(SA) 또는 대기 구역(WA)에 대한 진입을 경고하는 시각적 또는 청각적인 출력을 발생시킬 수 있다.
예를 들어, 도 10을 참조하면 자율주행 차량(200)은 인접 증강현실 엔진이 탑재된 차량에 점유 예정 신호를 송신할 수 있다. 점유 예정 신호를 수신한 차량은 차량의 전면 유리를 통해 정차 구역(SA)에 대한 점유가 특정 자율주행 차량(200)에 의해 예정되어 있음을 안내하기 위한 증강 이미지를 출력할 수 있다.
상술한 바와 같이, 또한, 본 발명은 차대차(V2V) 통신을 통해 인접 차량에 사용자의 승하차를 위한 구역 또는 자율주행 차량(200)의 대기를 위한 구역의 점유가 예정되어 있음을 알림으로써, 승하차지에서 발생할 수 있는 자율주행 차량(200)과 일반 차량간의 충돌을 방지할 수 있다.
자율주행 차량(200)이 대기 구역(WA)에 진입한 이후의 서버(100) 및 자율주행 차량(200)의 동작에 대해서는 도 11을 참조하여 후술하도록 한다.
한편, 정차 관리 모듈(120)은 자율주행 차량(200) 내 카메라 모듈(240)로부터 외부 영상 정보를 수신하고, 수신된 외부 영상 정보에 기초하여 정차 구역(SA)에 대한 정차 가능 여부를 판단할 수 있다.
외부 영상 정보에 기초하여 정차 가능 여부를 판단하는 방법을 설명하기 위해, 주행 경로에 따라 목적지로 이동하는 자율주행 차량(200)을 제1 자율주행 차량(200)으로 정의하고, 제1 자율주행 차량(200)과 목적지가 동일하지는 않으나 제1 자율주행 차량(200)의 목적지를 지나치거나 목적지 부근에 위치하는 자율주행 차량(200)을 제2 자율주행 차량(200)으로 정의하도록 한다.
즉, 서버(100)에 의해 관리되는 자율주행 차량(200)은 복수대일 수 있고, 그 중 전술한 방법에 따라 목적지로 이동하는 자율주행 차량(200)을 제1 자율주행 차량(200)으로, 나머지 자율주행 차량(200) 중에서 목적지를 지나치거나 목적지 부근에 위치한 자율주행 차량(200)을 제2 자율주행 차량(200)으로 정의할 수 있다.
도 2에 도시된 바와 같이 서버(100)에 의해 관리되는 모든 자율주행 차량(200)은 카메라 모듈(240)을 포함할 수 있다. 카메라 모듈(240)은 자율주행 차량(200)의 외부 영상을 촬영할 수 있고, 촬영된 영상을 서버(100)로 전송할 수 있다.
한편, 도 3의 단계(S20)에 따라 경로 생성 모듈(110)은 목적지까지의 주행 경로를 생성하여 제1 자율주행 차량(200)에 송신할 수 있고, 제1 자율주행 차량(200)은 목적지로 이동할 수 있다.
목적지로 이동 중인 제1 자율주행 차량(200)의 카메라 모듈(240)은 외부 영상을 촬영할 수 있고, 촬영된 외부 영상에는 목적지에 대응하는 정차 구역(SA)이 촬영될 수 있다. 한편, 제2 자율주행 차량(200)의 카메라 모듈(240) 또한 외부 영상을 촬영할 수 있고, 제2 자율주행 차량(200)의 카메라 모듈(240)에 의해 촬영된 외부 영상에도 제1 자율주행 차량(200)의 목적지에 대응하는 정차 구역(SA)이 촬영될 수 있다.
제1 및 제2 자율주행 차량(200)의 카메라 모듈(240)에 의해 촬영된 외부 영상 정보는 서버(100)로 송신될 수 있고, 서버(100)는 외부 영상 정보에 기초하여 정차 구역(SA)에 대한 정차 가능 여부를 판단할 수 있다.
보다 구체적으로, 외부 영상 정보를 통해 식별된 정차 구역(SA)에 대한 영상에서, 정차 구역(SA)이 임의의 차량에 의해 점유되지 않은 경우, 정차 관리 모듈(120)은 정차 구역(SA)을 정차 가능 상태로 판단할 수 있다. 반면에, 외부 영상 정보를 통해 식별된 정차 구역(SA)에 대한 영상에서, 정차 구역(SA)이 임의의 차량에 의해 점유된 경우, 정차 관리 모듈(120)은 정차 구역(SA)을 정차 불가능 상태로 판단할 수 있다.
정차 구역(SA)에 대한 정차 가능 여부에 따른 서버(100)의 동작은 도 3의 단계(S60) 및 단계(S70)을 참조하여 설명한 바 있으므로, 여기서는 더 이상의 설명은 생략하도록 한다.
한편, 도 5에 도시된 순서에 따라 정차 구역(SA)이 정차 불가능 상태로 판단된 경우에도 서버(100)는 외부 영상 정보를 수신할 수 있고, 수신된 외부 영상 정보에 기초하여 정차 구역(SA)을 정차 가능 상태로 판단할 수 있다.
예컨대, 도 6을 참조하면 A 영역에 대한 교통 혼잡도가 기준치 이상임에 따라 정차 구역(SA)이 정차 불가능 상태로 판단될 수 있다. 이 때, 목적지를 지나는 제2 자율주행 차량(200)으로부터 수신된 외부 영상 정보를 통해, 서버(100)는 A 영역에 포함된 정차 구역(SA)이 차량에 의해 점유되지 않았음을 확인할 수 있다. 이 때, 서버(100)는 해당 정차 구역(SA)을 다시 정차 가능 상태로 판단할 수 있다.
다시 말해, A 영역을 점유하고 있는 차량은 많으나 A 영역에 포함된 정차 구역(SA)을 점유하고 있는 차량은 없는 경우, 서버(100)는 정차 불가능 상태로 판단된 정차 구역(SA)을 다시 정차 가능 상태로 판단할 수 있다. 정차 구역(SA)이 정차 가능 상태로 판단된 바 서버(100)는 도 2에 도시된 단계(S60)의 동작을 수행할 수 있고, 자율주행 차량(200)은 정차 구역(SA)에 주차할 수 있다.
상술한 바와 같이, 본 발명은 자율주행 차량(200)에서 촬영된 외부 영상에 기초하여 승하차 가능 여부를 판단함으로써, 알고리즘으로 예측되지 않은 다양한 외부 요인을 고려하여 승하차 서비스를 제공할 수 있다.
이하에서는, 도 11에 도시된 순서도를 중심으로, 자율주행 차량(200)이 대기 구역(WA)으로 이동할 때의 서버(100)와 자율주행 차량(200)의 동작에 대해 설명하도록 한다.
도 11을 참조하면, 정차 관리 모듈(120)은 자율주행 차량(200)의 위치가 대기 구역(WA) 이내인지 판단할 수 있다(S90). 보다 구체적으로, 정차 관리 모듈(120)은 자율주행 차량(200)의 GPS 모듈(230)로부터 수신된 위치 정보에 기초하여 현재 자율주행 차량(200)의 위치가 대기 구역(WA) 이내인지를 지속적으로 판단할 수 있다.
판단 결과, 자율주행 차량(200)의 위치가 대기 구역(WA) 이내이면, 정차 관리 모듈(120)은 정차 구역(SA)에 대한 정차 가능 여부를 판단할 수 있다(S100). 단계(S100)의 동작은 미리 설정된 주기에 따라 지속적으로 수행될 수 있다.
판단 결과, 정차 구역(SA)이 정차 가능 상태로 판단되면, 서버(100)는 도 3에 도시된 단계(S60)에 따라 동작할 수 있고, 자율주행 차량(200)은 정차 구역(SA)까지의 주행 경로에 따라 정차 구역(SA)으로 이동할 수 있다.
한편, 서버(100)는 단계(S60)의 동작을 수행함에 있어서, 대기 구역(WA)에 위치한 복수의 자율주행 차량(200) 중 대기 구역(WA)에 진입한 시점이 가장 이른 자율주행 차량(200)에 정차 구역(SA)까지의 주행 경로를 송신할 수 있다.
보다 구체적으로, 정차 불가능 상태로 판단된 정차 구역(SA)에 진입하고자 하는 자율주행 차량(200)은 복수 대일 수 있다. 이 경우, 복수의 자율주행 차량(200)은 동일한 대기 구역(WA)에 진입하여 대기할 수 있다. 다만, 각각의 자율주행 차량(200)이 대기 구역(WA)에 진입한 시점은 서로 다를 수 있다.
정차 관리 모듈(120)은 각각의 자율주행 차량(200)의 GPS 모듈(230)로부터 수신된 위치 정보에 기초하여 각 자율주행 차량(200)이 대기 구역(WA)에 진입한 시점을 데이터베이스(130)에 저장할 수 있다. 이후, 정차 구역(SA)이 정차 가능 상태로 판단되면, 정차 관리 모듈(120)은 데이터베이스(130)를 참조하여, 대기 구역(WA)에 가장 먼저 진입한 자율주행 차량(200)에 정차 구역(SA)까지의 주행 경로를 송신할 수 있다.
다시 말해, 대기 구역(WA)에서 가장 오래 대기한 자율주행 차량(200)에 우선적으로 정차 구역(SA)까지의 주행 경로를 송신할 수 있다.
또한, 서버(100)는 복수의 대기 포인트(wp)를 각각 점유하고 있는 복수의 자율주행 차량(200) 중 목적지와 가장 가까운 대기 포인트(wp)를 점유하고 있는 자율주행 차량(200)에 정차 구역(SA)까지의 주행 경로를 송신할 수도 있다.
다시 도 9를 참조하면, 제2, 제3 및 제5 대기 포인트(wp2, wp3, wp5)는 각각 자율주행 차량(200)에 의해 점유될 수 있다. 이 때, 도 11에 도시된 단계(S100)에 의해 정차 구역(SA)이 정차 가능 상태로 판단될 수 있다.
이 경우, 경로 생성 모듈(110)은 정차 구역(SA)까지의 주행 경로를 생성하고, 생성된 주행 경로를, 목적지와 가장 가까운 제2 대기 포인트(wp2)를 점유하고 있는 자율주행 차량(200)에 송신할 수 있다.
다시 말해, 대기 구역(WA) 중 목적지와 가장 가까운 대기 포인트에 위치한 자율주행 차량(200)에 우선적으로 정차 구역(SA)까지의 주행 경로를 송신할 수 있다.
상술한 바와 같이, 본 발명은 승하차지로 이동하기 위해 대기중인 자율주행 차량(200)의 대기 위치 및 대기 시간 중 적어도 하나에 기초하여 순차적으로 자율주행 차량(200)을 승하차지로 이동시킴으로써, 운송 서비스를 제공함에 있어서 복수의 자율주행 차량(200)을 효율적으로 운용할 수 있다.
한편, 도 11에 도시된 단계(S100)에서 정차 구역(SA)이 정차 불가능 상태로 판단되면, 정차 관리 모듈(120)은 자율주행 차량(200)의 위치가 미리 설정된 시간 이상 대기 구역(WA) 이내인지 판단할 수 있다(S110). 판단 결과, 대기 구역(WA)에 대한 점유 시간이 미리 설정된 시간 미만이면, 정차 관리 모듈(120)은 지속적으로 정차 구역(SA)에 대한 정차 가능 여부를 판단할 수 있다(S100).
반면에, 대기 구역(WA)에 대한 점유 시간이 미리 설정된 시간 이상이면 정차 관리 모듈(120)은 정차 구역(SA)을 인접 정차 구역(SA')으로 변경하고(S120), 인접 정차 구역(SA')까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있다(S130).
전술한 바와 같이 정차 관리 모듈(120)은 각 자율주행 차량(200)이 대기 구역(WA)에 진입한 시점을 데이터베이스(130)에 저장할 수 있고, 대기 구역(WA)에 진입한 시점으로부터 현재 시점까지의 시간인 점유 시간을 카운트할 수 있다.
카운트된 점유 시간이 미리 설정된 시간 이상이면 정차 관리 모듈(120)은 기 설정된 정차 구역(SA)을 인접 정차 구역(SA')으로 변경할 수 있다. 여기서, 인접 정차 구역(SA')은 정차 구역(SA)과 미리 설정된 거리 이내인 다른 정차 구역(SA)으로 정의될 수 있다.
보다 구체적으로, 어느 한 목적지에 대응하는 정차 구역(SA)이 복수 개인 경우, 인접 정차 구역(SA')은 목적지에 대응하는 복수의 정차 구역(SA) 중 기 설정된 정차 구역(SA) 외의 다른 정차 구역(SA)일 수 있다. 또한, 어느 한 목적지에 대응하는 정차 구역(SA)이 단일인 경우, 인접 정차 구역(SA')은 목적지에 인접한 다른 목적지에 대응하는 정차 구역(SA)일 수 있다.
한편, 인접 정차 구역(SA')은 기 설정된 정차 구역(SA) 외에 정차 가능 상태로 판단된 정차 구역(SA)으로 설정될 수 있다. 즉, 정차 관리 모듈(120)은 현재 정차 불가능 상태로 판단된 정차 구역(SA)을 정차 가능 상태로 판단된 인접 정차 구역(SA')으로 변경할 수 있다.
정차 구역(SA)이 인접 정차 구역(SA')으로 변경되면, 경로 생성 모듈(110)은 인접 정차 구역(SA')까지의 주행 경로를 생성하여 자율주행 차량(200)에 송신할 수 있고, 자율주행 차량(200)은 인접 정차 구역(SA')으로 이동할 수 있다. 인접 정차 구역(SA')으로 이동한 이후의 자율주행 차량(200)의 동작은, 정차 구역(SA)으로 이동한 이후의 자율주행 차량(200)의 동작과 동일할 수 있다.
상술한 바와 같이, 본 발명은 대기 시간이 일정 시간 이상이면 승하차를 위한 구역을 변경하고, 변경된 구역으로 자율주행 차량(200)을 이동시킴으로써 승하차를 위한 사용자의 대기 시간을 줄일 수 있다.
한편, 정차 관리 모듈(120)은 자율주행 차량(200)으로부터 정차 불가 신호가 수신되면 정차 구역(SA)을 인접 정차 구역(SA')으로 변경할 수 있다. 여기서 정차 불가 신호는 자율주행 차량(200) 내부에서 생성되는 신호로서, 임의의 요인에 의해 정차 구역(SA)에 대한 정차가 불가능한 것을 나타내는 신호일 수 있다.
자율주행 차량(200)이 정차 구역(SA)으로 이동한 경우 카메라 모듈(240)은 정차 구역(SA)의 영상을 촬영할 수 있다. 자율주행 모듈(220)은 카메라 모듈(240)에 의해 촬영된 영상에 기초하여 정차 구역(SA)이 일반 차량, 구조물, 사람 등에 의해 점유되어 있음을 식별할 수 있다. 또한, 자율주행 모듈(220)은 카메라 모듈(240)에 의해 촬영된 영상에 기초하여 정차 구역(SA)의 노면의 침수, 불균형, 등을 식별할 수 있다.
예를 들어, 도 12를 참조하면 정차 구역(SA)이 정차 가능 상태로 판단되어 자율주행 차량(200)이 정차 구역(SA)으로 이동하였을 때, 해당 정차 구역(SA)은 이미 일반 차량에 의해 점유되어 있을 수 있다. 이 경우, 자율주행 모듈(220)은 카메라 모듈(240)에서 촬영된 영상에 기초하여 정차 구역(SA)이 점유 상태임을 식별할 수 있다.
이 때, 디스플레이 모듈(210)은 자율주행 차량(200)의 전면 유리를 통해 정차 구역(SA)에 불차가 불가능함을 안내하기 위한 증강 이미지를 출력할 수 있다. 예컨대, 도 12에 도시된 바와 같이 디스플레이 모듈(210)은 정차 구역(SA)이 점유되었음을 표시하는 증강 이미지와, 정차 구역(SA)으로 진입이 불가능하다는 것을 나타내기 위한 증강 이미지가 표시될 수 있다. 탑승자는 증강 이미지를 통해 현재 설정된 하차 위치에서 정차가 불가능함을 손쉽게 파악할 수 있다.
전술한 바와 같이 임의의 요인에 의해 정차 구역(SA)에 대한 정차가 불가능하다고 판단되는 경우, 자율주행 모듈(220)은 정차 불가 신호를 생성하여 서버(100)에 송신할 수 있다. 서버(100) 내 정차 관리 모듈(120)은 정차 불가 신호를 수신하고 정차 불가 신호에 응답하여 정차 구역(SA)을 인접 정차 구역(SA')으로 변경할 수 있다.
위와 같은 방법에 따라 정차 구역(SA)이 인접 정차 구역(SA')으로 변경되면, 서버(100)는 인접 정차 구역(SA')에 대한 정보를 사용자 단말(300)로 송신할 수 있다. 인접 정차 구역(SA')에 대한 정보는 위치 정보가 포함될 수 있고, 위치 정보는 사용자 단말(300)에 증강 이미지, 지도 등으로 표현될 수 있다.
도 13a를 참조하면, 사용자 단말(300)에 설치된 운송 어플리케이션은 서버(100)로부터 수신된 인접 정차 구역(SA')에 대한 위치 정보를, 사용자 단말(300)에서 촬영되는 외부 영상에 증강 이미지로 표현할 수 있다. 또한, 도 13b를 참조하면, 운송 어플리케이션은 서버(100)로부터 수신된 인접 정차 구역(SA')에 대한 위치 정보를 사용자 단말(300)에 표시되는 지도에 표현할 수도 있다.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (16)

  1. 사용자 단말로부터 운행 정보를 수신하고, 상기 수신된 운행 정보에 기초하여 목적지를 식별하는 단계;
    상기 목적지까지의 주행 경로를 생성하여 자율주행 차량에 송신하는 단계;
    상기 자율주행 차량이 상기 목적지와 미리 설정된 거리 이내이면 상기 목적지에 대응하는 정차 구역을 식별하고, 상기 식별된 정차 구역에 대한 정차 가능 여부를 판단하는 단계; 및
    상기 판단 결과에 따라 상기 정차 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하거나, 상기 목적지까지의 주행 경로 상에서 대기 구역을 설정하고 상기 설정된 대기 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  2. 제1항에 있어서,
    상기 사용자 단말로부터 운행 정보를 수신하고, 상기 수신된 운행 정보에 기초하여 목적지를 식별하는 단계는
    상기 운행 정보에 포함된 승차 위치 및 하차 위치 중 적어도 하나를 상기 목적지로 식별하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  3. 제1항에 있어서,
    상기 자율주행 차량 내 GPS 모듈로부터 위치 정보를 수신하여 상기 자율주행 차량의 위치를 식별하고, 상기 식별된 위치와 상기 목적지의 위치를 비교하여 상기 자율주행 차량이 상기 목적지와 미리 설정된 거리 이내인지 여부를 판단하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  4. 제1항에 있어서,
    상기 식별된 정차 구역에 대한 정차 가능 여부를 판단하는 단계는
    상기 정차 구역의 교통 혼잡도에 기초하여 상기 정차 구역에 대한 정차 가능 여부를 판단하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  5. 제4항에 있어서,
    상기 정차 구역의 교통 혼잡도에 기초하여 상기 정차 구역에 대한 정차 가능 여부를 판단하는 단계는
    상기 교통 혼잡도가 기준치 이상이면 상기 정차 구역을 정차 불가능 상태로 판단하고, 상기 교통 혼잡도가 상기 기준치 미만이면 상기 정차 구역을 정차 가능 상태로 판단하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  6. 제4항에 있어서,
    교통 정보 서버와 데이터 통신을 수행하여 상기 정차 구역의 교통 혼잡도를 식별하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  7. 제1항에 있어서,
    상기 식별된 정차 구역에 대한 정차 가능 여부를 판단하는 단계는
    상기 자율주행 차량 내 카메라 모듈로부터 외부 영상 정보를 수신하고, 상기 수신된 외부 영상 정보에 기초하여 상기 정차 구역에 대한 정차 가능 여부를 판단하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  8. 제1항에 있어서,
    상기 목적지까지의 주행 경로 상에서 대기 구역을 설정하는 단계는
    상기 목적지까지의 주행 경로 상에서 교통 혼잡도가 기준치 미만인 구역을 상기 대기 구역으로 설정하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  9. 제1항에 있어서,
    상기 자율주행 차량의 위치가 상기 대기 구역 이내인 경우 상기 정차 구역에 대한 정차 가능 여부를 미리 설정된 주기에 따라 지속적으로 판단하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  10. 제9항에 있어서,
    상기 정차 구역이 정차 가능 상태로 판단되면 상기 대기 구역에 위치한 복수의 자율주행 차량 중 상기 대기 구역에 진입한 시점이 가장 이른 자율주행 차량에 상기 정차 구역까지의 주행 경로를 송신하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  11. 제1항에 있어서,
    상기 자율주행 차량의 위치가 미리 설정된 시간 이상 상기 대기 구역 이내인 경우 상기 정차 구역을 인접 정차 구역으로 변경하는 단계; 및
    상기 인접 정차 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  12. 제1항에 있어서,
    상기 자율주행 차량으로부터 정차 불가 신호가 수신되면 상기 정차 구역을 인접 정차 구역으로 변경하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  13. 제11항 또는 제12항에 있어서,
    상기 변경된 인접 정차 구역에 대한 정보를 상기 사용자 단말로 송신하는 단계를 더 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  14. 제1항에 있어서,
    상기 대기 구역은 상기 목적지까지의 주행 경로를 따라 순차적으로 정렬된 복수의 대기 포인트를 포함하고,
    상기 목적지까지의 주행 경로 상에서 대기 구역을 설정하고 상기 설정된 대기 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계는
    상기 복수의 대기 포인트 중 점유되지 않은 비점유 대기 포인트를 식별하고, 상기 식별된 비점유 대기 포인트 중 상기 목적지와 가장 가까운 어느 한 비점유 대기 포인트까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  15. 제1항에 있어서,
    상기 대기 구역은 상기 목적지까지의 주행 경로를 따라 순차적으로 정렬된 복수의 대기 포인트를 포함하고,
    상기 정차 구역까지의 주행 경로를 생성하여 상기 자율주행 차량에 송신하는 단계는
    상기 복수의 대기 포인트를 각각 점유하고 있는 복수의 자율주행 차량 중 상기 목적지와 가장 가까운 대기 포인트를 점유하고 있는 자율주행 차량에 상기 정차 구역까지의 주행 경로를 송신하는 단계를 포함하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
  16. 제1항에 있어서,
    상기 정차 구역 또는 상기 대기 구역까지의 주행 경로에 따라 자율주행 중인 상기 자율주행 차량은 차대차(Vehicle-to-Vehicle; V2V) 통신을 통해 인접 차량에 상기 정차 구역 또는 상기 대기 구역에 대한 점유 예정 신호를 송신하는
    자율주행 차량을 이용한 운송 서비스 제공 방법.
PCT/KR2019/003323 2019-03-21 2019-03-21 자율주행 차량을 이용한 운송 서비스 제공 방법 WO2020189832A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/490,501 US11332159B2 (en) 2019-03-21 2019-03-21 Method for providing transportation service using autonomous vehicle
PCT/KR2019/003323 WO2020189832A1 (ko) 2019-03-21 2019-03-21 자율주행 차량을 이용한 운송 서비스 제공 방법
KR1020197019823A KR20200112630A (ko) 2019-03-21 2019-03-21 자율주행 차량을 이용한 운송 서비스 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003323 WO2020189832A1 (ko) 2019-03-21 2019-03-21 자율주행 차량을 이용한 운송 서비스 제공 방법

Publications (1)

Publication Number Publication Date
WO2020189832A1 true WO2020189832A1 (ko) 2020-09-24

Family

ID=72520979

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003323 WO2020189832A1 (ko) 2019-03-21 2019-03-21 자율주행 차량을 이용한 운송 서비스 제공 방법

Country Status (3)

Country Link
US (1) US11332159B2 (ko)
KR (1) KR20200112630A (ko)
WO (1) WO2020189832A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7287254B2 (ja) * 2019-11-28 2023-06-06 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
US11403847B2 (en) * 2020-03-17 2022-08-02 International Business Machines Corporation Sharing system selection assistant
DE102021122723A1 (de) 2020-09-03 2022-03-03 Lg Display Co., Ltd. Anzeigevorrichtung
WO2023034061A1 (en) * 2021-08-31 2023-03-09 Zoox, Inc. Remote assistance for vehicles
CN114973782B (zh) * 2022-05-12 2023-05-23 中国民用航空飞行学院 一种低碳运行的航空器地面滑行移交辅助控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120045172A (ko) * 2010-10-29 2012-05-09 에스케이플래닛 주식회사 픽업 서비스 제공 시스템, 픽업 서비스를 제공하기 위한 단말 장치 및 정보 제공 장치, 그리고 그의 픽업 서비스 제공 방법
US20170102700A1 (en) * 2015-10-13 2017-04-13 Nokia Technologies Oy Method and apparatus for providing adaptive transitioning between operational modes of an autonomous vehicle
KR20170142210A (ko) * 2015-06-22 2017-12-27 웨이모 엘엘씨 자율 차량들에 대한 픽업 및 목적지 로케이션들의 결정
KR20180008593A (ko) * 2015-05-13 2018-01-24 우버 테크놀로지스, 인크. 안내 보조로 동작되는 자율주행 차량
JP2018156641A (ja) * 2017-03-17 2018-10-04 パナソニックIpマネジメント株式会社 車両運行管理システムおよび車両運行管理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4985103B2 (ja) 2007-05-28 2012-07-25 トヨタ自動車株式会社 車両の自動運転装置
US20170241796A1 (en) 2014-11-18 2017-08-24 Nec Corporation Navigation device, navigation method and storage medium
US10857994B2 (en) * 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
KR101982774B1 (ko) 2016-11-29 2019-05-27 엘지전자 주식회사 자율 주행 차량
US11493348B2 (en) * 2017-06-23 2022-11-08 Direct Current Capital LLC Methods for executing autonomous rideshare requests
US10627815B2 (en) * 2017-08-22 2020-04-21 Waymo Llc Context aware stopping for autonomous vehicles
DE112017008214T5 (de) * 2017-12-18 2020-08-06 Ford Global Technologies, Llc Shuttle-Routenplanungssystem
WO2019167055A1 (en) * 2018-03-01 2019-09-06 ANI Technologies Private Limited Method and system for allocating vehicles to passengers
US10466057B1 (en) * 2018-07-30 2019-11-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US11299175B2 (en) * 2019-01-31 2022-04-12 Uber Technologies, Inc. Illegal stopping zone avoidance system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120045172A (ko) * 2010-10-29 2012-05-09 에스케이플래닛 주식회사 픽업 서비스 제공 시스템, 픽업 서비스를 제공하기 위한 단말 장치 및 정보 제공 장치, 그리고 그의 픽업 서비스 제공 방법
KR20180008593A (ko) * 2015-05-13 2018-01-24 우버 테크놀로지스, 인크. 안내 보조로 동작되는 자율주행 차량
KR20170142210A (ko) * 2015-06-22 2017-12-27 웨이모 엘엘씨 자율 차량들에 대한 픽업 및 목적지 로케이션들의 결정
US20170102700A1 (en) * 2015-10-13 2017-04-13 Nokia Technologies Oy Method and apparatus for providing adaptive transitioning between operational modes of an autonomous vehicle
JP2018156641A (ja) * 2017-03-17 2018-10-04 パナソニックIpマネジメント株式会社 車両運行管理システムおよび車両運行管理方法

Also Published As

Publication number Publication date
US20210331702A1 (en) 2021-10-28
KR20200112630A (ko) 2020-10-05
US11332159B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
WO2020189832A1 (ko) 자율주행 차량을 이용한 운송 서비스 제공 방법
WO2020122270A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2020222325A1 (ko) 존 기반 모빌리티 서비스 추천 및 동적 하차위치 설정 ui/ux를 이용한 통합 관제 시스템 및 이의 제어 방법
WO2020138516A1 (ko) 통신 장치, 그것의 제어 방법 및 그것을 포함하는 통신 시스템
WO2020036419A1 (en) Method of assisting autonomous vehicle, and apparatus therefor
WO2020105759A1 (ko) 통신 장치, 그것의 제어 방법 및 그것을 포함하는 통신 시스템
WO2013133464A1 (en) Image display device and method thereof
WO2020171263A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2020145441A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2018070663A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2020189831A1 (ko) 자율주행 차량의 모니터링 및 제어 방법
WO2019107782A1 (ko) 정보 제공을 위한 시스템, 서버 및 방법
WO2020184755A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2018164335A1 (ko) 센서를 이용한 이륜차의 위험 상황 감지 시스템 및 이를 이용한 응급 구난 신호 전송 방법
WO2020130485A1 (ko) 전자 장치 및 이를 이용한 v2x 서비스를 제공하는 방법
WO2020071564A1 (ko) 이동 its 스테이션 및 상기 이동 its 스테이션의 메시지 송수신 방법
WO2021107732A1 (ko) 차량 공유 네트워크를 이용한 통합 내비게이션 서비스 제공 방법 및 그를 위한 장치 및 시스템
JP2020095478A (ja) 交通管理装置、交通管理システム、交通管理方法、及び交通管理用コンピュータプログラム
WO2020251099A1 (ko) 사용자의 현재 위치로 차량을 호출하는 방법
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020171265A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2020166743A1 (ko) 자율주행 차량을 이용한 부동산 서비스 제공 방법
WO2018021681A1 (ko) 비행 가이드용 플레이트를 이용한 드론 스테이션
WO2022154153A1 (ko) 로봇 및 그 제어 방법
WO2021002516A1 (ko) 전자 장치 및 전자 장치의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19920461

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19920461

Country of ref document: EP

Kind code of ref document: A1