WO2020171242A1 - Vehicle control method, apparatus, and method and system for delivery service using vehicle - Google Patents

Vehicle control method, apparatus, and method and system for delivery service using vehicle Download PDF

Info

Publication number
WO2020171242A1
WO2020171242A1 PCT/KR2019/001902 KR2019001902W WO2020171242A1 WO 2020171242 A1 WO2020171242 A1 WO 2020171242A1 KR 2019001902 W KR2019001902 W KR 2019001902W WO 2020171242 A1 WO2020171242 A1 WO 2020171242A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
delivery
user
authentication information
information
Prior art date
Application number
PCT/KR2019/001902
Other languages
French (fr)
Korean (ko)
Inventor
김소영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/001902 priority Critical patent/WO2020171242A1/en
Priority to KR1020217019207A priority patent/KR20210118066A/en
Publication of WO2020171242A1 publication Critical patent/WO2020171242A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/10Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
    • B60R25/102Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device a signal being sent to a remote location, e.g. a radio signal being transmitted to a police station, a security company or the owner
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/24Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/24Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user
    • B60R25/241Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user whereby access privileges are related to the identifiers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/34Detection related to theft or to other events relevant to anti-theft systems of conditions of vehicle components, e.g. of windows, door locks or gear selectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/083Network architectures or network communication protocols for network security for authentication of entities using passwords
    • H04L63/0838Network architectures or network communication protocols for network security for authentication of entities using passwords using one-time-passwords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Definitions

  • the present invention relates to a vehicle control method, a delivery service method and system using an apparatus vehicle, in which a user can remotely request a delivery service to receive a desired product to his or her vehicle.
  • Vehicles can be classified into internal combustion engine vehicles, external combustion engine vehicles, gas turbine vehicles, or electric vehicles, depending on the type of prime mover used.
  • a vehicle can be used as a means for receiving various services in addition to a means for driving. For example, it is possible to control a vehicle and link it with various services, and vehicle control in various patterns may be necessary to provide an optimal service.
  • An object of the present invention may be to provide a delivery service method and system using a vehicle in which a user can receive a desired product in a vehicle.
  • the vehicle control method performs user authentication processing by comparing the first authentication information received from an external server and stored in advance with the second authentication information received from the terminal of the delivery person. And releasing the door lock after successful authentication, and transmitting a delivery completion report to the user's terminal by recognizing that the delivery target object received from the delivery person is located in the vehicle.
  • a vehicle control apparatus includes: a wireless communication unit; A storage unit for storing first authentication information received from an external server through the wireless communication unit; And a control unit configured to perform a user authentication process by comparing the first authentication information and the second authentication information when receiving the second authentication information from the terminal of the delivery person through the wireless communication unit, and unlocking the door after successful authentication.
  • a control unit configured to perform a user authentication process by comparing the first authentication information and the second authentication information when receiving the second authentication information from the terminal of the delivery person through the wireless communication unit, and unlocking the door after successful authentication.
  • the control unit analyzes the internal image of the vehicle obtained from the camera provided in the vehicle, and when recognizing the delivery target object delivered from the delivery person, delivery is completed to the user's terminal through the wireless communication unit Send the report.
  • a delivery service method includes: receiving, by a delivery service server, a delivery service request from a user; Transmitting first authentication information generated from the delivery service server to a vehicle, and transmitting second authentication information generated from the delivery service server to a terminal of a delivery person; Releasing a door lock of the vehicle when it is determined that authentication is successful based on a comparison result of the first and second authentication information; And transmitting a delivery completion report to the user's terminal after the vehicle recognizes that the delivery target object ordered is located in the vehicle when the delivery service is requested.
  • the delivery service system transmits the first authentication information to the vehicle when receiving a delivery service request from the user 3000, and transmits the second authentication information generated from the delivery service server to the delivery person.
  • the vehicle 100 requests the delivery service, after recognizing that the ordered delivery object 3100 is located in the vehicle 100, a delivery completion report is transmitted to the terminal of the user 3000.
  • a vehicle control method receiving a delivery service comprises the steps of receiving delivery information corresponding to a delivery service request from a server;-The delivery service request is transmitted to the server through a user device.
  • the second authentication information is received from the terminal of the delivery person, and the first authentication information and the 2 comparing authentication information; Releasing the door lock when the first authentication information and the second authentication information match; Recognizing that a delivery product corresponding to the delivery service request is located at a predetermined location in the vehicle; And transmitting the delivery completion information to the server and the user device.
  • a delivery target object ordered by a user may be delivered to a specific space in a parked vehicle.
  • the vehicle control apparatus of the present invention may control the temperature of the refrigerator to the appropriate storage temperature of the food by driving the refrigerator in the vehicle before the scheduled delivery time of the food in order to maintain the proper storage temperature of the food requiring the appropriate temperature.
  • the vehicle control apparatus of the present invention may allow the delivery person to access the vehicle interior space by unlocking the door after successful authentication for the delivery person approaching the vehicle.
  • the vehicle control apparatus of the present invention may determine a delivery completion situation and transmit an image of a vehicle interior space to a user together with a delivery completion report.
  • the vehicle control apparatus of the present invention may photograph a delivery situation through a camera and transmit the captured image to a user in real time to inform the user of the delivery situation in real time.
  • the vehicle control apparatus of the present invention may inform the user of the delivery result using the output device when the user boards the vehicle after delivery is completed.
  • the vehicle control apparatus of the present invention may inform the user of the elapsed storage time of the object to be delivered when the user does not board the vehicle for a long time after delivery is completed.
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a view of a vehicle according to an embodiment of the present invention as viewed from various external angles.
  • 3 and 4 are views showing the interior of a vehicle according to an embodiment of the present invention.
  • 5 and 6 are diagrams showing examples of objects related to driving of a vehicle according to an embodiment of the present invention.
  • FIG. 7 is a block diagram showing in detail a vehicle according to an embodiment of the present invention.
  • FIG. 8 is a view showing a delivery service system using a vehicle using a vehicle according to an embodiment of the present invention.
  • FIGS. 9 and 10 are diagrams showing a control procedure of a delivery service method using a vehicle according to an embodiment of the present invention.
  • 11 is a flowchart illustrating a method of controlling storage temperature of an object to be delivered in a vehicle requiring an appropriate temperature.
  • FIG. 12 is a diagram illustrating an example in which a user designates a specific location in a vehicle as a delivery location.
  • FIG. 13 and 14 are diagrams showing an example of reporting a delivery status of a delivery person approaching a vehicle to a user.
  • 15 is a diagram showing delivery order information and unlocking a door of a vehicle after successful delivery person authentication.
  • 16 is a diagram illustrating an example of providing an in-vehicle image to a user together with a delivery completion report.
  • 17 is a view showing an example of a refrigerator for a vehicle in which food is stored and a display indicating completion of delivery.
  • 18 is a diagram illustrating an example of informing a delivery result to a user who boards a vehicle after delivery is completed.
  • 19 is a diagram illustrating an example of informing a user of an elapsed storage time of a delivered object when a user does not board a vehicle for a long time after delivery is completed.
  • Ordinal numbers such as 1st and 2nd may be used to classify the components, but these components are not limited in function or structure by the ordinal number or component name in front of the component.
  • the vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, an electric vehicle including an electric motor as a power source, and the like.
  • an autonomous vehicle any vehicle that is connected to a delivery service server through a communication network and can be controlled remotely can be applied to the present invention.
  • the vehicle 100 may include a wheel rotating by a power source, and a steering input device 510 for adjusting a traveling direction of the vehicle 100.
  • the vehicle 100 may be remotely controlled by an external device.
  • the external device may be a server, a mobile terminal, or another vehicle.
  • the server may perform remote control of the vehicle 100.
  • the information provider server may transmit various types of information to the vehicle 100.
  • the information is displayed as visual information such as a graphic image or text reproduced on the display device of the vehicle 100.
  • the information may include various information such as living information, local information, public information, weather, emergency warning, advertisement information, and so on.
  • the vehicle 100 may operate in a manual mode, an autonomous driving mode, or a remote control mode. It may be a mode indicating what is the subject controlling the vehicle 100.
  • the autonomous driving mode the controller 170 or the driving system 700 directly controls the vehicle 100 without driver intervention to drive the vehicle 100 to a destination set by the driver.
  • the remote control mode an external device controls the vehicle 100 without driver intervention.
  • the user may select one of an autonomous driving mode, a manual mode, and a remote control mode through the user interface device 200.
  • the vehicle 100 may automatically switch to one of an autonomous driving mode, a manual mode, and a remote control mode based on at least one of driver status information, vehicle driving information, and vehicle status information.
  • the driver status information may be generated through the user interface device 200 and provided to the controller 170.
  • the driver status information may be generated based on an image or biometric information about the driver detected through the internal camera 220 or the biometric sensor 230.
  • the driver's state information may include driver's gaze, facial expressions, behavior, driver position information, etc. obtained from an image acquired through the internal camera 220.
  • the driver state information may include the user's biometric information acquired through the biometric sensor 230.
  • the driver state information may indicate a direction in which the driver's gaze is directed, whether the driver is drowsy, a driver's health state, and an emotional state of the driver.
  • the vehicle driving information may be generated based on object information provided from the object detection device 300 or information received through the communication device 400.
  • the vehicle driving information includes location information of the vehicle 100, attitude information of the vehicle 100, information about the other vehicle OB11 received from the other vehicle OB11, information or map information about the driving route of the vehicle 100 It may include navigation information including (map).
  • the vehicle driving information indicates the type, location, and movement of objects existing around the vehicle 100, and the presence or absence of a lane detected around the vehicle 100.
  • the vehicle driving information includes driving information of another vehicle 100, a space available for stopping around the vehicle 100, the possibility of a collision between a vehicle and an object, pedestrian or bicycle information detected in the vicinity of the vehicle 100, and road information. , It may represent a signal state around the vehicle 100, a movement of the vehicle 100, and the like.
  • Vehicle driving information is generated through linkage of at least one of the object detection device 300, the communication device 400, the navigation system 770, the sensing unit 120, and the interface unit 130, and is transmitted to the control unit 170. Can be provided.
  • the vehicle status information may be information related to the status of various devices included in the vehicle 100.
  • the vehicle state information may include a state of charge of a battery, a user interface device 200, an object detection device 300, a communication device 400, a driving operation device 500, a vehicle driving device 600, and a driving system ( 700) may include information on the operation state and information on whether each device is abnormal.
  • the vehicle status information may indicate whether a GPS signal of the vehicle 100 is normally received, whether an abnormality occurs in at least one sensor provided in the vehicle 100, and whether each device provided in the vehicle 100 operates normally.
  • the control mode of the vehicle 100 may be switched from a manual mode to an autonomous driving mode, or may be switched from an autonomous driving mode to a manual mode.
  • the control mode of the vehicle 100 may be switched from a manual mode to an autonomous driving mode or may be switched from an autonomous driving mode to a manual mode based on information received through the communication device 400.
  • the control mode of the vehicle 100 may be switched from a manual mode to an autonomous driving mode or may be switched from an autonomous driving mode to a manual mode based on information, data, and signals provided from an external device.
  • the vehicle 100 When the vehicle 100 is operated in the autonomous driving mode, the vehicle 100 may be operated under the control of the driving system 700. In the autonomous driving mode, the vehicle 100 may be driven based on information generated by the driving system 710, the exit system 740, and the parking system 750.
  • the vehicle 100 may receive a user input for driving through the driving operation device 500.
  • the vehicle 100 may be driven based on a user input received through the driving manipulation device 500.
  • the vehicle 100 may receive a remote control signal transmitted from an external device through the communication device 400.
  • the vehicle 100 may be controlled based on a remote control signal.
  • the overall length means the length from the front part to the rear part of the vehicle 100
  • the width means the width of the vehicle 100
  • the height means the length from the lower part of the wheel to the roof.
  • the overall length direction (L) is a direction used as a reference for measuring the overall length of the vehicle 100
  • the full width direction (W) is a direction used as a reference for measuring the overall width of the vehicle 100
  • the overall height direction (H) is a vehicle ( It can mean the direction that is the standard for measuring the total height of 100).
  • the vehicle 100 includes a user interface device 200, an object detection device 300, a communication device 400, a driving operation device 500, a vehicle driving device 600, and a driving system 700. , A navigation system 770, a sensing unit 120, an interface unit 130, a memory 140, a control unit 170, and a power supply unit 190.
  • the user interface device 200 is a device for communicating with the vehicle 100 and a user.
  • the user interface device 200 may receive a user input and provide information generated by the vehicle 100 to the user.
  • the vehicle 100 may implement User Interfaces (UI) or User Experience (UX) through the user interface device 200.
  • UI User Interfaces
  • UX User Experience
  • the user interface device 200 may include an input unit 210, an internal camera 220, a biometric sensor 230, an output unit 250, and a processor 270.
  • the input unit 210 receives user data or commands.
  • the data collected by the input unit 210 may be analyzed by the processor 270 and processed as a user's control command.
  • the input unit 210 may be disposed inside the vehicle.
  • the input unit 210 includes one area of a steering wheel, one area of an instrument panel, one area of a seat, one area of each pillar, and one of a door. To be placed in an area, a center console area, a head lining area, a sun visor area, a windshield area, or a window area. I can.
  • the input unit 210 may include a voice input unit 211, a gesture input unit 212, a touch input unit 213, and a mechanical input unit 214.
  • the voice input unit 211 may convert a user's voice input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the control unit 170.
  • the voice input unit 211 may include one or more microphones.
  • the gesture input unit 212 may convert a user's gesture input into an electrical signal and provide it to the processor 270 or the control unit 170.
  • the gesture input unit 212 may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.
  • the gesture input unit 212 may detect a user's 3D gesture input. To this end, the gesture input unit 212 may include an optical output unit that outputs a plurality of infrared light or a plurality of image sensors.
  • the gesture input unit 212 may detect a user's 3D gesture input through a Time of Flight (TOF) method, a structured light method, or a disparity method.
  • TOF Time of Flight
  • the touch input unit 213 may convert a user's touch input into an electrical signal and provide it to the processor 270 or the control unit 170.
  • the touch input unit 213 may include a touch sensor for sensing a user's touch input.
  • the touch input unit 213 is integrally formed with the display 251 to implement a touch screen.
  • the touch screen may provide an input interface and an output interface between the vehicle 100 and a user together.
  • the mechanical input unit 214 may include at least one of a button, a dome switch, a jog wheel, and a jog switch.
  • the output signal of the mechanical input unit 214 may be provided to the processor 270 or the control unit 170.
  • the mechanical input unit 214 may be disposed on a steering wheel, a center fascia, a center console, a cockpit module, a door, or the like.
  • the occupant detection unit 240 may detect a occupant or an object inside the vehicle 100.
  • the occupant detection unit 240 may include an internal camera 220 and a living body detection unit 230.
  • the internal camera 220 photographs the interior space of the vehicle.
  • the processor 270 may detect a user state based on an image inside the vehicle received from the internal camera 220.
  • the processor 270 may generate driver state information by analyzing a vehicle interior image to determine a driver's state such as a driver's gaze, face, behavior, expression, and location.
  • the processor 270 may determine a user's gesture from an image inside the vehicle.
  • the processor 270 may provide driver state information to the controller 170.
  • the biometric sensor 230 may acquire biometric information of a user.
  • the biometric sensor 230 may acquire fingerprint information, heartbeat information, brain wave information, and the like of a user by using a sensor capable of acquiring the user's biometric information.
  • the biometric information may be used for user authentication or for determining a user's state.
  • the processor 270 may generate driver state information by determining a driver's state based on the driver's biometric information.
  • the driver status information may indicate whether the driver is fainting, drowsy, excited, or in an emergency.
  • the processor 270 may provide driver state information obtained from the driver's biometric information to the controller 170.
  • the output unit 250 generates output related to visual, auditory, or tactile sense.
  • the output unit 250 may include a display 251, an audio output unit 252, a haptic output unit 253, and the like.
  • the display 251 displays an image signal including various information.
  • the display 251 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
  • the display 251 may be combined with the touch input unit 213 to implement a touch screen.
  • the display 251 may be implemented as a head up display (HUD).
  • the HUD may include a projection module to display information through a windshield or an image projected on a window.
  • the display 251 may include a transparent display.
  • the transparent display can be attached to a windshield or window.
  • the transparent display can display a predetermined screen while having a predetermined transparency.
  • Transparent display in order to have transparency, transparent display is transparent TFEL (Thin Film Elecroluminescent), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display It may include at least one of.
  • the transparency of the transparent display can be adjusted.
  • the display 251 may include a plurality of displays 251a to 251g as shown in FIGS. 3 and 4.
  • the display 251 includes one area of the steering wheel, one area 251a, 251b, 251e of the instrument panel, one area 251d of the seat, one area 251f of each pillar, and one of the door. It may be disposed in an area 251g, a center console area, a headlining area, or a sun visor area, or may be implemented in a windshield area 251c or a window area 251h.
  • the display 251h disposed on the window may be disposed on each of the front window, the rear window, and the side window of the vehicle 100.
  • the sound output unit 252 converts an electrical signal provided from the processor 270 or the control unit 170 into an audio signal and outputs it.
  • the sound output unit 252 may include one or more speakers.
  • the haptic output unit 253 outputs a tactile signal.
  • the haptic output unit 253 vibrates the steering wheel, seat belt, and seats 110FL, 110FR, 110RL, and 110RR according to a tactile signal.
  • the processor 270 may control the overall operation of each of the components of the user interface device 200.
  • the user interface device 200 may be operated under the control of a processor of another device or the control unit 170.
  • the object detection device 300 detects an object located outside the vehicle 100.
  • the objects may be various objects related to the operation of the vehicle 100.
  • the object is a lane, OB10, other vehicle (OB11), pedestrian (OB12), two-wheeled vehicle (OB13), traffic signal (OB14, OB15), light, road as shown in FIGS. , Structures, speed bumps, terrain features, animals, and the like.
  • the lane OB10 may be a driving lane, a lane next to the driving lane, or a lane of a vehicle traveling in the opposite direction.
  • the lane OB10 may be a concept including left and right lanes forming a lane.
  • the other vehicle OB11 may be a vehicle running around the vehicle 100.
  • the other vehicle OB11 may be a vehicle located within a predetermined distance from the vehicle 100.
  • the other vehicle OB11 may be a vehicle preceding or following the vehicle 100.
  • the pedestrian OB12 may be a person located around the vehicle 100.
  • the pedestrian OB12 may be a person located within a predetermined distance from the vehicle 100.
  • the pedestrian OB12 may be a person located on a sidewalk or roadway.
  • the two-wheeled vehicle OB12 may refer to a vehicle that is located around the vehicle 100 and moves using two wheels.
  • the two-wheeled vehicle OB13 may be a motorcycle or bicycle positioned on a sidewalk or roadway around the vehicle 100.
  • the traffic signal may include a traffic light OB15, a traffic sign OB14, a pattern or text drawn on a road surface.
  • the light may be light generated by a lamp provided in another vehicle OB11.
  • the light may be illumination light or sunlight generated from a street lamp.
  • the road may include a road surface, a curve, an uphill, downhill slope, and the like.
  • the structure may be an object located around a road and fixed to the ground.
  • the structure may include street lights, street trees, buildings, power poles, traffic lights, and bridges.
  • the topographical features may include mountains, hills, and the like.
  • Objects can be divided into moving objects and fixed objects.
  • the moving object may be another vehicle (OB11), a two-wheeled vehicle (OB13), a pedestrian (OB12), or the like.
  • the fixed object may be a traffic signal, a road, or a fixed structure.
  • the object detection apparatus 300 may include a camera 310, a radar 320, a lidar 330, an ultrasonic sensor 340, an infrared sensor 350, and a processor 370.
  • the camera 310 photographs the external environment of the vehicle 100 and outputs an image signal showing the external environment of the vehicle 100.
  • One or more cameras 310 may be disposed at an appropriate location outside the vehicle 100.
  • the camera 310 may be a mono camera, a stereo camera 310a, an AVM (Around View Monitoring) camera 310b, or a 360 degree camera.
  • the camera 310 may be disposed in the interior of the vehicle and close to the front windshield in order to acquire an image of the front of the vehicle.
  • the camera 310 may be disposed around a front bumper or a radiator grill.
  • the camera 310 may be disposed in the interior of the vehicle and close to the rear glass in order to acquire an image of the rear of the vehicle.
  • the camera 310 may be disposed around a rear bumper, a trunk or a tail gate.
  • the camera 310 may be disposed in proximity to at least one of the side windows in the interior of the vehicle 100 in order to acquire an image of the vehicle side.
  • the camera 310 may be disposed around a side mirror, a fender, or a door.
  • the image signal output from the camera 310 is provided to the processor 370.
  • the radar 320 may include an electromagnetic wave transmitter and a receiver.
  • the radar 320 may be implemented in a pulse radar method or a continuous wave radar method according to a radio wave emission principle.
  • the radar 320 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keying (FSK) method according to a signal waveform among continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keying
  • the radar 320 detects an object based on a time of flight (TOF) method or a phase-shift method through an electromagnetic wave, and detects the position of the detected object, the distance to the detected object, and the relative speed. Can be detected.
  • TOF time of flight
  • phase-shift method through an electromagnetic wave
  • the radar 320 may be disposed at an appropriate position in the vehicle 100 in order to detect surrounding objects located in front, rear or side of the vehicle 100.
  • the lidar 330 may include a laser transmitter and a receiver.
  • the lidar 330 may be implemented in a Time of Flight (TOF) method or a phase-shift method.
  • the lidar 330 may be implemented as a driven or non-driven. When implemented as a drive type, the lidar 330 is rotated by a motor and may detect surrounding objects. When implemented in a non-driven manner, the lidar 330 may detect surrounding objects located within a predetermined range with respect to the vehicle 100 by optical steering.
  • the vehicle 100 may include a plurality of non-driving lidars 330.
  • the lidar 330 is a laser light medium, based on a time of flight (TOF) method or a phase-shift method, and detects a neighboring object, the position of the detected neighboring object, and the distance to the detected object. And relative speed can be detected.
  • TOF time of flight
  • the lidar 330 may be disposed at an appropriate position in the vehicle 100 to detect surrounding objects located in front, rear, or side of the vehicle.
  • the ultrasonic sensor 340 may include an ultrasonic transmitter and a receiver.
  • the ultrasonic sensor 340 may detect a surrounding object using ultrasonic waves reflected from the object and received, and detect a location of the detected object, a distance to the detected object, and a relative speed.
  • the ultrasonic sensor 340 may be disposed at an appropriate position in the vehicle 100 in order to detect surrounding objects located in the front, rear, or side of the vehicle.
  • the infrared sensor 350 may include an infrared transmitter and a receiver.
  • the infrared sensor 340 may detect a surrounding object based on infrared rays reflected from the object and received, and detect a position of the detected object, a distance to the detected object, and a relative speed.
  • the infrared sensor 350 may be disposed at an appropriate position in the vehicle 100 in order to detect surrounding objects located in the front, rear or side of the vehicle.
  • the processor 370 may control an overall operation of each component of the object detection apparatus 300.
  • the processor 370 may detect and track surrounding objects based on the acquired image.
  • the processor 370 performs operations such as calculating a distance to an object, calculating a relative speed with an object, determining the type, location, size, shape, color, movement path, and content of the detected text using an image processing algorithm. Can be done.
  • the processor 370 may detect and track surrounding objects based on the reflected electromagnetic waves returned by the transmitted electromagnetic waves reflected from the object.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object, based on the electromagnetic wave.
  • the processor 370 may detect and track surrounding objects based on the reflected laser light returned by the transmitted laser light being reflected on the object.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object based on the laser light.
  • the processor 370 may detect and track a surrounding object based on the reflected ultrasonic wave returned by the transmitted ultrasonic wave reflected from the object.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object, based on the ultrasonic wave.
  • the processor 370 may detect and track a surrounding object based on the reflected infrared light reflected from the transmitted infrared light and returned to the object.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object based on infrared light.
  • the processor 370 includes an image acquired through the camera 310, a reflected electromagnetic wave received through the radar 320, a reflected laser light received through the lidar 330, and a reflected ultrasonic wave received through the ultrasonic sensor 340. , And the reflected infrared light received through the infrared sensor 350, the surrounding object may be determined to generate object information.
  • the processor 370 may provide object information to the controller 170.
  • the object information indicates the type, location, size, shape, color, movement path, speed, and detected text of an object existing around the vehicle 100.
  • the object information includes whether there is a lane around the vehicle 100, whether other vehicles around the vehicle 100 are running while the vehicle 100 is stopped, whether there is an area that can be stopped around the vehicle 100, the vehicle and the object. Can indicate the possibility of a collision, how pedestrians or bicycles are distributed around the vehicle 100, the type of road the vehicle 100 is traveling on, the state of the traffic lights around the vehicle 100, and the movement of the vehicle 100. have.
  • the object detection apparatus 300 may include a plurality of processors 370 or may not include the processors 370.
  • Each of the camera 310, radar 320, lidar 330, ultrasonic sensor 340, and infrared sensor 350 may individually include a processor.
  • the object detection device 300 may be operated under the control of a processor or a controller 170 of a device in the vehicle 100.
  • the communication device 400 communicates with an external device.
  • the communication device 400 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 400 may include a short range communication unit 410, a location information unit 420, a V2X communication unit 430, an optical communication unit 440, a broadcast transmission/reception unit 450, and a processor 470.
  • the short range communication unit 410 is a unit for short range communication.
  • the near field communication unit 410 includes BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), and Wireless Frequency Identification (Wi-Fi). -Fidelity), Wi-Fi Direct, and Wireless Universal Serial Bus (USB) technologies may be used to support short-range communication.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • NFC Near Field Communication
  • Wi-Fi Wireless Frequency Identification
  • -Fidelity Wireless Frequency Identification
  • Wi-Fi Direct Wireless Universal Serial Bus
  • the short-range communication unit 410 may form short-range wireless communication networks (Wireless Area Networks) to perform short-range communication between the vehicle 100 and at least one external device.
  • short-range wireless communication networks Wireless Area Networks
  • the location information unit 420 acquires location information of the vehicle 100.
  • the location information unit 420 may include a Global Positioning System (GPS) module or a Differential Global Positioning System (DGPS) module.
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the V2X communication unit 430 performs a server (V2I: Vehicle to Infra), communication with other vehicles (V2V: Vehicle to Vehicle), or communication with a pedestrian (V2P: Vehicle to Pedestrian).
  • the V2X communication unit 430 may include an RF circuit capable of implementing communication with infrastructure (V2I), vehicle-to-vehicle communication (V2V), and communication with pedestrians (V2P) protocols.
  • the optical communication unit 440 communicates with an external device through light.
  • the optical communication unit 440 may include an optical transmitter that converts an electrical signal into an optical signal and transmits it to the outside, and an optical receiver that converts the received optical signal into an electrical signal.
  • the light transmitting unit may be integrated with a lamp included in the vehicle 100.
  • the broadcast transmission/reception unit 450 receives a broadcast signal from an external broadcast management server through a broadcast channel or transmits a broadcast signal to the broadcast management server.
  • Broadcast channels may include satellite channels and terrestrial channels.
  • the broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal.
  • the processor 470 may control the overall operation of each component of the communication device 400.
  • the processor 470 drives a vehicle based on information received through at least one of a short-range communication unit 410, a location information unit 420, a V2X communication unit 430, an optical communication unit 440, and a broadcast transmission/reception unit 450. Can generate information.
  • the processor 470 may generate vehicle driving information based on information about a location, a vehicle type, a driving route, a speed, and various sensing values of another vehicle received from the other vehicle. When information on various sensing values of other vehicles is received, the processor 470 may obtain information on objects around the vehicle 100 even if there is no separate sensor in the vehicle 100.
  • the communication device 400 may be operated under the control of the processor or the controller 170 of another device in the vehicle 100.
  • the communication device 400 may implement a vehicle display device together with the user interface device 200.
  • the vehicle display device may be referred to as a telematics device or an audio video navigation (AVN) device.
  • APN audio video navigation
  • the controller 170 provides driver status information, vehicle status information, vehicle driving information, error information indicating an error of the vehicle 100, object information, and a user interface device 200 based on a signal received from the communication device 400. At least one of a user input and a remote control request signal received through may be transmitted to an external device. The server for remote control may determine whether the vehicle 100 needs remote control based on information transmitted by the vehicle 100.
  • the controller 170 may control the vehicle 100 according to a control signal received from a remote control server through the communication device 400.
  • the driving manipulation device 500 receives a user input for driving.
  • the vehicle 100 may be driven based on a user input signal provided by the driving operation device 500.
  • the driving manipulation device 500 may include a steering input device 510, an acceleration input device 530, and a brake input device 570.
  • the steering input device 510 may receive an input of a traveling direction of the vehicle 100 from a user.
  • the steering input device 510 is preferably formed in a wheel shape to enable steering input by rotation.
  • the steering input device may be formed in the form of a touch screen, a touch pad, or a button.
  • the acceleration input device 530 may receive an input for acceleration of the vehicle 100 from a user.
  • the brake input device 570 may receive an input for deceleration of the vehicle 100 from a user.
  • the acceleration input device 530 and the brake input device 570 may be implemented in the form of a pedal.
  • the acceleration input device or brake input device may be formed in the form of a touch screen, a touch pad, or a button.
  • the driving manipulation device 500 may be operated under the control of the controller 170.
  • the vehicle driving device 600 electrically controls driving of various devices in the vehicle 100.
  • the vehicle driving device 600 may include a power train driving unit 610, a chassis driving unit 620, a door/window driving unit 630, a safety device driving unit 640, a lamp driving unit 650, and an air conditioning driving unit 660. have.
  • the power train driver 610 may control the operation of the power train device.
  • the power train driving unit 610 may include a power source driving unit 611 and a transmission driving unit 612.
  • the power source drive unit 611 controls the power source of the vehicle 100.
  • the power source driving unit 610 may control an output torque of the engine.
  • the power source driving unit 611 may adjust the engine output torque under the control of the controller 170.
  • the power source driving unit 610 may adjust the rotational speed and torque of the motor under the control of the controller 170.
  • the transmission driving unit 612 performs control of the transmission.
  • the transmission driving unit 612 may adjust the state of the transmission to forward (D), reverse (R), neutral (N), or parking (P).
  • the transmission driving unit 612 may adjust the bite state of the gear in the forward (D) state.
  • the chassis driver 620 may control the operation of the chassis device.
  • the chassis driving unit 620 may include a steering driving unit 621, a brake driving unit 622, and a suspension driving unit 623.
  • the steering driver 621 may perform electronic control of a steering apparatus in the vehicle 100.
  • the steering drive unit 621 can change the traveling direction of the vehicle.
  • the brake driving unit 622 may reduce the speed of the vehicle 100 by performing electronic control on a brake apparatus in the vehicle 100.
  • the brake driving unit 622 may individually control each of the plurality of brakes.
  • the brake driving unit 622 may differently control braking force applied to a plurality of wheels.
  • the suspension driving unit 623 may perform electronic control on a suspension apparatus in the vehicle 100.
  • the suspension driving unit 623 may control the suspension device to reduce vibration of the vehicle 100 when there is a curve on the road surface.
  • the suspension driving unit 623 may individually control each of the plurality of suspensions.
  • the door/window driving unit 630 may perform electronic control on a door apparatus or a window apparatus in the vehicle 100.
  • the door/window driving unit 630 may include a door driving unit 631 and a window driving unit 632.
  • the door driving unit 631 may control the door device.
  • the door driver 631 may control opening and closing of a plurality of doors included in the vehicle 100.
  • the door driver 631 may control opening or closing of a trunk or a tail gate.
  • the door drive part 631 can control the opening or closing of a sunroof.
  • the window driver 632 may control the opening or closing of the window of the vehicle 100 by performing electronic control on a window apparatus.
  • the safety device driving unit 640 may perform electronic control on various safety apparatuses in the vehicle 100.
  • the safety device driving unit 640 may include an airbag driving unit 641, a seat belt driving unit 642, and a pedestrian protection device driving unit 643.
  • the airbag driver 641 controls the airbag so that the airbag is deployed when a danger is detected by performing electronic control on the airbag apparatus in the vehicle 100.
  • the seat belt driving unit 642 performs electronic control on the seatbelt apparatus in the vehicle 100 and controls the passenger to be fixed to the seats (110FL, 110FR, 110RL, 110RR) using the seat belt when a danger is detected. can do.
  • the pedestrian protection device driving unit 643 performs electronic control on the hood lift and the pedestrian airbag to control the airbag so that the hood lift up and the pedestrian airbag are deployed when a collision with a pedestrian is detected.
  • the lamp driving unit 650 performs electronic control on various lamp apparatuses in the vehicle 100.
  • the air conditioning drive unit 660 controls the temperature inside the vehicle by performing electronic control on an air conditioner in the vehicle 100.
  • the driving system 700 controls the operation of the vehicle 100.
  • the driving system 700 may be operated in an autonomous driving mode.
  • the driving system 700 may include a driving system 710, a parking system 740, and a parking system 750.
  • the driving system 700 may be a sub-concept of the control unit 170.
  • the driving system 700 is connected with one or more of the user interface device 200, the object detection device 300, the communication device 400, the vehicle driving device 600, and the control unit 170 to autonomously operate the vehicle 100. Can be controlled.
  • the driving system 710 provides navigation information from the navigation system 770 to the vehicle driving apparatus 600.
  • the driving system 710 provides object information from the object detection device 300 to the vehicle driving device 600.
  • the driving system 710 may provide a signal from an external device received through the communication device 400 to the vehicle driving device 600.
  • the car taking out system 740 performs car taking out of the vehicle 100.
  • the vehicle taking-out system 740 may provide navigation information from the navigation system 770 to the vehicle driving apparatus 600.
  • the vehicle extraction system 740 may provide object information from the object detection device 300 to the vehicle driving device 600.
  • the take-out system 740 may provide a signal from an external device received through the communication device 400 to the vehicle driving apparatus 600.
  • the parking system 750 may park the vehicle 100.
  • the parking system 750 may provide a control signal to the vehicle driving apparatus 600 with navigation information from the navigation system 770.
  • the parking system 750 may provide object information from the object detection device 300 to the vehicle driving device 600.
  • the parking system 750 may provide a signal from an external device received through the communication device 400 to the vehicle driving device 600.
  • the navigation system 770 may generate navigation information.
  • the navigation information may include at least one of map information, set destination information, route information to the destination, information on various objects on the route, lane information, and current location information of the vehicle.
  • the navigation system 770 may include a memory and a processor.
  • the memory can store navigation information.
  • the processor may control the operation of the navigation system 770.
  • the navigation system 770 may receive information from an external device received through the communication device 400 and update pre-stored information.
  • the navigation system 770 may be classified as a sub-element of the user interface device 200.
  • the sensing unit 120 may sense the state of the vehicle.
  • the sensing unit 120 includes a posture sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a yaw sensor, a gyro sensor, Position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, It may include a brake pedal position sensor or the like.
  • the posture sensor may include a yaw sensor, a roll sensor, a pitch sensor, and the like.
  • the sensing unit 120 includes vehicle attitude information, vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, and battery information. , Fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illumination, pressure applied to the accelerator pedal, pressure applied to the brake pedal, etc. Can occur.
  • the sensing unit 120 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), a throttle position sensor (TPS), It may further include a TDC sensor, a crank angle sensor (CAS), and the like.
  • AFS air flow sensor
  • ATS intake air temperature sensor
  • WTS water temperature sensor
  • TPS throttle position sensor
  • TDC crank angle sensor
  • the interface unit 130 provides an interface with various types of external devices connected to the vehicle 100.
  • the interface unit 130 may exchange data with a mobile terminal including a port connectable with the mobile terminal.
  • the interface unit 130 may supply electric energy to the mobile terminal.
  • the interface unit 130 may provide electric energy supplied from the power supply unit 190 to the mobile terminal.
  • the memory 140 is connected to the control unit 170.
  • the memory 140 may store data necessary for driving each of the components of the vehicle, user input data, information data received from an external device, and the like.
  • the memory 140 may store various data for the overall operation of the vehicle 100, such as a program for processing or controlling the controller 170.
  • the memory 140 may be implemented as a ROM, RAM, EPROM, flash drive, hard drive, or the like.
  • the memory 140 may be implemented integrally with the control unit 170 or may be implemented as a sub-element of the control unit 170.
  • the controller 170 may control the overall operation of each of the components in the vehicle 100.
  • the control unit 170 may include an Electronic Control Unit (ECU).
  • ECU Electronic Control Unit
  • the control unit 170 may control the vehicle 100 based on information acquired through at least one of the object detection device 300 and the communication device 400. Accordingly, the vehicle 100 may autonomously drive under the control of the controller 170.
  • the processor and control unit 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors processors.
  • Controllers controllers
  • micro-controllers micro-controllers
  • micro-controllers may be implemented as microprocessors (microprocessors).
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • the power supply unit 190 may supply power required for operation of each component to the components under the control of the controller 170.
  • FIG. 8 is a view showing a delivery service system using a vehicle using a vehicle according to an embodiment of the present invention.
  • 9 and 10 are diagrams showing a control procedure of a delivery service method using a vehicle according to an embodiment of the present invention.
  • the delivery service system of the present invention includes a delivery service server 4000 and a vehicle 100.
  • the user 3000 may request a delivery service from a delivery service provider on/offline regardless of whether or not a vehicle is boarded.
  • the user 3000 may receive an object to be delivered to his vehicle 100 by ordering an object to be delivered through a mobile terminal or a computer connected to a communication network.
  • the user 3000 may designate a parking position in which his vehicle 100 is parked as a delivery position, and may designate a specific position within the vehicle 100.
  • the object to be delivered is a size that can be accommodated in an interior space or trunk of a vehicle and is not limited in type or material as long as it is a deliverable weight.
  • the object to be delivered may be an article, such as food, that maintains the best quality at an appropriate temperature.
  • the delivery service server 4000 is operated by a delivery service provider and, upon receiving a delivery service request from the user 3000, transmits delivery order information to the delivery person's mobile terminal 4100.
  • the delivery order information includes information on a delivery object object ordered by the user 3000, a scheduled delivery time, and delivery location information. If the object to be delivered is food, the delivery order information may further include information on an appropriate temperature of the food.
  • the delivery location may be a parking location of the vehicle 100 of the user 3000.
  • the delivery service server 4000 may transmit one-time authentication information to the vehicle 100 together with delivery order information.
  • the delivery person may deliver the object to be delivered to the delivery location designated by the user to the delivery location. If a specific location in the vehicle designated by the user is added to the delivery order information, the delivery person opens the door or trunk of the vehicle 100 and safely places the object to be delivered at a specific location in the vehicle designated by the user, and then operates the mobile terminal 4100.
  • the delivery completion report is transmitted to the delivery service server 4000 by using.
  • the control unit 170 of the vehicle 100 checks the delivery person based on the authentication information received from the delivery service server 4000, and when the delivery person approaches, indicates to the delivery person that the delivery location is on the display of the window or turns on a lamp or an alarm sound. You can print it out and tell it the delivery location.
  • the control unit 170 of the vehicle 100 unlocks the door so that the delivery person can move to a specific position in the vehicle after authentication is completed.
  • the control unit 170 of the vehicle 100 may transmit a delivery completion report to the user 3000 through the communication device 400.
  • the controller 170 of the vehicle 100 may control the camera 220 to transmit an image obtained by photographing a delivery target object placed at a specific location along with a delivery completion report to the user 3000.
  • the delivery service server 4000 monitors the location of the delivery person's mobile terminal in real time and remotely controls the vehicle 100 when the delivery person approaches the vehicle 100 at the delivery location so that the vehicle 100 detects the delivery person.
  • the vehicle 100 may detect a delivery person approaching the vehicle 100 by activating the object detection device under the control of the delivery service server 4000.
  • the control unit 170 of the vehicle 100 may control the temperature of the vehicle refrigerator 800 as shown in FIG. 17 in order to maintain an appropriate storage temperature of food at an appropriate temperature of the delivery order information received from the delivery service server 4000.
  • the vehicle refrigerator 800 may be electrically controlled to adjust the temperature.
  • the vehicle refrigerator 800 may be an air conditioner of a vehicle or a small refrigerator or heater disposed at a specific location in the vehicle.
  • the delivery service server 4000 when a user 3000 requests a delivery service together with a delivery order 1 (S91), the delivery service server 4000 generates delivery order information 2 and one-time authentication information 3 (S92 and S93).
  • the one-time authentication information includes first authentication information transmitted to the vehicle 100 and second authentication information transmitted to the mobile terminal 4100 of the delivery person.
  • the delivery man Upon receiving the delivery order information, the delivery man delivers the delivery target object desired by the user to the delivery location.
  • second authentication information is transmitted from the delivery person's mobile terminal to the vehicle 100.
  • the control unit 170 of the vehicle 100 compares the first authentication information previously received from the delivery service server 4000 and stored in the memory with the second authentication information received from the delivery person, and determines that authentication is successful when both match.
  • the delivery person is informed that the delivery location is by using the output device 250 (S94 to S96).
  • the vehicle 100 unlocks the door and allows the delivery person to access the vehicle space.
  • the delivery person may transmit a delivery completion report to the delivery service server 4000 after placing the delivery target object at a location designated by the user using the mobile terminal 4100.
  • the vehicle 100 may photograph a delivery target object photographed by the camera 300 to check the delivery completion state and transmit a delivery completion report to the terminal of the user 3000.
  • the vehicle 100 may transmit a delivery completion report to the delivery service server 4000 (S97).
  • the delivery service server 4000 may transmit payment details and delivery order information for the delivery service to the terminal of the user 3000 when a delivery service is requested from the user 300.
  • the delivery location may be designated as a specific location in the vehicle.
  • the controller 170 of the vehicle 3000 may determine a state of the interior space of the vehicle 100 based on a result of analyzing the captured image of the vehicle interior space and select a delivery location within the vehicle.
  • the control unit 170 may guide the delivery location selected under its own determination to the delivery person using the output device 250.
  • control unit 170 of the vehicle 100 may guide the delivery person toward the user 3000 or to a blank sheet close to the user 3000.
  • the control unit 170 of the vehicle 100 may determine the delivery completion state when the door lock is released after successful authentication or when recognizing a state in which the object to be delivered is placed in a specific position in the vehicle.
  • the control unit 170 of the vehicle 100 may detect the delivery person using the camera and sensor of the object detection device 300 and confirm the delivery person after successful authentication.
  • the vehicle 100 may guide the delivery person to a specific location in the vehicle by displaying the delivery location on a display of a window close to a specific location designated by the user or determined by the user.
  • the control unit 170 of the vehicle 100 may transmit an internal image of the vehicle on which the object to be delivered is placed to the terminal of the user 3000 when confirming the delivery completion state.
  • the vehicle 100 may transmit the elapsed time after delivery (elapsed storage time) to the terminal of the user 3000 if the driver does not board the vehicle by a predetermined time after completion of delivery.
  • 11 is a flowchart illustrating a method of controlling storage temperature of an object to be delivered in a vehicle requiring an appropriate temperature.
  • the control unit 170 of the vehicle 100 determines whether an appropriate temperature of the object to be delivered is required (S111 and S112).
  • the control unit 170 drives the vehicle refrigerator 800 before reaching the scheduled delivery time in order to maintain an appropriate storage temperature for the object to be delivered, for example, food that needs an appropriate temperature to adjust the temperature of the refrigerator 800 It is controlled by the storage temperature (S113).
  • the controller 170 may detect a delivery person approaching the vehicle 100, unlock a door after successful authentication, and guide the delivery person to the vehicle refrigerator 800.
  • the delivery person receives the guidance of the vehicle 100 and puts food in the vehicle refrigerator 800 and transmits a delivery completion report to the delivery service server 4000.
  • the control unit 170 of the vehicle 100 transmits a delivery completion report to the terminal of the user 3000 (S114 and S115).
  • the user 3000 may designate a specific location in the vehicle as the delivery location when ordering for delivery using his terminal.
  • the control unit 170 of the vehicle 100 detects the authentication information received through the object detection device 300 or the communication device 400 as shown in FIGS. 13 and 14 and detects a delivery person approaching the vehicle, and after successful authentication.
  • the delivery location may be displayed on the display 251h of a window close to a specific location in the vehicle designated as the delivery location.
  • the control unit 170 may output an alarm sound through the sound output unit 252 to inform the delivery person that the vehicle 100 is the delivery location.
  • the controller 170 allows the delivery person to access the vehicle interior space by unlocking the door after successful authentication.
  • the control unit 170 locks the door when the door is closed after delivery is completed.
  • the delivery person transmits a delivery completion report to the delivery service server 4000 using the mobile terminal 4100.
  • the vehicle 100 transmits a delivery completion report to the user.
  • an image of the vehicle interior space showing the delivery completion status may be transmitted to the user 3000.
  • the controller 170 may capture a delivery situation through the cameras 220 and 310 and transmit the obtained image in real time to the user to inform the user of the delivery situation in real time.
  • 15 is a diagram showing delivery order information and unlocking a door of a vehicle after successful delivery person authentication.
  • 16 is a diagram illustrating an example of providing an in-vehicle image to a user together with a delivery completion report.
  • 17 is a diagram illustrating an example of a vehicle refrigerator 800 in which food is stored and a display indicating completion of delivery.
  • the vehicle refrigerator 800 may be disposed at any position in the vehicle 100.
  • the example of FIG. 17 illustrates the refrigerator 800 embedded in the passenger seat side of the instrument panel, but is not limited thereto.
  • a display such as a transparent display or a mirror display may be disposed on the front cover of the refrigerator 800.
  • a transparent display When a transparent display is applied to the front cover of the refrigerator 800, the inside of the refrigerator 800 can be seen through the transparent display, and the user may be informed of whether food is stored, storage time, and other useful information.
  • the controller 170 displays a delivery completion state on the display of the refrigerator 800 or on the displays 251b, 251c, and 251e in the vicinity thereof, You can display a message indicating that food is being stored.
  • the controller 170 may output the message through a speaker together with a display.
  • control unit 170 may inform the user 3000 of the delivery result by using the output device 250 as shown in FIG. 18.
  • the delivery result may include delivery completion time and delivery location information.
  • control unit 170 of the vehicle 100 may inform the user of the elapsed storage time of the object to be delivered as shown in FIG. 19.
  • the delivery service method and system using a vehicle using a vehicle according to an embodiment of the present invention may be described as follows.
  • the vehicle control method compares the first authentication information received from the external server 4000 and stored in advance with the second authentication information received from the terminal 4100 of the delivery person, and performs user authentication processing. And releasing the door lock after successful authentication, and transmitting a delivery completion report to the user's terminal by recognizing that the delivery target object received from the delivery person is located in the vehicle.
  • the first and second authentication information may be one-time authentication information generated from an external server.
  • the refrigerator 800 provided in the vehicle 100 is driven prior to the scheduled delivery time received from the external server 4000 to adjust the temperature of the refrigerator 800 to the appropriate allocation target object 3100. It may further include controlling the storage temperature.
  • the vehicle control method may further include determining a state of an interior space of the vehicle based on a result of analyzing an image obtained through a camera, and selecting a delivery location in the vehicle.
  • the vehicle control method further includes detecting a delivery person approaching the vehicle using an external camera or a sensor, and displaying the delivery location in a window close to the delivery location in the vehicle after the vehicle is successfully authenticated. I can.
  • the vehicle control method includes the steps of determining that delivery is complete when the door of the vehicle is opened after the authentication is successful, or when the delivery target object is located inside the vehicle, and the delivery is completed to the user's terminal. It may further include transmitting a delivery completion report.
  • the vehicle control method may further include transmitting an internal image of the vehicle to the user's terminal together with the delivery completion report.
  • the vehicle control method may further include outputting a delivery result when the user boards after the delivery completion report.
  • the vehicle control method may further include transmitting an elapsed storage time of the delivery target object to the user's terminal if the user does not board until a preset time elapses after the delivery completion report.
  • a vehicle control apparatus includes: a wireless communication unit; A storage unit for storing first authentication information received from an external server through the wireless communication unit; And a control unit configured to perform a user authentication process by comparing the first authentication information and the second authentication information when receiving the second authentication information from the terminal of the delivery person through the wireless communication unit, and unlocking the door after successful authentication.
  • a control unit configured to perform a user authentication process by comparing the first authentication information and the second authentication information when receiving the second authentication information from the terminal of the delivery person through the wireless communication unit, and unlocking the door after successful authentication.
  • the control unit analyzes the internal image of the vehicle obtained from the camera provided in the vehicle, and when recognizing the delivery target object delivered from the delivery person, delivery is completed to the user's terminal through the wireless communication unit Send the report.
  • the first and second authentication information may be one-time authentication information generated from an external server.
  • a refrigerator provided inside the vehicle may be further provided, and the controller may control to drive the refrigerator to an appropriate storage temperature of the object to be allocated prior to a delivery scheduled time received from the external server.
  • the controller may determine a state of the interior space of the vehicle based on a result of analyzing the image acquired through the camera and select a delivery location within the vehicle.
  • the controller may detect the delivery person approaching the vehicle using an external camera or sensor, and display the delivery location on a window close to the delivery location in the vehicle after the authentication is successful.
  • the control unit determines that delivery is complete when the door of the vehicle is opened after the authentication is successful or when the delivery target object is located inside the vehicle, and reports delivery completion to the user's terminal after the delivery is completed. Can be transmitted.
  • the control unit may transmit an internal image of the vehicle to the user's terminal together with the delivery completion report through the wireless communication unit.
  • the control unit may output a delivery result when the user boards after the delivery completion report using an output device.
  • the control unit may transmit the elapsed storage time of the delivery target object to the user's terminal through the wireless communication unit.
  • a delivery service method includes: receiving, by a delivery service server, a delivery service request from a user; Transmitting first authentication information generated from the delivery service server to a vehicle, and transmitting second authentication information generated from the delivery service server to a terminal of a delivery person; Releasing a door lock of the vehicle when it is determined that authentication is successful based on a comparison result of the first and second authentication information; And transmitting a delivery completion report to the user's terminal after the vehicle recognizes that the delivery target object ordered is located in the vehicle when the delivery service is requested.
  • the first and second authentication information may be one-time authentication information.
  • the delivery service method includes: generating, by the delivery service server, delivery order information including information on the delivery target object, delivery scheduled time information, and delivery location information in the vehicle; And transmitting the compensation order information to the terminal of the delivery person and the vehicle.
  • the delivery order information may further include information on an appropriate temperature of the delivery object information.
  • the delivery service method may further include controlling a temperature of the refrigerator to an appropriate storage temperature of the object to be allocated by driving, by the vehicle, a refrigerator in the vehicle prior to the scheduled delivery time.
  • the delivery location in the vehicle can be selected by the user.
  • the delivery service method may further include the step of selecting, by the vehicle, a delivery location in the vehicle by determining the state of the interior space of the vehicle.
  • the delivery service method includes the steps of determining that delivery is complete when the vehicle door is opened after the authentication is successful or when the delivery target object recognizes a state in which the delivery object is located inside the vehicle; And transmitting, by the vehicle, a delivery completion report to the user's terminal after completion of the delivery.
  • the delivery service method includes the steps of detecting a delivery person approaching the vehicle by the vehicle using an external camera or sensor; And displaying, by the vehicle, the delivery location on a window close to the delivery location in the vehicle after the authentication is successful.
  • the delivery service method further includes the step of remotely controlling the vehicle so that the delivery service server monitors the location of the terminal of the delivery person in real time so that when the delivery person approaches the vehicle, the vehicle detects a delivery person approaching the vehicle. can do.
  • the delivery service method may further include transmitting, by the vehicle, an internal image of the vehicle to the user's terminal together with the delivery completion report.
  • the delivery service method may further include outputting a delivery result when the user boards the vehicle after the delivery completion report.
  • the delivery service method may further include transmitting the elapsed storage time of the delivery target object to the user's terminal if the user does not board until a preset time elapses after the delivery completion report. .
  • the delivery service system transmits the first authentication information to the vehicle when receiving a delivery service request from the user 3000, and transmits the second authentication information generated from the delivery service server to the delivery person.
  • the vehicle 100 requests the delivery service, after recognizing that the ordered delivery object 3100 is located in the vehicle 100, a delivery completion report is transmitted to the terminal of the user 3000.
  • the first and second authentication information may be one-time authentication information.
  • the delivery service server may generate delivery order information including information on the delivery target object, delivery scheduled time information, and delivery location information in the vehicle, and transmit the compensation order information to the delivery person's terminal and the vehicle.
  • the delivery order information may include information on an appropriate temperature of the delivery object information.
  • the vehicle may control the temperature of the refrigerator to an appropriate storage temperature of the object to be delivered by driving the refrigerator in the vehicle prior to the delivery scheduled time.
  • a vehicle control method receiving a delivery service comprises the steps of receiving delivery information corresponding to a delivery service request from a server;-The delivery service request is transmitted to the server through a user device.
  • the second authentication information is received from the terminal of the delivery person, and the first authentication information and the 2 comparing authentication information; Releasing the door lock when the first authentication information and the second authentication information match; Recognizing that a delivery product corresponding to the delivery service request is located at a predetermined location in the vehicle; And transmitting the delivery completion information to the server and the user device.
  • the present invention can be implemented as a computer-readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system.
  • the computer may also include a processor or control unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Operations Research (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed is a vehicle control method, apparatus, and method and system for delivery service using a vehicle. In a method for delivery service according to an embodiment of the present invention, when a delivery service server receives a delivery service request from a user, the delivery service server generates and transmits first authentication information to a vehicle, and generates and transmits second authentication information to a delivery person's terminal. In the method for delivery service, a door of the vehicle is unlocked when successful authentication is determined on the basis of a result of a comparison between the first and the second authentication information, and the vehicle transmits a delivery completion report to a terminal of the user after recognizing that a delivery target object ordered at the time of the delivery service request is located in the vehicle.

Description

차량 제어 방법, 장치, 차량을 이용한 배달 서비스 방법 및 시스템Vehicle control method, device, delivery service method and system using vehicle
본 발명은 사용자가 원격으로 배송 서비스를 신청하여 자신의 차량에 원하는 물품을 배송 받을 수 있는 차량 제어 방법, 장치 차량을 이용한 배달 서비스 방법 및 시스템에 관한 것이다.The present invention relates to a vehicle control method, a delivery service method and system using an apparatus vehicle, in which a user can remotely request a delivery service to receive a desired product to his or her vehicle.
자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다.Vehicles can be classified into internal combustion engine vehicles, external combustion engine vehicles, gas turbine vehicles, or electric vehicles, depending on the type of prime mover used.
최근 운전자, 보행자 등의 안전이나 편의를 위해 지능형 자동차(Smart Vehicle)의 개발이 활발히 되고 있으며, 지능형 자동차에 탑재되는 센서에 대한 연구가 활발히 진행되고 있다. 카메라, 적외선센서, 레이더, GPS, 라이더(laser radar), 자이로스코프 등이 지능형 자동차에 이용되고 있으며, 그 중 카메라는 사람의 눈을 대신하는 역할을 수행한다.In recent years, for the safety or convenience of drivers and pedestrians, the development of smart vehicles has been actively conducted, and research on sensors mounted in intelligent vehicles is actively being conducted. Cameras, infrared sensors, radars, GPS, laser radars, and gyroscopes are being used in intelligent vehicles, among which cameras play a role in replacing human eyes.
각종 센서와 전자 장비들의 개발로 인하여, 탑승자의 운전을 보조하고 주행 안전성 및 편의 등을 향상시키는 기능을 구비한 차량이 주목 받고 있다.Due to the development of various sensors and electronic equipment, vehicles with functions of assisting occupants' driving and improving driving safety and convenience are attracting attention.
최근, 차량은 주행을 위한 수단 외에 다양한 서비스를 제공받기 위한 수단으로 이용될 수 있다. 예를 들어, 차량을 컨트롤하여 다양한 서비스와 연계할 수 있으며, 최적의 서비스 제공을 위해 다양한 패턴으로 차량 컨트롤이 필요할 수 있다.Recently, a vehicle can be used as a means for receiving various services in addition to a means for driving. For example, it is possible to control a vehicle and link it with various services, and vehicle control in various patterns may be necessary to provide an optimal service.
본 발명의 목적은 사용자가 자신이 원하는 물품을 차량 내로 받을 수 있는 차량을 이용한 배달 서비스 방법 및 시스템을 제공하는 것일 수 있다.An object of the present invention may be to provide a delivery service method and system using a vehicle in which a user can receive a desired product in a vehicle.
또한, 본 발명의 목적은 차량 내에서 배달 대상 객체의 적정 온도를 자동으로 유지할 수 있는 차량을 이용한 배달 서비스 방법 및 시스템을 제공할 수 있다.It is also an object of the present invention to provide a delivery service method and system using a vehicle capable of automatically maintaining an appropriate temperature of an object to be delivered in a vehicle.
본 발명의 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The subject of the present invention is not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 목적을 달성하기 위한 본 발명의 제1 실시예에 따른 차량 제어 방법은 외부 서버로부터 수신 받아 미리 저장한 제1 인증 정보를 배달원의 단말기로부터 수신된 제2 인증 정보와 비교하여 사용자 인증 처리를 하여 인증 성공 후에 도어 잠금을 해제하는 단계와, 상기 배달원으로부터 받은 배달 대상 객체가 상기 차량 내에 위치함을 인식하여 사용자의 단말기로 배달 완료 보고를 전송하는 단계;를 포함한다.In order to achieve the above object, the vehicle control method according to the first embodiment of the present invention performs user authentication processing by comparing the first authentication information received from an external server and stored in advance with the second authentication information received from the terminal of the delivery person. And releasing the door lock after successful authentication, and transmitting a delivery completion report to the user's terminal by recognizing that the delivery target object received from the delivery person is located in the vehicle.
본 발명의 제2 실시예에 따른 차량 제어 장치는, 무선 통신부; 상기 무선 통신부를 통해 외부 서버로부터 수신된 제1 인증 정보를 저장하는 저장부; 및 상기 무선 통신부를 통해 배달원의 단말기로부터 제2 인증 정보를 수신한 경우, 상기 제1 인증 정보와 상기 제2 인증 정보를 비교하여 사용자 인증 과정을 수행하고, 인증 성공 후 도어 잠금을 해제하도록 하는 제어부;를 포함하고, 상기 제어부는 차량의 내부에 구비된 카메라로부터 획득한 상기 차량의 내부 영상을 분석하여 상기 배달원으로부터 배달된 배달 대상 객체를 인식한 경우, 상기 무선 통신부를 통해 사용자의 단말기로 배달 완료 보고를 전송한다.A vehicle control apparatus according to a second embodiment of the present invention includes: a wireless communication unit; A storage unit for storing first authentication information received from an external server through the wireless communication unit; And a control unit configured to perform a user authentication process by comparing the first authentication information and the second authentication information when receiving the second authentication information from the terminal of the delivery person through the wireless communication unit, and unlocking the door after successful authentication. Including;, wherein the control unit analyzes the internal image of the vehicle obtained from the camera provided in the vehicle, and when recognizing the delivery target object delivered from the delivery person, delivery is completed to the user's terminal through the wireless communication unit Send the report.
본 발명의 제3 실시예에 따른, 배달 서비스 방법은 배달 서비스 서버가 사용자로부터의 배달 서비스 요청을 수신하는 단계; 상기 배달 서비스 서버로부터 발생된 제1 인증 정보를 차량으로 전송하고, 상기 배달 서비스 서버로부터 발생된 제2 인증 정보를 배달원의 단말기로 전송하는 단계; 상기 제1 및 제2 인증 정보의 비교 결과를 바탕으로 인정 성공으로 판단될 때 상기 차량의 도어 잠금을 해제하는 단계; 및 상기 차량이 상기 배달 서비스 요청시 주문된 배달 대상 객체가 상기 차량 내에 위치함을 인식한 후에 상기 사용자의 단말기로 배달 완료 보고를 전송하는 단계를 포함한다.According to a third embodiment of the present invention, a delivery service method includes: receiving, by a delivery service server, a delivery service request from a user; Transmitting first authentication information generated from the delivery service server to a vehicle, and transmitting second authentication information generated from the delivery service server to a terminal of a delivery person; Releasing a door lock of the vehicle when it is determined that authentication is successful based on a comparison result of the first and second authentication information; And transmitting a delivery completion report to the user's terminal after the vehicle recognizes that the delivery target object ordered is located in the vehicle when the delivery service is requested.
본 발명의 제4 실시예에 따른 배달 서비스 시스템은 사용자(3000)로부터의 배달 서비스 요청을 수신하면, 제1 인증 정보를 차량으로 전송하고, 상기 배달 서비스 서버로부터 발생된 제2 인증 정보를 배달원의 단말기로 전송하는 배달 서비스 서버(4000); 및 상기 제1 및 제2 인증 정보의 비교 결과를 바탕으로 인정 성공으로 판단될 때 상기 차량의 도어 잠금을 해제하는 차량(100)을 포함한다. 상기 차량(100)이 상기 배달 서비스 요청시 주문된 배달 대상 객체(3100)가 상기 차량(100) 내에 위치함을 인식한 후에 상기 사용자(3000)의 단말기로 배달 완료 보고를 전송한다. The delivery service system according to the fourth embodiment of the present invention transmits the first authentication information to the vehicle when receiving a delivery service request from the user 3000, and transmits the second authentication information generated from the delivery service server to the delivery person. A delivery service server 4000 for transmitting to the terminal; And a vehicle 100 that unlocks a door of the vehicle when it is determined that the authentication is successful based on a comparison result of the first and second authentication information. When the vehicle 100 requests the delivery service, after recognizing that the ordered delivery object 3100 is located in the vehicle 100, a delivery completion report is transmitted to the terminal of the user 3000.
본 발명의 제5 실시예에 따른 배달 서비스를 제공받는 차량 제어 방법은, 서버로부터 배달서비스 요청에 대응하는 배달정보를 수신하는 단계;-상기 배달 서비스 요청은 유저 디바이스를 통해 상기 서버로 전송된 것임, 상기 서버로부터 상기 차량의 도어락 해제를 위한 제1 인증 정보를 수신하는 단계; 상기 서버로부터 수신한 제2 인증 정보를 갖는 배달원의 단말이 상기 차량으로부터 미리 정해진 거리에 근접함을 인식하는 경우, 상기 배달원의 단말로부터 상기 제2 인증 정보를 수신하여, 상기 제1 인증 정보와 제2 인증 정보를 비교하는 단계; 상기 제1 인증 정보와 제2 인증 정보가 일치하는 경우, 상기 도어락을 해제하는 단계; 상기 배달 서비스 요청에 대응하는 배달 제품이 상기 차량 내의 미리 정해진 위치에 위치함을 인식하는 단계; 및 배달 완료 정보를 상기 서버 및 상기 유저 디바이스에 전송하는 단계;를 포함한다.A vehicle control method receiving a delivery service according to a fifth embodiment of the present invention comprises the steps of receiving delivery information corresponding to a delivery service request from a server;-The delivery service request is transmitted to the server through a user device. Receiving first authentication information for unlocking the door lock of the vehicle from the server; When it is recognized that the terminal of the delivery person having the second authentication information received from the server is close to a predetermined distance from the vehicle, the second authentication information is received from the terminal of the delivery person, and the first authentication information and the 2 comparing authentication information; Releasing the door lock when the first authentication information and the second authentication information match; Recognizing that a delivery product corresponding to the delivery service request is located at a predetermined location in the vehicle; And transmitting the delivery completion information to the server and the user device.
본 발명에 따른 차량을 이용한 배달 서비스 방법 및 시스템의 효과에 설명하면 다음과 같다.The effect of the delivery service method and system using a vehicle according to the present invention will be described as follows.
본 발명의 실시 예 중 적어도 하나에 의하면, 주차된 차량 내의 특정 공간으로 사용자가 주문한 배달 대상 객체를 배달할 수 있다. According to at least one of the embodiments of the present invention, a delivery target object ordered by a user may be delivered to a specific space in a parked vehicle.
본 발명의 차량 제어 장치는 적정 온도가 필요한 음식물의 적정 보관 온도를 적정 온도로 유지하기 위하여 음식물의 배달 예정 시간 전에 차량 내의 냉장고를 구동하여 냉장고의 온도를 음식물의 적정 보관 온도로 제어할 수 있다. The vehicle control apparatus of the present invention may control the temperature of the refrigerator to the appropriate storage temperature of the food by driving the refrigerator in the vehicle before the scheduled delivery time of the food in order to maintain the proper storage temperature of the food requiring the appropriate temperature.
본 발명의 차량 제어 장치는 차량에 접근하는 배달원에 대하여 인증 성공후 도어 잠금을 해제하여 배달원이 차량 내부 공간으로 접근하는 것을 허용할 수 있다. The vehicle control apparatus of the present invention may allow the delivery person to access the vehicle interior space by unlocking the door after successful authentication for the delivery person approaching the vehicle.
본 발명의 차량 제어 장치는 배달 완료 상황을 판단하여 배달 완료 보고와 함께 차량 내부 공간의 영상을 사용자에게 전송할 수 있다. The vehicle control apparatus of the present invention may determine a delivery completion situation and transmit an image of a vehicle interior space to a user together with a delivery completion report.
본 발명의 차량 제어 장치는 카메라를 통해 배달 상황을 촬영하고 촬영된 영상을 사용자에게 실시간 전송하여 사용자에게 배달 상황을 실시간으로 알려 줄 수 있다. The vehicle control apparatus of the present invention may photograph a delivery situation through a camera and transmit the captured image to a user in real time to inform the user of the delivery situation in real time.
본 발명의 차량 제어 장치는 배달 완료 후에 사용자가 차량에 탑승하면, 출력 장치를 이용하여 사용자에게 배달 결과를 알려 줄 수 있다. The vehicle control apparatus of the present invention may inform the user of the delivery result using the output device when the user boards the vehicle after delivery is completed.
본 발명의 차량 제어 장치는 배달 완료후 사용자가 장시간 차량에 탑승하지 않을 때 배달 대상 객체의 보관 경과 시간을 사용자에게 알려 줄 수 있다. The vehicle control apparatus of the present invention may inform the user of the elapsed storage time of the object to be delivered when the user does not board the vehicle for a long time after delivery is completed.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 차량을 외부의 다양한 각도에서 바라 본 도면이다. 2 is a view of a vehicle according to an embodiment of the present invention as viewed from various external angles.
도 3 및 도 4는 본 발명의 실시예에 따른 차량의 내부를 보여 주는 도면이다.3 and 4 are views showing the interior of a vehicle according to an embodiment of the present invention.
도 5 및 도 6은 본 발명의 실시예에 따른 차량의 주행과 관련된 객체들(objects)의 예를 보여 주는 도면들이다. 5 and 6 are diagrams showing examples of objects related to driving of a vehicle according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 차량을 상세히 보여 주는 블록도이다. 7 is a block diagram showing in detail a vehicle according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 차량을 이용한 차량을 이용한 배달 서비스 시스템을 보여 주는 도면이다. 8 is a view showing a delivery service system using a vehicle using a vehicle according to an embodiment of the present invention.
도 9 및 도 10은 본 발명의 실시예에 따른 차량을 이용한 배달 서비스 방법의 제어 수순을 보여 주는 도면들이다. 9 and 10 are diagrams showing a control procedure of a delivery service method using a vehicle according to an embodiment of the present invention.
도 11은 적정 온도가 필요한 배달 대상 객체의 차량 내 보관 온도 제어 방법을 보여 주는 흐름도이다. 11 is a flowchart illustrating a method of controlling storage temperature of an object to be delivered in a vehicle requiring an appropriate temperature.
도 12는 사용자가 차량 내 특정 위치를 배달 위치로 지정하는 예를 보여 주는 도면이다. 12 is a diagram illustrating an example in which a user designates a specific location in a vehicle as a delivery location.
도 13 및 도 14는 차량으로 접근하는 배달원의 배달 상황을 사용자에게 보고하는 예를 보여 주는 도면들이다. 13 and 14 are diagrams showing an example of reporting a delivery status of a delivery person approaching a vehicle to a user.
도 15는 배달 주문 정보와 배달원 인증 성공후 차량의 도어 잠금 해제를 보여 주는 도면이다.15 is a diagram showing delivery order information and unlocking a door of a vehicle after successful delivery person authentication.
도 16은 배달 완료 보고와 함께 차량 내 영상을 사용자에게 제공하는 예를 보여 주는 도면이다. 16 is a diagram illustrating an example of providing an in-vehicle image to a user together with a delivery completion report.
도 17은 음식물이 보관 중인 차량용 냉장고와 배달 완료를 알려 주는 디스플레이의 일 예를 보여 주는 도면이다. 17 is a view showing an example of a refrigerator for a vehicle in which food is stored and a display indicating completion of delivery.
도 18은 배달 완료 후 차량에 탑승한 사용자에게 배달 결과를 알려 주는 예를 보여 주는 도면이다. 18 is a diagram illustrating an example of informing a delivery result to a user who boards a vehicle after delivery is completed.
도 19는 배달 완료후 사용자가 장시간 차량에 탑승하지 않을 때 배달된 배달 대상 객체의 보관 경과 시간을 사용자에게 알려 주는 예를 보여 주는 도면이다. 19 is a diagram illustrating an example of informing a user of an elapsed storage time of a delivered object when a user does not board a vehicle for a long time after delivery is completed.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. The present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only the embodiments are intended to complete the disclosure of the present invention, and those of ordinary skill in the art to which the present invention pertains. It is provided to completely inform the scope of the invention, and the invention is only defined by the scope of the claims.
본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명은 도면에 도시된 사항에 한정되는 것은 아니다. 명세서 전체에 걸쳐 동일 참조 부호는 실질적으로 동일 구성 요소를 지칭한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. The shape, size, ratio, angle, number, etc. disclosed in the drawings for explaining the embodiments of the present invention are exemplary, and the present invention is not limited to the items shown in the drawings. The same reference numerals refer to substantially the same components throughout the specification. In addition, in describing the present invention, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
본 명세서 상에서 언급된 "구비한다", "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 ' ~ 만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수로 해석될 수 있다. When "having", "including", "having", "consisting of" and the like mentioned in the present specification are used, other parts may be added unless'only' is used. When a constituent element is expressed in a singular number, it can be interpreted as a plural unless specifically stated otherwise.
"모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.“Module” and “unit” are given or used interchangeably in consideration of only the ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.
위치 관계에 대한 설명에서, "연결되어", "접속되어", " ~ 상에", "~ 상부에", " ~ 하부에" 등과 같이 두 구성요소들 간에 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 그 구성요소들 사이에 하나 이상의 다른 구성 요소가 개재될 수 있다. In the description of the positional relationship, when the positional relationship between two components is described, such as "connected", "connected", "on the", "on the upper part", and "at the lower part," One or more other components may be interposed between those components for which'or'direct' is not used.
구성 요소들을 구분하기 위하여 제1, 제2 등과 같은 서수가 사용될 수 있으나, 이 구성 요소들은 구성 요소 앞에 붙은 서수나 구성 요소 명칭으로 그 기능이나 구조가 제한되지 않는다. Ordinal numbers such as 1st and 2nd may be used to classify the components, but these components are not limited in function or structure by the ordinal number or component name in front of the component.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. 이하에서 자율 주행 차량을 중심으로 실시예가 설명되나 본 발명의 차량은 자율 주행 차량에 한정되지 않는다. 예를 들어, 통신망을 통해 배달 서비스 서버와 연결되고 원격으로 제어 가능한 차량이라면 본 발명에 적용될 수 있다.The vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, an electric vehicle including an electric motor as a power source, and the like. Hereinafter, embodiments will be described centering on an autonomous vehicle, but the vehicle of the present invention is not limited to an autonomous vehicle. For example, any vehicle that is connected to a delivery service server through a communication network and can be controlled remotely can be applied to the present invention.
이하의 실시예들은 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 기술적으로 다양한 연동 및 구동이 가능하다. 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.The following embodiments may be partially or entirely combined or combined with each other, and technically various interlocking and driving are possible. Each of the embodiments may be implemented independently of each other or may be implemented together in a related relationship.
이하, 첨부된 도면을 참조하여 본 명세서의 다양한 실시예들을 상세히 설명한다. Hereinafter, various embodiments of the present specification will be described in detail with reference to the accompanying drawings.
도 1 내지 도 7을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치(510)를 포함할 수 있다.1 to 7, the vehicle 100 may include a wheel rotating by a power source, and a steering input device 510 for adjusting a traveling direction of the vehicle 100.
차량(100)은 외부 디바이스에 의하여 원격 제어될 수 있다. 외부 디바이스는 서버, 이동 단말기, 타 차량 등일 수 있다. 서버는 차량(100)이 원격 제어가 필요하다고 판단되는 경우, 차량(100)에 대한 원격 제어를 수행할 수 있다. 정보 제공자 서버는 다양한 정보를 차량(100)에 전송할 수 있다. The vehicle 100 may be remotely controlled by an external device. The external device may be a server, a mobile terminal, or another vehicle. When it is determined that the vehicle 100 needs remote control, the server may perform remote control of the vehicle 100. The information provider server may transmit various types of information to the vehicle 100.
정보는 차량(100)의 표시장치에서 재현되는 그래픽 이미지, 텍스트 등의 시각적 정보로 표시된다. 정보는 생활 정보, 지역 정보, 공공 정보, 날씨, 비상 경보, 광고 정보 등 다양한 정보를 포함할 수 있다. The information is displayed as visual information such as a graphic image or text reproduced on the display device of the vehicle 100. The information may include various information such as living information, local information, public information, weather, emergency warning, advertisement information, and so on.
차량(100)은 매뉴얼 모드, 자율 주행 모드, 또는 원격 제어 모드로 동작할 수 있다. 차량(100)을 제어하는 주체가 무엇인지 나타내는 모드일 수 있다. 자율 주행 모드에서 제어부(170)나 운행 시스템(700)은 운전자 개입 없이 차량(100)을 직접 제어하여 차량(100)을 운전자가 설정한 목적지로 차량을 운행한다. 원격 제어 모드는 운전자 개입 없이 외부 디바이스가 차량(100)을 제어한다. The vehicle 100 may operate in a manual mode, an autonomous driving mode, or a remote control mode. It may be a mode indicating what is the subject controlling the vehicle 100. In the autonomous driving mode, the controller 170 or the driving system 700 directly controls the vehicle 100 without driver intervention to drive the vehicle 100 to a destination set by the driver. In the remote control mode, an external device controls the vehicle 100 without driver intervention.
사용자는 사용자 인터페이스 장치(200)를 통해 자율 주행 모드, 매뉴얼 모드, 및 원격 제어 모드 중 하나를 선택할 수 있다. The user may select one of an autonomous driving mode, a manual mode, and a remote control mode through the user interface device 200.
차량(100)은 운전자 상태 정보, 차량 주행 정보, 및 차량 상태 정보 중 적어도 하나에 기초하여, 자율 주행 모드, 매뉴얼 모드, 및 원격 제어 모드 중 하나로 자동 전환될 수 있다. The vehicle 100 may automatically switch to one of an autonomous driving mode, a manual mode, and a remote control mode based on at least one of driver status information, vehicle driving information, and vehicle status information.
운전자 상태 정보는 사용자 인터페이스 장치(200)를 통하여 생성되어 제어부(170)에 제공될 수 있다. 운전자 상태 정보는 내부 카메라(220)나 생체 감지부(230)를 통하여 감지되는 운전자에 대한 영상이나 생체 정보에 기초하여 생성될 수 있다. 예를 들어, 운전자 상태 정보는 내부 카메라(220)를 통하여 획득된 이미지로부터 얻어진 운전자의 시선, 얼굴 표정, 행동, 운전자 위치 정보 등을 포함할 수 있다. 운전자 상태 정보는 생체 감지부(230)를 통하여 획득되는 사용자의 생체 정보를 포함할 수 있다. 운전자 상태 정보는 운전자의 시선이 향하는 방향, 운전자의 졸음 여부, 운전자의 건강 상태, 및 운전자의 감정 상태 등을 나타낼 수 있다. The driver status information may be generated through the user interface device 200 and provided to the controller 170. The driver status information may be generated based on an image or biometric information about the driver detected through the internal camera 220 or the biometric sensor 230. For example, the driver's state information may include driver's gaze, facial expressions, behavior, driver position information, etc. obtained from an image acquired through the internal camera 220. The driver state information may include the user's biometric information acquired through the biometric sensor 230. The driver state information may indicate a direction in which the driver's gaze is directed, whether the driver is drowsy, a driver's health state, and an emotional state of the driver.
차량 주행 정보는 오브젝트 검출 장치(300)에서 제공되는 객체(object) 정보나 통신 장치(400)를 통하여 수신되는 정보에 기초하여 생성될 수 있다. 차량 주행 정보는 차량(100)의 위치 정보, 차량(100)의 자세 정보, 타차량(OB11)으로부터 수신하는 타차량(OB11)에 대한 정보, 차량(100)의 주행 경로에 대한 정보나 지도 정보(map)를 포함하는 내비게이션 정보 등을 포함할 수 있다. The vehicle driving information may be generated based on object information provided from the object detection device 300 or information received through the communication device 400. The vehicle driving information includes location information of the vehicle 100, attitude information of the vehicle 100, information about the other vehicle OB11 received from the other vehicle OB11, information or map information about the driving route of the vehicle 100 It may include navigation information including (map).
차량 주행 정보는 차량(100)의 주변에 존재하는 객체의 종류, 위치, 및 움직임, 차량(100)의 주변에서 감지되는 차선 유무 등을 나타낸다. 또한, 차량 주행 정보는 타차량(100)의 주행 정보, 차량(100)의 주변에 정차 가능 공간, 차량과 객체가 충돌할 가능성, 차량(100)의 주변에서 감지되는 보행자나 자전거 정보, 도로 정보, 차량(100) 주변의 신호 상태, 차량(100)의 움직임 등을 나타낼 수 있다. The vehicle driving information indicates the type, location, and movement of objects existing around the vehicle 100, and the presence or absence of a lane detected around the vehicle 100. In addition, the vehicle driving information includes driving information of another vehicle 100, a space available for stopping around the vehicle 100, the possibility of a collision between a vehicle and an object, pedestrian or bicycle information detected in the vicinity of the vehicle 100, and road information. , It may represent a signal state around the vehicle 100, a movement of the vehicle 100, and the like.
차량 주행 정보는 오브젝트 검출 장치(300), 통신 장치(400), 내비게이션 시스템(770), 센싱부(120), 및 인터페이스부(130) 중 적어도 하나 이상의 연계를 통해 생성되어, 제어부(170)에 제공될 수 있다. Vehicle driving information is generated through linkage of at least one of the object detection device 300, the communication device 400, the navigation system 770, the sensing unit 120, and the interface unit 130, and is transmitted to the control unit 170. Can be provided.
차량 상태 정보는 차량(100)에 구비된 여러 장치들의 상태에 관련된 정보일 수 있다. 예를 들어, 차량 상태 정보는 배터리의 충전 상태, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 운전 조작 장치(500), 차량 구동 장치(600), 운행 시스템(700)의 동작 상태에 대한 정보와 각 장치의 이상 여부에 대한 정보를 포함할 수 있다. The vehicle status information may be information related to the status of various devices included in the vehicle 100. For example, the vehicle state information may include a state of charge of a battery, a user interface device 200, an object detection device 300, a communication device 400, a driving operation device 500, a vehicle driving device 600, and a driving system ( 700) may include information on the operation state and information on whether each device is abnormal.
차량 상태 정보는 차량(100)의 GPS 신호가 정상적으로 수신되는지, 차량(100)에 구비된 적어도 하나의 센서에 이상이 발생하는지, 차량(100)에 구비된 각 장치들이 정상적으로 동작하는지를 나타낼 수 있다. The vehicle status information may indicate whether a GPS signal of the vehicle 100 is normally received, whether an abnormality occurs in at least one sensor provided in the vehicle 100, and whether each device provided in the vehicle 100 operates normally.
오브젝트 검출 장치(300)에서 생성되는 객체 정보에 기초하여, 차량(100)의 제어 모드가 매뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 매뉴얼 모드로 전환될 수 있다. Based on the object information generated by the object detection apparatus 300, the control mode of the vehicle 100 may be switched from a manual mode to an autonomous driving mode, or may be switched from an autonomous driving mode to a manual mode.
통신 장치(400)를 통해 수신되는 정보에 기초하여 차량(100)의 제어 모드가 매뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 매뉴얼 모드로 전환될 수 있다. The control mode of the vehicle 100 may be switched from a manual mode to an autonomous driving mode or may be switched from an autonomous driving mode to a manual mode based on information received through the communication device 400.
외부 디바이스에서 제공되는 정보, 데이터, 신호에 기초하여 차량(100)의 제어 모드가 매뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 매뉴얼 모드로 전환될 수 있다. The control mode of the vehicle 100 may be switched from a manual mode to an autonomous driving mode or may be switched from an autonomous driving mode to a manual mode based on information, data, and signals provided from an external device.
차량(100)이 자율 주행 모드로 운행되는 경우, 차량(100)은 운행 시스템(700)의 제어 하에 운행될 수 있다. 자율 주행 모드에서 차량(100)은 주행 시스템(710), 출차 시스템(740), 주차 시스템(750)에서 생성되는 정보에 기초하여 운행될 수 있다. When the vehicle 100 is operated in the autonomous driving mode, the vehicle 100 may be operated under the control of the driving system 700. In the autonomous driving mode, the vehicle 100 may be driven based on information generated by the driving system 710, the exit system 740, and the parking system 750.
차량(100)이 매뉴얼 모드로 운행되는 경우, 차량(100)은 운전 조작 장치(500)를 통하여 운전을 위한 사용자 입력을 수신할 수 있다. 차량(100)은 운전 조작 장치(500)를 통해 수신되는 사용자 입력에 기초하여, 운행될 수 있다. When the vehicle 100 is operated in the manual mode, the vehicle 100 may receive a user input for driving through the driving operation device 500. The vehicle 100 may be driven based on a user input received through the driving manipulation device 500.
차량(100)이 원격 제어 모드로 운행되는 경우, 차량(100)은 통신 장치(400)를 통하여 외부 디바이스가 송신하는 원격 제어 신호를 수신할 수 있다. 차량(100)은 원격 제어 신호에 기초하여 제어될 수 있다. When the vehicle 100 is operated in the remote control mode, the vehicle 100 may receive a remote control signal transmitted from an external device through the communication device 400. The vehicle 100 may be controlled based on a remote control signal.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 도 1에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다. The overall length means the length from the front part to the rear part of the vehicle 100, the width means the width of the vehicle 100, and the height means the length from the lower part of the wheel to the roof. In FIG. 1, the overall length direction (L) is a direction used as a reference for measuring the overall length of the vehicle 100, the full width direction (W) is a direction used as a reference for measuring the overall width of the vehicle 100, and the overall height direction (H) is a vehicle ( It can mean the direction that is the standard for measuring the total height of 100).
도 7을 참조하면, 차량(100)은 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 운전 조작 장치(500), 차량 구동 장치(600), 운행 시스템(700), 내비게이션 시스템(770), 센싱부(120), 인터페이스부(130), 메모리(140), 제어부(170) 및 전원 공급부(190)를 포함할 수 있다. Referring to FIG. 7, the vehicle 100 includes a user interface device 200, an object detection device 300, a communication device 400, a driving operation device 500, a vehicle driving device 600, and a driving system 700. , A navigation system 770, a sensing unit 120, an interface unit 130, a memory 140, a control unit 170, and a power supply unit 190.
도 7에 도시된 구성 요소 외에 다른 구성 요소를 더 포함하거나, 일부 구성 요소가 생략될 수 있다. In addition to the components illustrated in FIG. 7, other components may be further included, or some components may be omitted.
사용자 인터페이스 장치(200)는 차량(100)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는 사용자 입력을 수신하고, 사용자에게 차량(100)에서 생성된 정보를 제공할 수 있다. 차량(100)은 사용자 인터페이스 장치(200)를 통해 UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다. The user interface device 200 is a device for communicating with the vehicle 100 and a user. The user interface device 200 may receive a user input and provide information generated by the vehicle 100 to the user. The vehicle 100 may implement User Interfaces (UI) or User Experience (UX) through the user interface device 200.
사용자 인터페이스 장치(200)는 입력부(210), 내부 카메라(220), 생체 감지부(230), 출력부(250) 및 프로세서(270)를 포함할 수 있다. The user interface device 200 may include an input unit 210, an internal camera 220, a biometric sensor 230, an output unit 250, and a processor 270.
입력부(210)는 사용자 데이터 또는 명령을 입력 받는다. 입력부(210)에서 수집한 데이터는 프로세서(270)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다. The input unit 210 receives user data or commands. The data collected by the input unit 210 may be analyzed by the processor 270 and processed as a user's control command.
입력부(210)는 차량 내부에 배치될 수 있다. 입력부(210)는 스티어링 휠(steering wheel)의 일 영역, 인스투루먼트 패널(instrument panel)의 일 영역, 시트(seat)의 일 영역, 각 필러(pillar)의 일 영역, 도어(door)의 일 영역, 센타 콘솔(center console)의 일 영역, 헤드 라이닝(head lining)의 일 영역, 썬바이저(sun visor)의 일 영역, 윈드 쉴드(windshield)의 일 영역 또는 윈도우(window)의 일 영역 등에 배치될 수 있다. The input unit 210 may be disposed inside the vehicle. The input unit 210 includes one area of a steering wheel, one area of an instrument panel, one area of a seat, one area of each pillar, and one of a door. To be placed in an area, a center console area, a head lining area, a sun visor area, a windshield area, or a window area. I can.
입력부(210)는 음성 입력부(211), 제스쳐 입력부(212), 터치 입력부(213) 및 기계식 입력부(214)를 포함할 수 있다. The input unit 210 may include a voice input unit 211, a gesture input unit 212, a touch input unit 213, and a mechanical input unit 214.
음성 입력부(211)는 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다. 음성 입력부(211)는 하나 이상의 마이크로 폰을 포함할 수 있다. The voice input unit 211 may convert a user's voice input into an electrical signal. The converted electrical signal may be provided to the processor 270 or the control unit 170. The voice input unit 211 may include one or more microphones.
제스쳐 입력부(212)는 사용자의 제스쳐 입력을 전기적 신호로 전환하여 프로세서(270) 또는 제어부(170)에 제공할 수 있다. 제스쳐 입력부(212)는 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다. The gesture input unit 212 may convert a user's gesture input into an electrical signal and provide it to the processor 270 or the control unit 170. The gesture input unit 212 may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.
제스쳐 입력부(212)는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부(212)는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다. The gesture input unit 212 may detect a user's 3D gesture input. To this end, the gesture input unit 212 may include an optical output unit that outputs a plurality of infrared light or a plurality of image sensors.
제스쳐 입력부(212)는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다. The gesture input unit 212 may detect a user's 3D gesture input through a Time of Flight (TOF) method, a structured light method, or a disparity method.
터치 입력부(213)는 사용자의 터치 입력을 전기적 신호로 전환하여 프로세서(270) 또는 제어부(170)에 제공할 수 있다. 터치 입력부(213)는 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다. 터치 입력부(213)는 디스플레이(251)와 일체형으로 형성되어 터치 스크린을 구현할 수 있다. 터치 스크린은 차량(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다. The touch input unit 213 may convert a user's touch input into an electrical signal and provide it to the processor 270 or the control unit 170. The touch input unit 213 may include a touch sensor for sensing a user's touch input. The touch input unit 213 is integrally formed with the display 251 to implement a touch screen. The touch screen may provide an input interface and an output interface between the vehicle 100 and a user together.
기계식 입력부(214)는 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부(214)의 출력 신호는 프로세서(270) 또는 제어부(170)에 제공될 수 있다. 기계식 입력부(214)는 스티어링 휠(steering wheel), 센터 페시아(center fascia), 센터 콘솔(center console), 칵핏 모듈(Cockpit module), 도어(door) 등에 배치될 수 있다. The mechanical input unit 214 may include at least one of a button, a dome switch, a jog wheel, and a jog switch. The output signal of the mechanical input unit 214 may be provided to the processor 270 or the control unit 170. The mechanical input unit 214 may be disposed on a steering wheel, a center fascia, a center console, a cockpit module, a door, or the like.
탑승자 감지부(240)는 차량(100) 내부의 탑승자 또는 사물을 감지할 수 있다. 탑승자 감지부(240)는 내부 카메라(220) 및 생체 감지부(230)를 포함할 수 있다.The occupant detection unit 240 may detect a occupant or an object inside the vehicle 100. The occupant detection unit 240 may include an internal camera 220 and a living body detection unit 230.
내부 카메라(220)는 차량 내부 공간을 촬영한다. 프로세서(270)는 내부 카메라(220)로부터 수신된 차량 내부 영상을 기초로 사용자 상태를 감지할 수 있다. The internal camera 220 photographs the interior space of the vehicle. The processor 270 may detect a user state based on an image inside the vehicle received from the internal camera 220.
프로세서(270)는 차량 내부 영상을 분석하여 운전자의 시선, 얼굴, 행동, 표정, 및 위치 등의 운전자 상태를 판단하여 운전자 상태 정보를 발생할 수 있다. 프로세서(270)는 차량 내부 영상에서 사용자의 제스쳐(gesture)를 판단할 수 있다. 프로세서(270)는 운전자 상태 정보를 제어부(170)에 제공할 수 있다. The processor 270 may generate driver state information by analyzing a vehicle interior image to determine a driver's state such as a driver's gaze, face, behavior, expression, and location. The processor 270 may determine a user's gesture from an image inside the vehicle. The processor 270 may provide driver state information to the controller 170.
생체 감지부(230)는 사용자의 생체 정보를 획득할 수 있다. 생체 감지부(230)는 사용자의 생체 정보를 획득할 수 있는 센서를 이용하여 사용자의 지문 정보, 심박동 정보, 및 뇌파 정보 등을 획득할 수 있다. 생체 정보는 사용자 인증이나 사용자의 상태 판단을 위해 이용될 수 있다. The biometric sensor 230 may acquire biometric information of a user. The biometric sensor 230 may acquire fingerprint information, heartbeat information, brain wave information, and the like of a user by using a sensor capable of acquiring the user's biometric information. The biometric information may be used for user authentication or for determining a user's state.
프로세서(270)는 운전자의 생체 정보를 바탕으로 운전자의 상태를 판단하여 운전자 상태 정보를 발생할 수 있다. 운전자 상태 정보는 운전자가 기절하는지, 졸고 있는지, 흥분하는지, 위급한 상태인지 등을 나타낼 수 있다. 프로세서(270)는 운전자의 생체 정보로부터 획득한 운전자 상태 정보를 제어부(170)에 제공할 수 있다. The processor 270 may generate driver state information by determining a driver's state based on the driver's biometric information. The driver status information may indicate whether the driver is fainting, drowsy, excited, or in an emergency. The processor 270 may provide driver state information obtained from the driver's biometric information to the controller 170.
출력부(250)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생한다. 출력부(250)는 디스플레이(251), 음향 출력부(252), 햅틱 출력부(253) 등을 포함할 수 있다. The output unit 250 generates output related to visual, auditory, or tactile sense. The output unit 250 may include a display 251, an audio output unit 252, a haptic output unit 253, and the like.
디스플레이(251)는 다양한 정보를 포함한 영상 신호를 표시한다. 디스플레이(251)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. The display 251 displays an image signal including various information. The display 251 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.
디스플레이(251)는 터치 입력부(213)와 결합되어 터치 스크린을 구현할 수 있다. The display 251 may be combined with the touch input unit 213 to implement a touch screen.
디스플레이(251)는 HUD(Head Up Display)로 구현될 수 있다. HUD는 투사 모듈을 구비하여 윈드 쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 표시할 수 있다. The display 251 may be implemented as a head up display (HUD). The HUD may include a projection module to display information through a windshield or an image projected on a window.
디스플레이(251)는 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드 쉴드 또는 윈도우에 부착될 수 있다. 투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다. The display 251 may include a transparent display. The transparent display can be attached to a windshield or window. The transparent display can display a predetermined screen while having a predetermined transparency. Transparent display, in order to have transparency, transparent display is transparent TFEL (Thin Film Elecroluminescent), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display It may include at least one of. The transparency of the transparent display can be adjusted.
디스플레이(251)는 도 3 및 도 4에 도시된 바와 같이 복수의 디스플레이(251a 내지 251g)를 포함할 수 있다. 디스플레이(251)는 스티어링 휠의 일 영역, 인스투루먼트 패널(instrument panel)의 일 영역(251a, 251b, 251e), 시트의 일 영역(251d), 각 필러의 일 영역(251f), 도어의 일 영역(251g), 센타 콘솔의 일 영역, 헤드 라이닝의 일 영역, 썬바이저의 일 영역에 배치되거나, 윈드 쉴드의 일영역(251c), 윈도우의 일영역(251h)에 구현될 수 있다. 윈도우에 배치된 디스플레이(251h)는 차량(100)의 전방 윈도우, 후방 윈도우, 측면 윈도우 각각에 배치될 수 있다. The display 251 may include a plurality of displays 251a to 251g as shown in FIGS. 3 and 4. The display 251 includes one area of the steering wheel, one area 251a, 251b, 251e of the instrument panel, one area 251d of the seat, one area 251f of each pillar, and one of the door. It may be disposed in an area 251g, a center console area, a headlining area, or a sun visor area, or may be implemented in a windshield area 251c or a window area 251h. The display 251h disposed on the window may be disposed on each of the front window, the rear window, and the side window of the vehicle 100.
음향 출력부(252)는 프로세서(270) 또는 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 음향 출력부(252)는 하나 이상의 스피커를 포함할 수 있다. The sound output unit 252 converts an electrical signal provided from the processor 270 or the control unit 170 into an audio signal and outputs it. The sound output unit 252 may include one or more speakers.
햅틱 출력부(253)는 촉각 신호를 출력한다. 햅틱 출력부(253)는 촉각 신호에 따라 스티어링 휠, 안전 벨트, 시트(110FL, 110FR, 110RL, 110RR)를 진동시킨다. The haptic output unit 253 outputs a tactile signal. The haptic output unit 253 vibrates the steering wheel, seat belt, and seats 110FL, 110FR, 110RL, and 110RR according to a tactile signal.
프로세서(270)는 사용자 인터페이스 장치(200)의 구성 요소들 각각의 전반적인 동작을 제어할 수 있다. 사용자 인터페이스 장치(200)에 프로세서(270)가 포함되지 않는 경우, 사용자 인터페이스 장치(200)는 다른 장치의 프로세서 또는 제어부(170)의 제어 하에 동작될 수 있다. The processor 270 may control the overall operation of each of the components of the user interface device 200. When the processor 270 is not included in the user interface device 200, the user interface device 200 may be operated under the control of a processor of another device or the control unit 170.
오브젝트 검출 장치(300)는 차량(100) 외부에 위치하는 객체(object)를 검출한다. 객체는 차량(100)의 운행과 관련된 다양한 물체들일 수 있다. 예를 들어, 객체는 도 5 및 도 6에 도시된 바와 같이 차로(Lane, OB10), 타 차량(OB11), 보행자(OB12), 이륜차(OB13), 교통 신호(OB14, OB15), 빛, 도로, 구조물, 과속 방지턱, 지형 지물, 동물 등을 포함할 수 있다. The object detection device 300 detects an object located outside the vehicle 100. The objects may be various objects related to the operation of the vehicle 100. For example, the object is a lane, OB10, other vehicle (OB11), pedestrian (OB12), two-wheeled vehicle (OB13), traffic signal (OB14, OB15), light, road as shown in FIGS. , Structures, speed bumps, terrain features, animals, and the like.
차로(OB10)는 주행 차로, 주행 차로의 옆 차로, 반대 방향으로 주행하는 차량의 차로일 수 있다. 차로(OB10)는 차로(Lane)을 형성하는 좌우측 차선(Line)을 포함하는 개념일 수 있다. The lane OB10 may be a driving lane, a lane next to the driving lane, or a lane of a vehicle traveling in the opposite direction. The lane OB10 may be a concept including left and right lanes forming a lane.
타 차량(OB11)은 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량(OB11)은 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 타 차량(OB11)은 차량(100)보다 선행하는 차량이거나, 후행하는 차량일 수 있다. The other vehicle OB11 may be a vehicle running around the vehicle 100. The other vehicle OB11 may be a vehicle located within a predetermined distance from the vehicle 100. The other vehicle OB11 may be a vehicle preceding or following the vehicle 100.
보행자(OB12)는 차량(100)의 주변에 위치한 사람일 수 있다. 보행자(OB12)는 차량(100)으로부터 소정 거리 이내에 위치하는 사람일 수 있다. 예를 들면, 보행자(OB12)는 인도 또는 차도상에 위치하는 사람일 수 있다. The pedestrian OB12 may be a person located around the vehicle 100. The pedestrian OB12 may be a person located within a predetermined distance from the vehicle 100. For example, the pedestrian OB12 may be a person located on a sidewalk or roadway.
이륜차(OB12)는 차량(100)의 주변에 위치하고 2 개의 바퀴를 이용해 움직이는 탈것을 의미할 수 있다. 이륜차(OB13)는 차량(100) 주변의 인도 또는 차도 상에 위치하는 오토바이 또는 자전거일 수 있다. The two-wheeled vehicle OB12 may refer to a vehicle that is located around the vehicle 100 and moves using two wheels. The two-wheeled vehicle OB13 may be a motorcycle or bicycle positioned on a sidewalk or roadway around the vehicle 100.
교통 신호는 교통 신호등(OB15), 교통 표지판(OB14), 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다. The traffic signal may include a traffic light OB15, a traffic sign OB14, a pattern or text drawn on a road surface.
빛은 타 차량(OB11)에 구비된 램프에서 생성된 빛일 수 있다. 빛은 가로등에서 생성된 조명 빛 또는 태양광일 수 있다. The light may be light generated by a lamp provided in another vehicle OB11. The light may be illumination light or sunlight generated from a street lamp.
도로는 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다. The road may include a road surface, a curve, an uphill, downhill slope, and the like.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리를 포함할 수 있다. The structure may be an object located around a road and fixed to the ground. For example, the structure may include street lights, street trees, buildings, power poles, traffic lights, and bridges.
지형 지물은 산, 언덕, 등을 포함할 수 있다. The topographical features may include mountains, hills, and the like.
객체는 이동 객체와 고정 객체로 나뉘어질 수 있다. 이동 객체는 타 차량(OB11), 이륜차(OB13), 보행자(OB12) 등일 수 있다. 고정 객체는 교통 신호, 도로, 고정 구조물일 수 있다. Objects can be divided into moving objects and fixed objects. The moving object may be another vehicle (OB11), a two-wheeled vehicle (OB13), a pedestrian (OB12), or the like. The fixed object may be a traffic signal, a road, or a fixed structure.
오브젝트 검출 장치(300)는 카메라(310), 레이다(320), 라이다(330), 초음파 센서(340), 적외선 센서(350) 및 프로세서(370)를 포함할 수 있다. The object detection apparatus 300 may include a camera 310, a radar 320, a lidar 330, an ultrasonic sensor 340, an infrared sensor 350, and a processor 370.
카메라(310)는 차량(100)의 외부 환경을 촬영하여 차량(100)의 외부 환경을 보여 주는 영상 신호를 출력한다. 카메라(310)는 차량(100) 외부의 적절한 위치에 하나 이상 배치될 수 있다. 카메라(310)는 모노 카메라, 스테레오 카메라(310a), AVM(Around View Monitoring) 카메라(310b) 또는 360도 카메라일 수 있다.The camera 310 photographs the external environment of the vehicle 100 and outputs an image signal showing the external environment of the vehicle 100. One or more cameras 310 may be disposed at an appropriate location outside the vehicle 100. The camera 310 may be a mono camera, a stereo camera 310a, an AVM (Around View Monitoring) camera 310b, or a 360 degree camera.
카메라(310)는 차량 전방의 영상을 획득하기 위해 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 카메라(310)는 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라(310)는 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 카메라(310)는 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라(310)는 차량 측방의 영상을 획득하기 위해 차량(100)의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 카메라(310)는 사이드 미러, 휀더(fender) 또는 도어 주변에 배치될 수 있다. 카메라(310)로부터 출력된 영상 신호는 프로세서(370)에 제공된다.The camera 310 may be disposed in the interior of the vehicle and close to the front windshield in order to acquire an image of the front of the vehicle. The camera 310 may be disposed around a front bumper or a radiator grill. The camera 310 may be disposed in the interior of the vehicle and close to the rear glass in order to acquire an image of the rear of the vehicle. The camera 310 may be disposed around a rear bumper, a trunk or a tail gate. The camera 310 may be disposed in proximity to at least one of the side windows in the interior of the vehicle 100 in order to acquire an image of the vehicle side. The camera 310 may be disposed around a side mirror, a fender, or a door. The image signal output from the camera 310 is provided to the processor 370.
레이다(320)는 전자파 송신부, 수신부를 포함할 수 있다. 레이다(320)는 전파 발사 원리상 펄스 레이다(Pulse Radar) 방식 또는 연속파 레이다(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이다(320)는 연속파 레이다 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keying) 방식으로 구현될 수 있다. The radar 320 may include an electromagnetic wave transmitter and a receiver. The radar 320 may be implemented in a pulse radar method or a continuous wave radar method according to a radio wave emission principle. The radar 320 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keying (FSK) method according to a signal waveform among continuous wave radar methods.
레이다(320)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 객체를 검출하고, 검출된 객체의 위치, 검출된 객체와의 거리 및 상대 속도를 검출할 수 있다. The radar 320 detects an object based on a time of flight (TOF) method or a phase-shift method through an electromagnetic wave, and detects the position of the detected object, the distance to the detected object, and the relative speed. Can be detected.
레이다(320)는 차량(100)의 전방, 후방 또는 측방에 위치하는 주변 객체를 감지하기 위해 차량(100)에서 적절한 위치에 배치될 수 있다. The radar 320 may be disposed at an appropriate position in the vehicle 100 in order to detect surrounding objects located in front, rear or side of the vehicle 100.
라이다(330)는 레이저 송신부, 수신부를 포함할 수 있다. 라이다(330)는 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다(330)는 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다(330)는 모터에 의해 회전되며, 주변 객체를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다(330)는 광 스티어링에 의해 차량(100)을 기준으로 소정 범위 내에 위치하는 주변 객체를 검출할 수 있다. 차량(100)은 복수의 비구동식 라이다(330)를 포함할 수 있다.The lidar 330 may include a laser transmitter and a receiver. The lidar 330 may be implemented in a Time of Flight (TOF) method or a phase-shift method. The lidar 330 may be implemented as a driven or non-driven. When implemented as a drive type, the lidar 330 is rotated by a motor and may detect surrounding objects. When implemented in a non-driven manner, the lidar 330 may detect surrounding objects located within a predetermined range with respect to the vehicle 100 by optical steering. The vehicle 100 may include a plurality of non-driving lidars 330.
라이다(330)는 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 주변 객체를 검출하고, 검출된 주변 객체의 위치, 검출된 객체와의 거리 및 상대 속도를 검출할 수 있다. The lidar 330 is a laser light medium, based on a time of flight (TOF) method or a phase-shift method, and detects a neighboring object, the position of the detected neighboring object, and the distance to the detected object. And relative speed can be detected.
라이다(330)는 차량의 전방, 후방 또는 측방에 위치하는 주변 객체를 감지하기 위해 차량(100)에서 적절한 위치에 배치될 수 있다. The lidar 330 may be disposed at an appropriate position in the vehicle 100 to detect surrounding objects located in front, rear, or side of the vehicle.
초음파 센서(340)는 초음파 송신부, 수신부를 포함할 수 있다. 초음파 센서(340)는 객체로부터 반사되어 수시된 초음파로 주변 객체를 검출하고, 검출된 객체의 위치, 검출된 객체와의 거리 및 상대 속도를 검출할 수 있다. The ultrasonic sensor 340 may include an ultrasonic transmitter and a receiver. The ultrasonic sensor 340 may detect a surrounding object using ultrasonic waves reflected from the object and received, and detect a location of the detected object, a distance to the detected object, and a relative speed.
초음파 센서(340)는 차량의 전방, 후방 또는 측방에 위치하는 주변 객체를 감지하기 위해 차량(100)에서 적절한 위치에 배치될 수 있다. The ultrasonic sensor 340 may be disposed at an appropriate position in the vehicle 100 in order to detect surrounding objects located in the front, rear, or side of the vehicle.
적외선 센서(350)는 적외선 송신부, 수신부를 포함할 수 있다. 적외선 센서(340)는 객체로부터 반사되어 수시된 적외선을 기초로 주변 객체를 검출하고, 검출된 객체의 위치, 검출된 객체와의 거리 및 상대 속도를 검출할 수 있다.The infrared sensor 350 may include an infrared transmitter and a receiver. The infrared sensor 340 may detect a surrounding object based on infrared rays reflected from the object and received, and detect a position of the detected object, a distance to the detected object, and a relative speed.
적외선 센서(350)는 차량의 전방, 후방 또는 측방에 위치하는 주변 객체를 감지하기 위해 차량(100)에서 적절한 위치에 배치될 수 있다. The infrared sensor 350 may be disposed at an appropriate position in the vehicle 100 in order to detect surrounding objects located in the front, rear or side of the vehicle.
프로세서(370)는 오브젝트 검출 장치(300)의 구성 요소 각각의 전반적인 동작을 제어할 수 있다. 프로세서(370)는 획득된 영상에 기초하여 주변 객체를 검출하고, 트래킹(tracking)할 수 있다. 프로세서(370)는 영상 처리 알고리즘을 이용하여 객체와의 거리 산출, 객체와의 상대 속도 산출, 객체의 종류, 위치, 크기, 형상, 색상, 이동 경로 판단, 감지되는 문자의 내용 판단 등의 동작을 수행할 수 있다. The processor 370 may control an overall operation of each component of the object detection apparatus 300. The processor 370 may detect and track surrounding objects based on the acquired image. The processor 370 performs operations such as calculating a distance to an object, calculating a relative speed with an object, determining the type, location, size, shape, color, movement path, and content of the detected text using an image processing algorithm. Can be done.
프로세서(370)는, 송신된 전자파가 객체에 반사되어 되돌아오는 반사 전자파에 기초하여, 주변 객체를 검출하고, 트래킹할 수 있다. 프로세서(370)는 전자파에 기초하여, 객체와의 거리 산출, 객체와의 상대 속도 산출 등의 동작을 수행할 수 있다. The processor 370 may detect and track surrounding objects based on the reflected electromagnetic waves returned by the transmitted electromagnetic waves reflected from the object. The processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object, based on the electromagnetic wave.
프로세서(370)는 송신된 레이저 광이 객체에 반사되어 되돌아오는 반사 레이저 광에 기초하여, 주변 객체를 검출하고, 트래킹할 수 있다. 프로세서(370)는 레이저 광에 기초하여 객체와의 거리 산출, 객체와의 상대 속도 산출 등의 동작을 수행할 수 있다. The processor 370 may detect and track surrounding objects based on the reflected laser light returned by the transmitted laser light being reflected on the object. The processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object based on the laser light.
프로세서(370)는 송신된 초음파가 객체에 반사되어 되돌아오는 반사 초음파에 기초하여, 주변 객체를 검출하고, 트래킹할 수 있다. 프로세서(370)는 초음파에 기초하여, 객체와의 거리 산출, 객체와의 상대 속도 산출 등의 동작을 수행할 수 있다. The processor 370 may detect and track a surrounding object based on the reflected ultrasonic wave returned by the transmitted ultrasonic wave reflected from the object. The processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object, based on the ultrasonic wave.
프로세서(370)는 송신된 적외선 광이 객체에 반사되어 되돌아오는 반사 적외선 광에 기초하여, 주변 객체를 검출하고, 트래킹할 수 있다. 프로세서(370)는 적외선 광에 기초하여 객체와의 거리 산출, 객체와의 상대 속도 산출 등의 동작을 수행할 수 있다. The processor 370 may detect and track a surrounding object based on the reflected infrared light reflected from the transmitted infrared light and returned to the object. The processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object based on infrared light.
프로세서(370)는 카메라(310)를 통하여 획득된 영상, 레이다(320)를 통하여 수신된 반사 전자파, 라이다(330)를 통하여 수신된 반사 레이저 광, 초음파 센서(340)를 통하여 수신된 반사 초음파, 및 적외선 센서(350)를 통하여 수신된 반사 적외선 광 중 적어도 하나에 기초하여, 주변 객체를 판단하여 객체 정보를 발생할 수 있다. 프로세서(370)는 객체 정보를 제어부(170)에 제공할 수 있다. The processor 370 includes an image acquired through the camera 310, a reflected electromagnetic wave received through the radar 320, a reflected laser light received through the lidar 330, and a reflected ultrasonic wave received through the ultrasonic sensor 340. , And the reflected infrared light received through the infrared sensor 350, the surrounding object may be determined to generate object information. The processor 370 may provide object information to the controller 170.
객체 정보는 차량(100)의 주변에 존재하는 객체의 종류, 위치, 크기, 형상, 색상, 이동 경로, 속도, 감지되는 문자를 나타낸다. 객체 정보는 차량(100) 주변에 차선이 존재하는지, 차량(100)은 정차 중인데 차량(100) 주변의 타 차량이 주행하는지, 차량(100) 주변에 정차할 수 있는 구역이 있는지, 차량과 오브젝트가 충돌할 가능성, 차량(100) 주변에 보행자나 자전거가 어떻게 분포되어 있는지, 차량(100)이 주행하는 도로의 종류, 차량(100) 주변 신호등의 상태, 차량(100)의 움직임 등을 나타낼 수 있다. The object information indicates the type, location, size, shape, color, movement path, speed, and detected text of an object existing around the vehicle 100. The object information includes whether there is a lane around the vehicle 100, whether other vehicles around the vehicle 100 are running while the vehicle 100 is stopped, whether there is an area that can be stopped around the vehicle 100, the vehicle and the object. Can indicate the possibility of a collision, how pedestrians or bicycles are distributed around the vehicle 100, the type of road the vehicle 100 is traveling on, the state of the traffic lights around the vehicle 100, and the movement of the vehicle 100. have.
오브젝트 검출 장치(300)는 복수의 프로세서(370)를 포함하거나, 프로세서(370)를 포함하지 않을 수도 있다. 카메라(310), 레이다(320), 라이다(330), 초음파 센서(340) 및 적외선 센서(350) 각각은 개별적으로 프로세서를 포함할 수 있다. The object detection apparatus 300 may include a plurality of processors 370 or may not include the processors 370. Each of the camera 310, radar 320, lidar 330, ultrasonic sensor 340, and infrared sensor 350 may individually include a processor.
오브젝트 검출 장치(300)는 차량(100)내 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다. The object detection device 300 may be operated under the control of a processor or a controller 170 of a device in the vehicle 100.
통신 장치(400)는 외부 디바이스와 통신을 수행한다. 통신 장치(400)는 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication device 400 communicates with an external device. The communication device 400 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
통신 장치(400)는 근거리 통신부(410), 위치 정보부(420), V2X 통신부(430), 광통신부(440), 방송 송수신부(450) 및 프로세서(470)를 포함할 수 있다. The communication device 400 may include a short range communication unit 410, a location information unit 420, a V2X communication unit 430, an optical communication unit 440, a broadcast transmission/reception unit 450, and a processor 470.
근거리 통신부(410)는 근거리 통신(Short range communication)을 위한 유닛이다. 근거리 통신부(410)는, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. The short range communication unit 410 is a unit for short range communication. The near field communication unit 410 includes Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), and Wireless Frequency Identification (Wi-Fi). -Fidelity), Wi-Fi Direct, and Wireless Universal Serial Bus (USB) technologies may be used to support short-range communication.
근거리 통신부(410)는 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. The short-range communication unit 410 may form short-range wireless communication networks (Wireless Area Networks) to perform short-range communication between the vehicle 100 and at least one external device.
위치 정보부(420)는, 차량(100)의 위치 정보를 획득한다. 위치 정보부(420)는 GPS(Global Positioning System) 모듈 또는 DGPS(Differential Global Positioning System) 모듈을 포함할 수 있다. The location information unit 420 acquires location information of the vehicle 100. The location information unit 420 may include a Global Positioning System (GPS) module or a Differential Global Positioning System (DGPS) module.
V2X 통신부(430)는 서버(V2I : Vehicle to Infra), 타 차량과의 통신(V2V : Vehicle to Vehicle) 또는 보행자와의 통신(V2P : Vehicle to Pedestrian)을 수행한다. V2X 통신부(430)는 인프라와의 통신(V2I), 차량간 통신(V2V), 보행자와의 통신(V2P) 프로토콜이 구현 가능한 RF 회로를 포함할 수 있다.The V2X communication unit 430 performs a server (V2I: Vehicle to Infra), communication with other vehicles (V2V: Vehicle to Vehicle), or communication with a pedestrian (V2P: Vehicle to Pedestrian). The V2X communication unit 430 may include an RF circuit capable of implementing communication with infrastructure (V2I), vehicle-to-vehicle communication (V2V), and communication with pedestrians (V2P) protocols.
광통신부(440)는 광을 매개로 외부 디바이스와 통신을 수행한다. 광통신부(440)는 전기 신호를 광 신호로 전환하여 외부에 발신하는 광발신부 및 수신된 광 신호를 전기 신호로 전환하는 광수신부를 포함할 수 있다. 광발신부는 차량(100)에 포함된 램프와 일체화될 수 있다. The optical communication unit 440 communicates with an external device through light. The optical communication unit 440 may include an optical transmitter that converts an electrical signal into an optical signal and transmits it to the outside, and an optical receiver that converts the received optical signal into an electrical signal. The light transmitting unit may be integrated with a lamp included in the vehicle 100.
방송 송수신부(450)는 방송 채널을 통해 외부의 방송 관리 서버로부터 방송 신호를 수신하거나, 방송 관리 서버에 방송 신호를 송출한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 방송 신호는 TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 수 있다. The broadcast transmission/reception unit 450 receives a broadcast signal from an external broadcast management server through a broadcast channel or transmits a broadcast signal to the broadcast management server. Broadcast channels may include satellite channels and terrestrial channels. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal.
프로세서(470)는 통신 장치(400)의 각 구성 요소들의 전반적인 동작을 제어할 수 있다. 프로세서(470)는 근거리 통신부(410), 위치 정보부(420), V2X 통신부(430), 광통신부(440), 및 방송 송수신부(450) 중 적어도 하나를 통하여 수신되는 정보에 기초하여, 차량 주행 정보를 생성할 수 있다. 프로세서(470)는 타차량으로부터 수신되는 타 차량의 위치, 차종, 주행 경로, 속도, 각종 센싱 값 등에 대한 정보에 기초하여, 차량 주행 정보를 생성할 수 있다. 타 차량의 각종 센싱 값에 대한 정보가 수신되는 경우, 차량(100)에 별도의 센서가 없더라도, 프로세서(470)는 차량(100)의 주변 객체에 대한 정보를 얻을 수 있다. The processor 470 may control the overall operation of each component of the communication device 400. The processor 470 drives a vehicle based on information received through at least one of a short-range communication unit 410, a location information unit 420, a V2X communication unit 430, an optical communication unit 440, and a broadcast transmission/reception unit 450. Can generate information. The processor 470 may generate vehicle driving information based on information about a location, a vehicle type, a driving route, a speed, and various sensing values of another vehicle received from the other vehicle. When information on various sensing values of other vehicles is received, the processor 470 may obtain information on objects around the vehicle 100 even if there is no separate sensor in the vehicle 100.
통신 장치(400)에 프로세서(470)가 포함되지 않는 경우, 통신 장치(400)는 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라 동작될 수 있다. When the processor 470 is not included in the communication device 400, the communication device 400 may be operated under the control of the processor or the controller 170 of another device in the vehicle 100.
통신 장치(400)는 사용자 인터페이스 장치(200)와 함께 차량용 디스플레이 장치를 구현할 수 있다. 이 경우, 차량용 디스플레이 장치는, 텔레 매틱스(telematics) 장치 또는 AVN(Audio Video Navigation) 장치로 명명될 수 있다. The communication device 400 may implement a vehicle display device together with the user interface device 200. In this case, the vehicle display device may be referred to as a telematics device or an audio video navigation (AVN) device.
제어부(170)는 통신 장치(400)로부터 수신된 신호를 바탕으로 운전자 상태 정보, 차량 상태 정보, 차량 주행 정보, 차량(100)의 에러를 나타내는 에러 정보, 객체 정보, 사용자 인터페이스 장치(200)를 통하여 수신되는 사용자 입력, 및 원격 제어 요청 신호 중 적어도 하나를 외부 디바이스로 전송할 수 있다. 원격 제어용 서버는 차량(100)이 송신하는 정보에 기초하여 차량(100)이 원격 제어가 필요한지 판단할 수 있다. The controller 170 provides driver status information, vehicle status information, vehicle driving information, error information indicating an error of the vehicle 100, object information, and a user interface device 200 based on a signal received from the communication device 400. At least one of a user input and a remote control request signal received through may be transmitted to an external device. The server for remote control may determine whether the vehicle 100 needs remote control based on information transmitted by the vehicle 100.
제어부(170)는 통신 장치(400)를 통하여, 원격 제어용 서버로부터 수시된 제어 신호에 따라 차량(100)을 제어할 수 있다. The controller 170 may control the vehicle 100 according to a control signal received from a remote control server through the communication device 400.
운전 조작 장치(500)는 운전을 위한 사용자 입력을 수신한다. 매뉴얼 모드에서, 차량(100)은 운전 조작 장치(500)에 의해 제공되는 사용자 입력 신호에 기초하여 운행될 수 있다. The driving manipulation device 500 receives a user input for driving. In the manual mode, the vehicle 100 may be driven based on a user input signal provided by the driving operation device 500.
운전 조작 장치(500)는 조향 입력 장치(510), 가속 입력 장치(530) 및 브레이크 입력 장치(570)를 포함할 수 있다. The driving manipulation device 500 may include a steering input device 510, an acceleration input device 530, and a brake input device 570.
조향 입력 장치(510)는 사용자로부터 차량(100)의 진행 방향 입력을 수신할 수 있다. 조향 입력 장치(510)는, 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다. The steering input device 510 may receive an input of a traveling direction of the vehicle 100 from a user. The steering input device 510 is preferably formed in a wheel shape to enable steering input by rotation. Depending on the embodiment, the steering input device may be formed in the form of a touch screen, a touch pad, or a button.
가속 입력 장치(530)는 사용자로부터 차량(100)의 가속을 위한 입력을 수신할 수 있다. 브레이크 입력 장치(570)는 사용자로부터 차량(100)의 감속을 위한 입력을 수신할 수 있다. 가속 입력 장치(530) 및 브레이크 입력 장치(570)는 페달 형태로 구현될 수 있다. 가속 입력 장치 또는 브레이크 입력 장치는 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다. The acceleration input device 530 may receive an input for acceleration of the vehicle 100 from a user. The brake input device 570 may receive an input for deceleration of the vehicle 100 from a user. The acceleration input device 530 and the brake input device 570 may be implemented in the form of a pedal. The acceleration input device or brake input device may be formed in the form of a touch screen, a touch pad, or a button.
운전 조작 장치(500)는 제어부(170)의 제어에 따라 동작될 수 있다. The driving manipulation device 500 may be operated under the control of the controller 170.
차량 구동 장치(600)는 차량(100)내 각종 장치의 구동을 전기적으로 제어한다. 차량 구동 장치(600)는 파워 트레인 구동부(610), 샤시 구동부(620), 도어/윈도우 구동부(630), 안전 장치 구동부(640), 램프 구동부(650) 및 공조 구동부(660)를 포함할 수 있다. The vehicle driving device 600 electrically controls driving of various devices in the vehicle 100. The vehicle driving device 600 may include a power train driving unit 610, a chassis driving unit 620, a door/window driving unit 630, a safety device driving unit 640, a lamp driving unit 650, and an air conditioning driving unit 660. have.
파워 트레인 구동부(610)는 파워 트레인 장치의 동작을 제어할 수 있다. 파워 트레인 구동부(610)는 동력원 구동부(611) 및 변속기 구동부(612)를 포함할 수 있다. The power train driver 610 may control the operation of the power train device. The power train driving unit 610 may include a power source driving unit 611 and a transmission driving unit 612.
동력원 구동부(611)는 차량(100)의 동력원에 대한 제어를 수행한다. 화석 연료 기반의 엔진이 동력원인 경우, 동력원 구동부(610)는 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(611)는 제어부(170)의 제어 하에 엔진 출력 토크를 조정할 수 있다. 전기 에너지 기반의 모터가 동력원인 경우, 동력원 구동부(610)는 제어부(170)의 제어 하에 모터의 회전 속도, 토크 등을 조정할 수 있다. The power source drive unit 611 controls the power source of the vehicle 100. When the fossil fuel-based engine is the power source, the power source driving unit 610 may control an output torque of the engine. The power source driving unit 611 may adjust the engine output torque under the control of the controller 170. When the electric energy-based motor is the power source, the power source driving unit 610 may adjust the rotational speed and torque of the motor under the control of the controller 170.
변속기 구동부(612)는 변속기에 대한 제어를 수행한다. 변속기 구동부(612)는 변속기의 상태를 전진(D), 후진(R), 중립(N) 또는 주차(P)로 조정할 수 있다. 엔진이 동력원인 경우, 변속기 구동부(612)는 전진(D) 상태에서 기어의 물림 상태를 조정할 수 있다. The transmission driving unit 612 performs control of the transmission. The transmission driving unit 612 may adjust the state of the transmission to forward (D), reverse (R), neutral (N), or parking (P). When the engine is the power source, the transmission driving unit 612 may adjust the bite state of the gear in the forward (D) state.
샤시 구동부(620)는 샤시 장치의 동작을 제어할 수 있다. 샤시 구동부(620)는 조향 구동부(621), 브레이크 구동부(622) 및 서스펜션 구동부(623)를 포함할 수 있다. The chassis driver 620 may control the operation of the chassis device. The chassis driving unit 620 may include a steering driving unit 621, a brake driving unit 622, and a suspension driving unit 623.
조향 구동부(621)는 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 조향 구동부(621)는, 차량의 진행 방향을 변경할 수 있다. The steering driver 621 may perform electronic control of a steering apparatus in the vehicle 100. The steering drive unit 621 can change the traveling direction of the vehicle.
브레이크 구동부(622)는 차량(100) 내의 브레이크 장치(brake apparatus)에 대한 전자식 제어를 수행하여 차량(100)의 속도를 줄일 수 있다. 브레이크 구동부(622)는 복수의 브레이크 각각을 개별적으로 제어할 수 있다. 브레이크 구동부(622)는 복수의 휠에 걸리는 제동력을 서로 다르게 제어할 수 있다. The brake driving unit 622 may reduce the speed of the vehicle 100 by performing electronic control on a brake apparatus in the vehicle 100. The brake driving unit 622 may individually control each of the plurality of brakes. The brake driving unit 622 may differently control braking force applied to a plurality of wheels.
서스펜션 구동부(623)는 차량(100) 내의 서스펜션 장치(suspension apparatus)에 대한 전자식 제어를 수행할 수 있다. 서스펜션 구동부(623)는 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여 차량(100)의 진동이 저감되도록 제어할 수 있다. 서스펜션 구동부(623)는 복수의 서스펜션 각각을 개별적으로 제어할 수 있다. The suspension driving unit 623 may perform electronic control on a suspension apparatus in the vehicle 100. The suspension driving unit 623 may control the suspension device to reduce vibration of the vehicle 100 when there is a curve on the road surface. The suspension driving unit 623 may individually control each of the plurality of suspensions.
도어/윈도우 구동부(630)는 차량(100) 내의 도어 장치(door apparatus) 또는 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 도어/윈도우 구동부(630)는 도어 구동부(631) 및 윈도우 구동부(632)를 포함할 수 있다. 도어 구동부(631)는 도어 장치에 대한 제어를 수행할 수 있다. 도어 구동부(631)는 차량(100)에 포함되는 복수의 도어의 개방, 폐쇄를 제어할 수 있다. 도어 구동부(631)는 트렁크(trunk) 또는 테일 게이트(tail gate)의 개방 또는 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 썬루프(sunroof)의 개방 또는 폐쇄를 제어할 수 있다. The door/window driving unit 630 may perform electronic control on a door apparatus or a window apparatus in the vehicle 100. The door/window driving unit 630 may include a door driving unit 631 and a window driving unit 632. The door driving unit 631 may control the door device. The door driver 631 may control opening and closing of a plurality of doors included in the vehicle 100. The door driver 631 may control opening or closing of a trunk or a tail gate. The door drive part 631 can control the opening or closing of a sunroof.
윈도우 구동부(632)는 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행하여 차량(100)의 윈도우 개방 또는 폐쇄를 제어할 수 있다. The window driver 632 may control the opening or closing of the window of the vehicle 100 by performing electronic control on a window apparatus.
안전 장치 구동부(640)는 차량(100) 내의 각종 안전 장치(safety apparatus)에 대한 전자식 제어를 수행할 수 있다. 안전 장치 구동부(640)는 에어백 구동부(641), 시트벨트 구동부(642) 및 보행자 보호 장치 구동부(643)를 포함할 수 있다. The safety device driving unit 640 may perform electronic control on various safety apparatuses in the vehicle 100. The safety device driving unit 640 may include an airbag driving unit 641, a seat belt driving unit 642, and a pedestrian protection device driving unit 643.
에어백 구동부(641)는 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행하여 위험 감지시 에어백이 전개되도록 이 에어백을 제어한다. The airbag driver 641 controls the airbag so that the airbag is deployed when a danger is detected by performing electronic control on the airbag apparatus in the vehicle 100.
시트벨트 구동부(642)는 차량(100) 내의 시트벨트 장치(seatbelt apparatus)에 대한 전자식 제어를 수행하여 위험 감지시, 시트 밸트를 이용해 탑승객이 시트(110FL, 110FR, 110RL, 110RR)에 고정되도록 제어할 수 있다. The seat belt driving unit 642 performs electronic control on the seatbelt apparatus in the vehicle 100 and controls the passenger to be fixed to the seats (110FL, 110FR, 110RL, 110RR) using the seat belt when a danger is detected. can do.
보행자 보호 장치 구동부(643)는 후드 리프트 및 보행자 에어백에 대한 전자식 제어를 수행하여 보행자와의 충돌 감지시, 후드 리프트 업 및 보행자 에어백 전개되도록 이 에어백을 제어한다. The pedestrian protection device driving unit 643 performs electronic control on the hood lift and the pedestrian airbag to control the airbag so that the hood lift up and the pedestrian airbag are deployed when a collision with a pedestrian is detected.
램프 구동부(650)는, 차량(100) 내의 각종 램프 장치(lamp apparatus)에 대한 전자식 제어를 수행한다.The lamp driving unit 650 performs electronic control on various lamp apparatuses in the vehicle 100.
공조 구동부(660)는 차량(100) 내의 공조 장치(air conditioner)에 대한 전자식 제어를 수행하여 차량 내부의 온도를 조절한다. The air conditioning drive unit 660 controls the temperature inside the vehicle by performing electronic control on an air conditioner in the vehicle 100.
운행 시스템(700)은 차량(100)의 운행을 제어한다. 운행 시스템(700)은 자율 주행 모드에서 동작될 수 있다. The driving system 700 controls the operation of the vehicle 100. The driving system 700 may be operated in an autonomous driving mode.
운행 시스템(700)은 주행 시스템(710), 출차 시스템(740) 및 주차 시스템(750)을 포함할 수 있다.The driving system 700 may include a driving system 710, a parking system 740, and a parking system 750.
운행 시스템(700)이 소프트웨어적으로 구현되는 경우, 운행 시스템(700)은 제어부(170)의 하위 개념일 수도 있다. When the driving system 700 is implemented in software, the driving system 700 may be a sub-concept of the control unit 170.
운행 시스템(700)은 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 차량 구동 장치(600) 및 제어부(170) 중 하나 이상과 연계되어 차량(100)의 자율 운행을 제어할 수 있다. The driving system 700 is connected with one or more of the user interface device 200, the object detection device 300, the communication device 400, the vehicle driving device 600, and the control unit 170 to autonomously operate the vehicle 100. Can be controlled.
주행 시스템(710)은 내비게이션 시스템(770)으로부터의 내비게이션 정보를 차량 구동 장치(600)에 제공한다. 주행 시스템(710)은 오브젝트 검출 장치(300)로부터의 객체 정보를 차량 구동 장치(600)에 제공한다. 주행 시스템(710)은 통신 장치(400)를 통해 수신된 외부 디바이스로부터의 신호를 차량 구동 장치(600)에 제공할 수 있다. The driving system 710 provides navigation information from the navigation system 770 to the vehicle driving apparatus 600. The driving system 710 provides object information from the object detection device 300 to the vehicle driving device 600. The driving system 710 may provide a signal from an external device received through the communication device 400 to the vehicle driving device 600.
출차 시스템(740)은 차량(100)의 출차를 수행한다. 출차 시스템(740)은 내비게이션 시스템(770)으로부터의 내비게이션 정보를 차량 구동 장치(600)에 제공할 수 있다. 출차 시스템(740)은 오브젝트 검출 장치(300)로부터의 객체 정보를 차량 구동 장치(600)에 제공할 수 있다. 출차 시스템(740)은 통신 장치(400)를 통해 수신된 외부 디바이스로부터의 신호를 차량 구동 장치(600)에 제공할 수 있다. The car taking out system 740 performs car taking out of the vehicle 100. The vehicle taking-out system 740 may provide navigation information from the navigation system 770 to the vehicle driving apparatus 600. The vehicle extraction system 740 may provide object information from the object detection device 300 to the vehicle driving device 600. The take-out system 740 may provide a signal from an external device received through the communication device 400 to the vehicle driving apparatus 600.
주차 시스템(750)은 차량(100)의 주차를 수행할 수 있다. 주차 시스템(750)은 내비게이션 시스템(770)으로부터의 내비게이션 정보를 차량 구동 장치(600)에 제어 신호를 제공할 수 있다. 주차 시스템(750)은 오브젝트 검출 장치(300)로부터의 객체 정보를 차량 구동 장치(600)에 제공할 수 있다. 주차 시스템(750)은 통신 장치(400)를 통해 수신된 외부 디바이스로부터의 신호를 차량 구동 장치(600)에 제공할 수 있다. The parking system 750 may park the vehicle 100. The parking system 750 may provide a control signal to the vehicle driving apparatus 600 with navigation information from the navigation system 770. The parking system 750 may provide object information from the object detection device 300 to the vehicle driving device 600. The parking system 750 may provide a signal from an external device received through the communication device 400 to the vehicle driving device 600.
내비게이션 시스템(770)은 내비게이션 정보를 발생할 수 있다. 내비게이션 정보는 맵(map) 정보, 설정된 목적지 정보, 목적지까지의 경로 정보, 경로 상의 다양한 객체에 대한 정보, 차선 정보 및 차량의 현재 위치 정보 중 하나 이상을 포함할 수 있다. The navigation system 770 may generate navigation information. The navigation information may include at least one of map information, set destination information, route information to the destination, information on various objects on the route, lane information, and current location information of the vehicle.
내비게이션 시스템(770)은 메모리, 프로세서를 포함할 수 있다. 메모리는 내비게이션 정보를 저장할 수 있다. 프로세서는 내비게이션 시스템(770)의 동작을 제어할 수 있다. The navigation system 770 may include a memory and a processor. The memory can store navigation information. The processor may control the operation of the navigation system 770.
내비게이션 시스템(770)은 통신 장치(400)를 통해 수신된 외부 디바이스로부터 정보를 수신하여 기 저장된 정보를 업데이트 할 수 있다. 내비게이션 시스템(770)은 사용자 인터페이스 장치(200)의 하위 구성 요소로 분류될 수 있다. The navigation system 770 may receive information from an external device received through the communication device 400 and update pre-stored information. The navigation system 770 may be classified as a sub-element of the user interface device 200.
센싱부(120)는 차량의 상태를 센싱할 수 있다. 센싱부(120)는 자세 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서 등을 포함할 수 있다. 자세 센서는 요 센서(yaw sensor), 롤 센서(roll sensor), 피치 센서(pitch sensor) 등을 포함할 수 있다. The sensing unit 120 may sense the state of the vehicle. The sensing unit 120 includes a posture sensor, a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight detection sensor, a heading sensor, a yaw sensor, a gyro sensor, Position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, It may include a brake pedal position sensor or the like. The posture sensor may include a yaw sensor, a roll sensor, a pitch sensor, and the like.
센싱부(120)는 차량 자세 정보, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등을 실시간 감지하여 센싱 신호를 발생할 수 있다. The sensing unit 120 includes vehicle attitude information, vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, and battery information. , Fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illumination, pressure applied to the accelerator pedal, pressure applied to the brake pedal, etc. Can occur.
센싱부(120)는 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS) 등을 더 포함할 수 있다. The sensing unit 120 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), a throttle position sensor (TPS), It may further include a TDC sensor, a crank angle sensor (CAS), and the like.
인터페이스부(130)는 차량(100)에 연결되는 다양한 종류의 외부 기기와의 인터페이스를 제공한다. 예를 들면, 인터페이스부(130)는 이동 단말기와 연결 가능한 포트를 포함하여 이동 단말기와 데이터를 교환할 수 있다.The interface unit 130 provides an interface with various types of external devices connected to the vehicle 100. For example, the interface unit 130 may exchange data with a mobile terminal including a port connectable with the mobile terminal.
인터페이스부(130)는 이동 단말기에 전기 에너지를 공급할 수 있다. 이동 단말기가 인터페이스부(130)에 전기적으로 연결되면, 제어부(170)의 제어에 따라, 인터페이스부(130)는 전원 공급부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다. The interface unit 130 may supply electric energy to the mobile terminal. When the mobile terminal is electrically connected to the interface unit 130, under the control of the control unit 170, the interface unit 130 may provide electric energy supplied from the power supply unit 190 to the mobile terminal.
메모리(140)는 제어부(170)에 연결된다. 메모리(140)는 차량의 구성 요소들 각각의 구동에 필요한 데이터, 사용자 입력 데이터, 외부 디바이스로부터 수신된 정보 데이터 등을 저장할 수 있다. 메모리(140)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는 ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등으로 구현될 수 있다.The memory 140 is connected to the control unit 170. The memory 140 may store data necessary for driving each of the components of the vehicle, user input data, information data received from an external device, and the like. The memory 140 may store various data for the overall operation of the vehicle 100, such as a program for processing or controlling the controller 170. The memory 140 may be implemented as a ROM, RAM, EPROM, flash drive, hard drive, or the like.
메모리(140)는 제어부(170)와 일체형으로 구현되거나, 제어부(170)의 하위 구성 요소로 구현될 수 있다. The memory 140 may be implemented integrally with the control unit 170 or may be implemented as a sub-element of the control unit 170.
제어부(170)는 차량(100) 내의 구성 요소들 각각의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Control Unit)를 포함할 수 있다. 제어부(170)는 오브젝트 검출 장치(300) 및 통신 장치(400) 중 적어도 하나를 통하여 획득되는 정보에 기초하여 차량(100)을 제어할 수 있다. 이에 따라, 차량(100)은 제어부(170)의 제어 하에 자율 주행할 수 있다. The controller 170 may control the overall operation of each of the components in the vehicle 100. The control unit 170 may include an Electronic Control Unit (ECU). The control unit 170 may control the vehicle 100 based on information acquired through at least one of the object detection device 300 and the communication device 400. Accordingly, the vehicle 100 may autonomously drive under the control of the controller 170.
프로세서 및 제어부(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 등으로 구현될 수 있다. The processor and control unit 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors. , Controllers (controllers), micro-controllers (micro-controllers), may be implemented as microprocessors (microprocessors).
전원 공급부(190)는 차량 내부의 배터리 로부터 전원을 공급받을 수 있다. 전원 공급부(190)는 제어부(170)의 제어 하에 각 구성 요소들의 동작에 필요한 전원을 구성 요소들에 공급할 수 있다.The power supply unit 190 may receive power from a battery inside the vehicle. The power supply unit 190 may supply power required for operation of each component to the components under the control of the controller 170.
도 8은 본 발명의 실시예에 따른 차량을 이용한 차량을 이용한 배달 서비스 시스템을 보여 주는 도면이다. 도 9 및 도 10은 본 발명의 실시예에 따른 차량을 이용한 배달 서비스 방법의 제어 수순을 보여 주는 도면들이다. 8 is a view showing a delivery service system using a vehicle using a vehicle according to an embodiment of the present invention. 9 and 10 are diagrams showing a control procedure of a delivery service method using a vehicle according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 배달 서비스 시스템은 배달 서비스 서버(4000)와 차량(100)을 포함한다. Referring to FIG. 8, the delivery service system of the present invention includes a delivery service server 4000 and a vehicle 100.
사용자(3000)는 차량 탑승 여부와 관계 없이 온/오프 라인에서 배달 서비스 제공사에 배달 서비스를 요청할 수 있다. 예를 들어, 사용자(3000)는 통신망에 연결된 이동 단말기 또는 컴퓨터를 통해 배달 대상 객체를 주문하여 자신의 차량(100)에 배달 대상 객체를 받을 수 있다. 사용자(3000)는 배달 주문시 자신의 차량(100)이 주차된 주차 위치를 배달 위치로 지정할 수 있고, 그 차량(100) 내의 특정 위치를 지정할 수 있다. The user 3000 may request a delivery service from a delivery service provider on/offline regardless of whether or not a vehicle is boarded. For example, the user 3000 may receive an object to be delivered to his vehicle 100 by ordering an object to be delivered through a mobile terminal or a computer connected to a communication network. When ordering for delivery, the user 3000 may designate a parking position in which his vehicle 100 is parked as a delivery position, and may designate a specific position within the vehicle 100.
배달 대상 객체는 차량의 내부 공간이나 트렁크에 수용 가능한 크기이고 배달 가능한 중량이라면 종류, 재질 등에 제한을 받지 않는다. 배달 대상 객체는 적정 온도에서 최상의 품질을 유지하는 물품 예를 들어, 음식물일 수 있다. The object to be delivered is a size that can be accommodated in an interior space or trunk of a vehicle and is not limited in type or material as long as it is a deliverable weight. The object to be delivered may be an article, such as food, that maintains the best quality at an appropriate temperature.
배달 서비스 서버(4000)는 배달 서비스 제공사에 의해 운영되며 사용자(3000)로부터 배달 서비스 요청을 받으면 배달 주문 정보를 배달원의 이동 단말기(4100)로 전송한다. The delivery service server 4000 is operated by a delivery service provider and, upon receiving a delivery service request from the user 3000, transmits delivery order information to the delivery person's mobile terminal 4100.
배달 주문 정보는 사용자(3000)가 주문한 배달 대상 객체 정보, 배달 예정 시간, 배달 위치 정보 등을 포함한다. 배달 주문 정보는 배달 대상 객체가 음식물이라면 그 음식물의 적정 온도에 관한 정보를 더 포함할 수 있다. 배달 위치는 사용자(3000)의 차량(100)의 주차 위치일 수 있다.The delivery order information includes information on a delivery object object ordered by the user 3000, a scheduled delivery time, and delivery location information. If the object to be delivered is food, the delivery order information may further include information on an appropriate temperature of the food. The delivery location may be a parking location of the vehicle 100 of the user 3000.
배달 서비스 서버(4000)는 배달 주문 정보와 함께 일회성 인증 정보를 차량(100)으로 전송할 수 있다. The delivery service server 4000 may transmit one-time authentication information to the vehicle 100 together with delivery order information.
배달원은 배달 주문 정보를 접수 받으면, 사용자가 지정한 배달 위치로 배달 대상 객체를 배달 위치로 배달할 수 있다. 배달 주문 정보에 사용자가 지정한 차량 내의 특정 위치가 추가되어 있다면, 배달원은 차량(100)의 도어나 트렁크를 열어 사용자가 지정한 차량 내의 특정 위치에 배달 대상 객체를 안전하게 놓은 후, 이동 단말기(4100)를 이용하여 배달 서비스 서버(4000)에 배달 완료 보고를 전송한다. Upon receiving the delivery order information, the delivery person may deliver the object to be delivered to the delivery location designated by the user to the delivery location. If a specific location in the vehicle designated by the user is added to the delivery order information, the delivery person opens the door or trunk of the vehicle 100 and safely places the object to be delivered at a specific location in the vehicle designated by the user, and then operates the mobile terminal 4100. The delivery completion report is transmitted to the delivery service server 4000 by using.
차량(100)의 제어부(170)는 배달 서비스 서버(4000)로부터 수신된 인증 정보를 바탕으로 배달원을 확인하여 배달원이 접근하면, 배달원에게 윈도우의 디스플레이에 배달 위치임을 표시하거나 램프 점등 또는 경보음을 출력하여 배달 위치임을 알려 줄 수 있다. 차량(100)의 제어부(170)는 인증 완료후 배달원이 차량 내의 특정 위치로 이동할 수 있도록 도어 잠금을 해제한다. 차량(100)의 제어부(170)는 통신 장치(400)를 통해 사용자(3000)에게 배달 완료 보고를 전송할 수 있다. 차량(100)의 제어부(170)는 카메라(220)를 제어하여 배달 완료 보고와 함께 특정 위치에 놓여진 배달 대상 객체를 촬영하도록 하여 얻어진 영상을 사용자(3000)에게 전송할 수 있다. The control unit 170 of the vehicle 100 checks the delivery person based on the authentication information received from the delivery service server 4000, and when the delivery person approaches, indicates to the delivery person that the delivery location is on the display of the window or turns on a lamp or an alarm sound. You can print it out and tell it the delivery location. The control unit 170 of the vehicle 100 unlocks the door so that the delivery person can move to a specific position in the vehicle after authentication is completed. The control unit 170 of the vehicle 100 may transmit a delivery completion report to the user 3000 through the communication device 400. The controller 170 of the vehicle 100 may control the camera 220 to transmit an image obtained by photographing a delivery target object placed at a specific location along with a delivery completion report to the user 3000.
배달 서비스 서버(4000)는 배달원의 이동 단말기 위치를 실시간 모니터하여 배달 위치의 차량(100)에 상기 배달원이 접근할 때 차량(100)을 원격 제어 하여 차량(100)이 배달원을 감지하도록 한다. 차량(100)은 배달 서비스 서버(4000)의 제어 하에 오브젝트 검출 장치를 활성화하여 차량(100)으로 접근하는 배달원을 감지할 수 있다. The delivery service server 4000 monitors the location of the delivery person's mobile terminal in real time and remotely controls the vehicle 100 when the delivery person approaches the vehicle 100 at the delivery location so that the vehicle 100 detects the delivery person. The vehicle 100 may detect a delivery person approaching the vehicle 100 by activating the object detection device under the control of the delivery service server 4000.
차량(100)의 제어부(170)는 배달 서비스 서버(4000)로부터 수신된 배달 주문 정보의 적정 온도로 음식물의 적정 보관 온도를 유지하기 위하여 도 17과 같은 차량용 냉장고(800)의 온도를 제어할 수 있다. 차량용 냉장고(800)는 전기적으로 제어되어 온도가 조절될 수 있다. 차량용 냉장고(800)는 차량의 에어컨 또는 차량 내의 특정 위치에 배치된 소형 냉장고 또는 히터일 수 있다. The control unit 170 of the vehicle 100 may control the temperature of the vehicle refrigerator 800 as shown in FIG. 17 in order to maintain an appropriate storage temperature of food at an appropriate temperature of the delivery order information received from the delivery service server 4000. have. The vehicle refrigerator 800 may be electrically controlled to adjust the temperature. The vehicle refrigerator 800 may be an air conditioner of a vehicle or a small refrigerator or heater disposed at a specific location in the vehicle.
도 9 및 도 10을 참조하면, 사용자(3000)가 배달 주문 ①과 함께 배달 서비스를 요청하면(S91), 배달 서비스 서버(4000)는 배달 주문 정보 ②와 일회성 인증 정보 ③를 발생한다(S92 및 S93). 일회성 인증 정보는 차량(100)으로 전송되는 제1 인증 정보와, 배달원의 이동 단말기(4100)로 전송되는 제2 인증 정보를 포함한다. 9 and 10, when a user 3000 requests a delivery service together with a delivery order ① (S91), the delivery service server 4000 generates delivery order information ② and one-time authentication information ③ (S92 and S93). The one-time authentication information includes first authentication information transmitted to the vehicle 100 and second authentication information transmitted to the mobile terminal 4100 of the delivery person.
배달원은 배달 주문 정보를 수신하면, 사용자가 원하는 배달 대상 객체를 배달 위치로 배달한다. 배달원이 배달 위치에 주차된 차량(100)에 접근하면 배달원의 이동 단말기로부터 제2 인증 정보가 차량(100)으로 전송된다. 차량(100)의 제어부(170)는 배달 서비스 서버(4000)로부터 미리 수신되어 메모리에 저장한 제1 인증 정보와, 배달원으로부터 수신된 제2 인증 정보를 비교하여 양자가 일치할 때 인증 성공으로 판단하여 배달원에게 출력 장치(250)를 이용하여 배달 위치임을 배달원에게 알려 준다(S94 내지 S96). Upon receiving the delivery order information, the delivery man delivers the delivery target object desired by the user to the delivery location. When the delivery person approaches the vehicle 100 parked at the delivery location, second authentication information is transmitted from the delivery person's mobile terminal to the vehicle 100. The control unit 170 of the vehicle 100 compares the first authentication information previously received from the delivery service server 4000 and stored in the memory with the second authentication information received from the delivery person, and determines that authentication is successful when both match. Thus, the delivery person is informed that the delivery location is by using the output device 250 (S94 to S96).
차량(100)은 배달 서비스 서버(4000)로부터 수신된 배달 주문 정보에서 차량 내 특정 위치가 포함되어 있다면 도어 잠금을 해제하여 배달원에게 차량 내 공간으로 접근을 허용한다. If the delivery order information received from the delivery service server 4000 includes a specific location in the vehicle, the vehicle 100 unlocks the door and allows the delivery person to access the vehicle space.
배달원은 이동 단말기(4100)를 이용하여 배달 대상 객체를 사용자가 지정한 위치에 놓은 후에 배달 완료 보고를 배달 서비스 서버(4000)에 전송할 수 있다. 차량(100)은 카메라(300)로 촬영된 배달 대상 객체를 촬영하여 배달 완료 상태를 확인하여 배달 완료 보고를 사용자(3000)의 단말기로 전송할 수 있다. 차량(100)은 배달 완료 보고를 배달 서비스 서버(4000)로 전송할 수도 있다(S97). The delivery person may transmit a delivery completion report to the delivery service server 4000 after placing the delivery target object at a location designated by the user using the mobile terminal 4100. The vehicle 100 may photograph a delivery target object photographed by the camera 300 to check the delivery completion state and transmit a delivery completion report to the terminal of the user 3000. The vehicle 100 may transmit a delivery completion report to the delivery service server 4000 (S97).
배달 서비스 서버(4000)은 사용자(300)로부터 배달 서비스 요청 시에 배달 서비스에 대한 결제 내역과 배달 주문 정보를 사용자(3000)의 단말기에 전송할 수 있다. The delivery service server 4000 may transmit payment details and delivery order information for the delivery service to the terminal of the user 3000 when a delivery service is requested from the user 300.
사용자(3000)가 배달 주문시 배달 위치를 차량 내의 특정 위치로 지정할 수 있다. 차량(3000)의 제어부(170)는 차량 내부 공간의 촬영 이미지를 분석한 결과를 바탕으로 차량(100)의 내부 공간 상태를 판단하여 차량 내의 배달 위치를 선택할 수 있다. 제어부(170)는 자체 판단 하에 선택한 배달 위치를 출력 장치(250)를 이용하여 배달원에게 안내할 수 있다. When the user 3000 makes a delivery order, the delivery location may be designated as a specific location in the vehicle. The controller 170 of the vehicle 3000 may determine a state of the interior space of the vehicle 100 based on a result of analyzing the captured image of the vehicle interior space and select a delivery location within the vehicle. The control unit 170 may guide the delivery location selected under its own determination to the delivery person using the output device 250.
차량(100)의 제어부(170)는 사용자(3000)가 차량(100)에 탑승한 경우, 사용자(3000) 쪽으로 배달원을 안내하거나 사용자(3000)와 가까운 빈 시트로 안내할 수 있다. When the user 3000 boards the vehicle 100, the control unit 170 of the vehicle 100 may guide the delivery person toward the user 3000 or to a blank sheet close to the user 3000.
차량(100)의 제어부(170)는 인증 성공 후 도어 잠금을 해제할 때 혹은, 배달 대상 객체가 차량 내의 특정 위치에 놓여진 상태를 인식할 때 배달 완료 상태로 판단할 수 있다. The control unit 170 of the vehicle 100 may determine the delivery completion state when the door lock is released after successful authentication or when recognizing a state in which the object to be delivered is placed in a specific position in the vehicle.
차량(100)의 제어부(170)는 오브젝트 검출 장치(300)의 카메라 및 센서를 이용하여 배달원을 감지하고, 인증 성공 후에 배달원을 확인할 수 있다. 차량(100)은 사용자가 지정하거나 자체 판단한 특정 위치와 가까운 윈도우의 디스플레이에 배달 위치를 표시하여 배달원을 차량 내의 특정 위치로 안내할 수 있다. The control unit 170 of the vehicle 100 may detect the delivery person using the camera and sensor of the object detection device 300 and confirm the delivery person after successful authentication. The vehicle 100 may guide the delivery person to a specific location in the vehicle by displaying the delivery location on a display of a window close to a specific location designated by the user or determined by the user.
차량(100)의 제어부(170)는 배달 완료 상태를 확인하면 배달 대상 객체가 놓여진 차량의 내부 영상을 사용자(3000)의 단말기로 전송할 수 있다. 차량(100)은 배달 완료후 미리 설정된 소정의 시간까지 운전자가 탑승하지 않으면 배달 완료후 경과 시간(보관 경과 시간)을 사용자(3000)의 단말기로 전송할 수 있다. The control unit 170 of the vehicle 100 may transmit an internal image of the vehicle on which the object to be delivered is placed to the terminal of the user 3000 when confirming the delivery completion state. The vehicle 100 may transmit the elapsed time after delivery (elapsed storage time) to the terminal of the user 3000 if the driver does not board the vehicle by a predetermined time after completion of delivery.
도 11은 적정 온도가 필요한 배달 대상 객체의 차량 내 보관 온도 제어 방법을 보여 주는 흐름도이다. 11 is a flowchart illustrating a method of controlling storage temperature of an object to be delivered in a vehicle requiring an appropriate temperature.
도 11을 참조하면, 차량(100)의 제어부(170)는 배달 주문 정보가 수신되면 배달 대상 객체의 적정 온도가 필요한지 판단한다(S111 및 S112). Referring to FIG. 11, when delivery order information is received, the control unit 170 of the vehicle 100 determines whether an appropriate temperature of the object to be delivered is required (S111 and S112).
제어부(170)는 적정 온도가 필요한 배달 대상 객체 예를 들면, 음식물의 적정 보관 온도를 유지하기 위하여 배달 예정 시간에 도달하기 전에 차량용 냉장고(800)를 구동하여 냉장고(800)의 온도를 음식물의 적정 보관 온도로 제어한다(S113). The control unit 170 drives the vehicle refrigerator 800 before reaching the scheduled delivery time in order to maintain an appropriate storage temperature for the object to be delivered, for example, food that needs an appropriate temperature to adjust the temperature of the refrigerator 800 It is controlled by the storage temperature (S113).
제어부(170)는 차량(100)에 접근하는 배달원을 감지하고 인증 성공 후 도어 잠금을 해제하고 배달원을 차량용 냉장고(800)로 안내할 수 있다. The controller 170 may detect a delivery person approaching the vehicle 100, unlock a door after successful authentication, and guide the delivery person to the vehicle refrigerator 800.
배달원은 차량(100)의 안내를 받아 차량용 냉장고(800)에 음식물을 넣고 배달 완료 보고를 배달 서비스 서버(4000)에 전송한다. 차량(100)의 제어부(170)는 배달 완료 보고를 사용자(3000)의 단말기로 전송한다(S114 및 S115).The delivery person receives the guidance of the vehicle 100 and puts food in the vehicle refrigerator 800 and transmits a delivery completion report to the delivery service server 4000. The control unit 170 of the vehicle 100 transmits a delivery completion report to the terminal of the user 3000 (S114 and S115).
사용자(3000)는 도 12에 도시된 바와 같이 자신의 단말기를 이용하여 배달 주문시에 차량 내의 특정 위치를 배달 위치로 지정할 수 있다. As shown in FIG. 12, the user 3000 may designate a specific location in the vehicle as the delivery location when ordering for delivery using his terminal.
차량(100)의 제어부(170)는 오브젝트 검출 장치(300) 또는 통신 장치(400)를 통해 수신된 인증 정보를 도 13 및 도 14에 도시된 바와 같이 차량으로 접근하는 배달원을 감지하여 인증 성공후에 배달 위치로 지정된 차량 내 특정 위치와 가까운 윈도우의 디스플레이(251h)에 배달 위치를 표시할 수 있다. 제어부(170)는 음향 출력부(252)를 통해 경보음을 출력하여 배달원에게 이 차량(100)이 배달 위치임을 알려줄 수 있다. The control unit 170 of the vehicle 100 detects the authentication information received through the object detection device 300 or the communication device 400 as shown in FIGS. 13 and 14 and detects a delivery person approaching the vehicle, and after successful authentication. The delivery location may be displayed on the display 251h of a window close to a specific location in the vehicle designated as the delivery location. The control unit 170 may output an alarm sound through the sound output unit 252 to inform the delivery person that the vehicle 100 is the delivery location.
제어부(170)는 인증 성공후 도어 잠금을 해제하여 배달원이 차량 내부 공간으로 접근하는 것을 허용한다. 제어부(170)는 배달 완료후 도어가 닫히면 도어를 잠근다. The controller 170 allows the delivery person to access the vehicle interior space by unlocking the door after successful authentication. The control unit 170 locks the door when the door is closed after delivery is completed.
배달원은 이동 단말기(4100)를 이용하여 배달 서비스 서버(4000)에 배달 완료 보고를 전송한다. 차량(100)은 사용자에게 배달 완료 보고를 전송한다. 이 때 배달 완료 상황을 보여 주는 차량 내부 공간의 영상을 사용자(3000)에게 전송할 수 있다. The delivery person transmits a delivery completion report to the delivery service server 4000 using the mobile terminal 4100. The vehicle 100 transmits a delivery completion report to the user. In this case, an image of the vehicle interior space showing the delivery completion status may be transmitted to the user 3000.
제어부(170)는 도 14에 도시된 바와 같이 카메라(220, 310)를 통해 배달 상황을 촬영하고 이렇게 얻어진 영상을 사용자에게 실시간 전송하여 사용자에게 배달 상황을 실시간으로 알려 줄 수 있다. As illustrated in FIG. 14, the controller 170 may capture a delivery situation through the cameras 220 and 310 and transmit the obtained image in real time to the user to inform the user of the delivery situation in real time.
도 15는 배달 주문 정보와 배달원 인증 성공후 차량의 도어 잠금 해제를 보여 주는 도면이다. 도 16은 배달 완료 보고와 함께 차량 내 영상을 사용자에게 제공하는 예를 보여 주는 도면이다. 15 is a diagram showing delivery order information and unlocking a door of a vehicle after successful delivery person authentication. 16 is a diagram illustrating an example of providing an in-vehicle image to a user together with a delivery completion report.
도 17은 음식물이 보관 중인 차량용 냉장고(800)와 배달 완료를 알려 주는 디스플레이의 일 예를 보여 주는 도면이다. 17 is a diagram illustrating an example of a vehicle refrigerator 800 in which food is stored and a display indicating completion of delivery.
도 17을 참조하면, 차량용 냉장고(800)는 차량(100) 내의 임의의 위치에 배치될 수 있다. 도 17의 예는 인스투루먼트 패널(instrument panel)의 조수석 측에 매립된 냉장고(800)를 예시하였으나 이에 한정되지 않는다. Referring to FIG. 17, the vehicle refrigerator 800 may be disposed at any position in the vehicle 100. The example of FIG. 17 illustrates the refrigerator 800 embedded in the passenger seat side of the instrument panel, but is not limited thereto.
냉장고(800)의 전면 커버는 투명 디스플레이, 미러 디스플레이 등의 디스플레이가 배치될 수 있다. 냉장고(800)의 전면 커버에 투명 디스플레이가 적용되면 투명 디스플레이를 통해 냉장고(800)의 내부가 보이고 사용자에게 음식물 보관 여부, 보관 시간 등을 알려 주거나 기타 유용한 정보를 알려 줄 수 있다. A display such as a transparent display or a mirror display may be disposed on the front cover of the refrigerator 800. When a transparent display is applied to the front cover of the refrigerator 800, the inside of the refrigerator 800 can be seen through the transparent display, and the user may be informed of whether food is stored, storage time, and other useful information.
냉장고(800)에 배달 받은 음식물이 보관 중인 상태에서, 사용자(300)가 탑승하면, 제어부(170)는 냉장고(800)의 디스플레이 또는 그 근방의 디스플레이(251b, 251c, 251e)에 배달 완료 상태, 음식물 보관 중임일 알려 주는 메시지를 표시할 수 있다. 제어부(170)는 디스플레이와 함께 스피커를 통해 상기 메시지를 음성 출력할 수도 있다. When the user 300 boards while the food delivered to the refrigerator 800 is being stored, the controller 170 displays a delivery completion state on the display of the refrigerator 800 or on the displays 251b, 251c, and 251e in the vicinity thereof, You can display a message indicating that food is being stored. The controller 170 may output the message through a speaker together with a display.
배달 완료 후에 사용자(3000)가 차량에 탑승하면, 제어부(170)는 도 18에 도시된 바와 같이 출력 장치(250)를 이용하여 사용자(3000)에게 배달 결과를 알려 줄 수 있다. 배달 결과는 배달 완료 시간, 배달 위치 정보를 포함할 수 있다. When the user 3000 boards the vehicle after delivery is complete, the control unit 170 may inform the user 3000 of the delivery result by using the output device 250 as shown in FIG. 18. The delivery result may include delivery completion time and delivery location information.
배달 완료후 사용자가 장시간 차량에 탑승하지 않을 때 차량(100)의 제어부(170)는 도 19와 같이 배달 대상 객체의 보관 경과 시간을 사용자에게 알려 줄 수 있다. When the user does not board the vehicle for a long time after delivery is completed, the control unit 170 of the vehicle 100 may inform the user of the elapsed storage time of the object to be delivered as shown in FIG. 19.
본 발명의 실시예에 따른 차량을 이용한 차량을 이용한 배달 서비스 방법 및 시스템은 아래와 같이 설명될 수 있다.The delivery service method and system using a vehicle using a vehicle according to an embodiment of the present invention may be described as follows.
본 발명의 제1 실시예에 따른 차량 제어 방법은 외부 서버(4000)로부터 수신 받아 미리 저장한 제1 인증 정보를 배달원의 단말기(4100)로부터 수신된 제2 인증 정보와 비교하여 사용자 인증 처리를 하여 인증 성공 후에 도어 잠금을 해제하는 단계와, 상기 배달원으로부터 받은 배달 대상 객체가 상기 차량 내에 위치함을 인식하여 사용자의 단말기로 배달 완료 보고를 전송하는 단계를 포함한다.The vehicle control method according to the first embodiment of the present invention compares the first authentication information received from the external server 4000 and stored in advance with the second authentication information received from the terminal 4100 of the delivery person, and performs user authentication processing. And releasing the door lock after successful authentication, and transmitting a delivery completion report to the user's terminal by recognizing that the delivery target object received from the delivery person is located in the vehicle.
상기 제1 및 제2 인증 정보가 외부 서버로부터 발생된 일회성 인증 정보일 수 있다.The first and second authentication information may be one-time authentication information generated from an external server.
상기 차량 제어 방법은 상기 외부 서버(4000)로부터 수신된 배달 예정 시간에 앞서 차량(100) 내에 비치된 냉장고(800)를 구동하여 상기 냉장고(800)의 온도를 상기 배당 대상 객체(3100)의 적정 보관 온도로 제어하는 단계를 더 포함할 수 있다.In the vehicle control method, the refrigerator 800 provided in the vehicle 100 is driven prior to the scheduled delivery time received from the external server 4000 to adjust the temperature of the refrigerator 800 to the appropriate allocation target object 3100. It may further include controlling the storage temperature.
상기 차량 제어 방법은 카메라를 통해 얻어진 영상을 분석한 결과를 바탕으로 상기 차량의 내부 공간 상태를 판단하여 상기 차량 내의 배달 위치를 선택하는 단계를 더 포함할 수 있다.The vehicle control method may further include determining a state of an interior space of the vehicle based on a result of analyzing an image obtained through a camera, and selecting a delivery location in the vehicle.
상기 차량 제어 방법은 외부 카메라 또는 센서를 이용하여 상기 차량으로 접근하는 배달원을 감지하는 단계와, 상기 차량이 상기 인증 성공후에 상기 차량 내의 배달 위치와 가까운 윈도우에 배달 위치를 표시하는 단계를 더 포함할 수 있다.The vehicle control method further includes detecting a delivery person approaching the vehicle using an external camera or a sensor, and displaying the delivery location in a window close to the delivery location in the vehicle after the vehicle is successfully authenticated. I can.
상기 차량 제어 방법은 상기 인증 성공후 상기 차량의 도어가 열릴 때 또는 상기 배달 대상 객체가 상기 차량의 내부에 위치하는 상태를 인식할 때 배달 완료로 판단하는 단계와, 상기 배달 완료 후에 사용자의 단말기로 배달 완료 보고를 전송하는 단계를 더 포함할 수 있다.The vehicle control method includes the steps of determining that delivery is complete when the door of the vehicle is opened after the authentication is successful, or when the delivery target object is located inside the vehicle, and the delivery is completed to the user's terminal. It may further include transmitting a delivery completion report.
상기 차량 제어 방법은 상기 배달 완료 보고와 함께 상기 차량의 내부 영상을 상기 사용자의 단말기로 전송하는 단계를 더 포함할 수 있다.The vehicle control method may further include transmitting an internal image of the vehicle to the user's terminal together with the delivery completion report.
상기 차량 제어 방법은 상기 배달 완료 보고 후에 상기 사용자가 탑승할 때 배달 결과를 출력하는 단계를 더 포함할 수 있다.The vehicle control method may further include outputting a delivery result when the user boards after the delivery completion report.
상기 차량 제어 방법은 상기 배달 완료 보고후 미리 설정된 시간이 경과할 때까지 상기 사용자가 탑승하지 않으면 상기 배달 대상 객체의 보관 경과 시간을 상기 사용자의 단말기로 전송하는 단계를 더 포함할 수 있다.The vehicle control method may further include transmitting an elapsed storage time of the delivery target object to the user's terminal if the user does not board until a preset time elapses after the delivery completion report.
본 발명의 제2 실시예에 따른 차량 제어 장치는, 무선 통신부; 상기 무선 통신부를 통해 외부 서버로부터 수신된 제1 인증 정보를 저장하는 저장부; 및 상기 무선 통신부를 통해 배달원의 단말기로부터 제2 인증 정보를 수신한 경우, 상기 제1 인증 정보와 상기 제2 인증 정보를 비교하여 사용자 인증 과정을 수행하고, 인증 성공 후 도어 잠금을 해제하도록 하는 제어부;를 포함하고, 상기 제어부는 차량의 내부에 구비된 카메라로부터 획득한 상기 차량의 내부 영상을 분석하여 상기 배달원으로부터 배달된 배달 대상 객체를 인식한 경우, 상기 무선 통신부를 통해 사용자의 단말기로 배달 완료 보고를 전송한다.A vehicle control apparatus according to a second embodiment of the present invention includes: a wireless communication unit; A storage unit for storing first authentication information received from an external server through the wireless communication unit; And a control unit configured to perform a user authentication process by comparing the first authentication information and the second authentication information when receiving the second authentication information from the terminal of the delivery person through the wireless communication unit, and unlocking the door after successful authentication. Including;, wherein the control unit analyzes the internal image of the vehicle obtained from the camera provided in the vehicle, and when recognizing the delivery target object delivered from the delivery person, delivery is completed to the user's terminal through the wireless communication unit Send the report.
상기 제1 및 제2 인증 정보가 외부 서버로부터 발생된 일회성 인증 정보일 수 있다.The first and second authentication information may be one-time authentication information generated from an external server.
상기 차량의 내부에 비치된 냉장고;를 더 구비하고, 상기 제어부는, 상기 외부 서버로부터 수신된 배달 예정 시간에 앞서 상기 배당 대상 객체의 적정 보관 온도로 상기 냉장고를 구동하도록 제어할 수 있다.A refrigerator provided inside the vehicle may be further provided, and the controller may control to drive the refrigerator to an appropriate storage temperature of the object to be allocated prior to a delivery scheduled time received from the external server.
상기 제어부는, 상기 카메라를 통해 획득한 영상을 분석한 결과에 기초하여 상기 차량의 내부 공간 상태를 판단하여 상기 차량 내의 배달 위치를 선택할 수 있다.The controller may determine a state of the interior space of the vehicle based on a result of analyzing the image acquired through the camera and select a delivery location within the vehicle.
상기 제어부는, 외부 카메라 또는 센서를 이용하여 상기 차량으로 접근하는 상기 배달원을 감지하고, 상기 인증 성공 후에 상기 차량 내의 배달 위치와 가까운 윈도우에 배달 위치를 표시할 수 있다.The controller may detect the delivery person approaching the vehicle using an external camera or sensor, and display the delivery location on a window close to the delivery location in the vehicle after the authentication is successful.
상기 제어부는, 상기 인증 성공 후 상기 차량의 도어가 열릴 때 또는 상기 배달 대상 객체가 상기 차량의 내부에 위치하는 상태를 인식할 때 배달 완료로 판단하고, 상기 배달 완료 후에 사용자의 단말기로 배달 완료 보고를 전송할 수 있다.The control unit determines that delivery is complete when the door of the vehicle is opened after the authentication is successful or when the delivery target object is located inside the vehicle, and reports delivery completion to the user's terminal after the delivery is completed. Can be transmitted.
상기 제어부는, 상기 무선 통신부를 통해 상기 배달 완료 보고와 함께 상기 차량의 내부 영상을 상기 사용자의 단말기로 전송할 수 있다.The control unit may transmit an internal image of the vehicle to the user's terminal together with the delivery completion report through the wireless communication unit.
상기 제어부는, 출력 장치를 이용하여 상기 배달 완료 보고 후에 상기 사용자가 탑승할 때 배달 결과를 출력할 수 있다.The control unit may output a delivery result when the user boards after the delivery completion report using an output device.
상기 제어부는, 상기 배달 완료 보고 후 미리 설정된 시간이 경과할 때까지 상기 사용자의 탑승을 인지하지 못하는 경우, 상기 무선 통신부를 통해 상기 배달 대상 객체의 보관 경과 시간을 상기 사용자의 단말기로 전송할 수 있다.When the controller does not recognize the boarding of the user until a preset time elapses after the delivery completion report, the control unit may transmit the elapsed storage time of the delivery target object to the user's terminal through the wireless communication unit.
본 발명의 제3 실시예에 따른, 배달 서비스 방법은 배달 서비스 서버가 사용자로부터의 배달 서비스 요청을 수신하는 단계; 상기 배달 서비스 서버로부터 발생된 제1 인증 정보를 차량으로 전송하고, 상기 배달 서비스 서버로부터 발생된 제2 인증 정보를 배달원의 단말기로 전송하는 단계; 상기 제1 및 제2 인증 정보의 비교 결과를 바탕으로 인정 성공으로 판단될 때 상기 차량의 도어 잠금을 해제하는 단계; 및 상기 차량이 상기 배달 서비스 요청시 주문된 배달 대상 객체가 상기 차량 내에 위치함을 인식한 후에 상기 사용자의 단말기로 배달 완료 보고를 전송하는 단계를 포함한다.According to a third embodiment of the present invention, a delivery service method includes: receiving, by a delivery service server, a delivery service request from a user; Transmitting first authentication information generated from the delivery service server to a vehicle, and transmitting second authentication information generated from the delivery service server to a terminal of a delivery person; Releasing a door lock of the vehicle when it is determined that authentication is successful based on a comparison result of the first and second authentication information; And transmitting a delivery completion report to the user's terminal after the vehicle recognizes that the delivery target object ordered is located in the vehicle when the delivery service is requested.
상기 제1 및 제2 인증 정보가 일회성 인증 정보일 수 있다.The first and second authentication information may be one-time authentication information.
상기 배달 서비스 방법은 상기 배달 서비스 서버가 상기 배달 대상 객체에 관한 정보, 배달 예정 시간 정보, 상기 차량 내의 배달 위치 정보를 포함한 배달 주문 정보를 발생하는 단계; 및 상기 배상 주문 정보를 상기 배달원의 단말기와 상기 차량에 전송하는 단계를 더 포함할 수 있다.The delivery service method includes: generating, by the delivery service server, delivery order information including information on the delivery target object, delivery scheduled time information, and delivery location information in the vehicle; And transmitting the compensation order information to the terminal of the delivery person and the vehicle.
상기 배달 주문 정보는 상기 배달 객체 정보의 적정 온도에 관한 정보를 더 포함할 수 있다.The delivery order information may further include information on an appropriate temperature of the delivery object information.
상기 배달 서비스 방법은 상기 차량이 상기 배달 예정 시간에 앞서 차량 내 냉장고를 구동하여 상기 냉장고의 온도를 상기 배당 대상 객체의 적정 보관 온도로 제어하는 단계를 더 포함할 수 있다. 여기서, 상기 차량 내의 배달 위치가 사용자에 의해 선택 가능하다.The delivery service method may further include controlling a temperature of the refrigerator to an appropriate storage temperature of the object to be allocated by driving, by the vehicle, a refrigerator in the vehicle prior to the scheduled delivery time. Here, the delivery location in the vehicle can be selected by the user.
상기 배달 서비스 방법은 상기 차량이 상기 차량의 내부 공간 상태를 판단하여 상기 차량 내의 배달 위치를 선택하는 단계를 더 포함할 수 있다.The delivery service method may further include the step of selecting, by the vehicle, a delivery location in the vehicle by determining the state of the interior space of the vehicle.
상기 배달 서비스 방법은 상기 차량이 상기 인증 성공후 상기 차량의 도어가 열릴 때 또는 상기 배달 대상 객체가 상기 차량의 내부에 위치하는 상태를 인식할 때 배달 완료로 판단하는 단계; 및 상기 차량이 상기 배달 완료 후에 사용자의 단말기로 배달 완료 보고를 전송하는 단계를 더 포함할 수 있다.The delivery service method includes the steps of determining that delivery is complete when the vehicle door is opened after the authentication is successful or when the delivery target object recognizes a state in which the delivery object is located inside the vehicle; And transmitting, by the vehicle, a delivery completion report to the user's terminal after completion of the delivery.
상기 배달 서비스 방법은 상기 차량이 외부 카메라 또는 센서를 이용하여 상기 차량으로 접근하는 배달원을 감지하는 단계; 및 상기 차량이 상기 인증 성공후에 상기 차량 내의 배달 위치와 가까운 윈도우에 배달 위치를 표시하는 단계를 더 포함할 수 있다.The delivery service method includes the steps of detecting a delivery person approaching the vehicle by the vehicle using an external camera or sensor; And displaying, by the vehicle, the delivery location on a window close to the delivery location in the vehicle after the authentication is successful.
상기 배달 서비스 방법은 상기 배달 서비스 서버가 상기 배달원의 단말기 위치를 실시간 모니터하여 상기 배달원이 차량에 접근할 때 상기 차량으로 하여금 상기 차량으로 접근하는 배달원을 감지하도록 상기 차량을 원격 제어하는 단계를 더 포함할 수 있다.The delivery service method further includes the step of remotely controlling the vehicle so that the delivery service server monitors the location of the terminal of the delivery person in real time so that when the delivery person approaches the vehicle, the vehicle detects a delivery person approaching the vehicle. can do.
상기 배달 서비스 방법은 상기 차량이 상기 배달 완료 보고와 함께 상기 차량의 내부 영상을 상기 사용자의 단말기로 전송하는 단계를 더 포함할 수 있다.The delivery service method may further include transmitting, by the vehicle, an internal image of the vehicle to the user's terminal together with the delivery completion report.
상기 배달 서비스 방법은 상기 차량이 상기 배달 완료 보고 후에 상기 사용자가 탑승할 때 배달 결과를 출력하는 단계를 더 포함할 수 있다.The delivery service method may further include outputting a delivery result when the user boards the vehicle after the delivery completion report.
상기 배달 서비스 방법은 상기 차량이 상기 배달 완료 보고후 미리 설정된 시간이 경과할 때까지 상기 사용자가 탑승하지 않으면 상기 배달 대상 객체의 보관 경과 시간을 상기 사용자의 단말기로 전송하는 단계를 더 포함할 수 있다. The delivery service method may further include transmitting the elapsed storage time of the delivery target object to the user's terminal if the user does not board until a preset time elapses after the delivery completion report. .
본 발명의 제4 실시예에 따른 배달 서비스 시스템은 사용자(3000)로부터의 배달 서비스 요청을 수신하면, 제1 인증 정보를 차량으로 전송하고, 상기 배달 서비스 서버로부터 발생된 제2 인증 정보를 배달원의 단말기로 전송하는 배달 서비스 서버(4000); 및 상기 제1 및 제2 인증 정보의 비교 결과를 바탕으로 인정 성공으로 판단될 때 상기 차량의 도어 잠금을 해제하는 차량(100)을 포함한다. 상기 차량(100)이 상기 배달 서비스 요청시 주문된 배달 대상 객체(3100)가 상기 차량(100) 내에 위치함을 인식한 후에 상기 사용자(3000)의 단말기로 배달 완료 보고를 전송한다. The delivery service system according to the fourth embodiment of the present invention transmits the first authentication information to the vehicle when receiving a delivery service request from the user 3000, and transmits the second authentication information generated from the delivery service server to the delivery person. A delivery service server 4000 for transmitting to the terminal; And a vehicle 100 that unlocks a door of the vehicle when it is determined that the authentication is successful based on a comparison result of the first and second authentication information. When the vehicle 100 requests the delivery service, after recognizing that the ordered delivery object 3100 is located in the vehicle 100, a delivery completion report is transmitted to the terminal of the user 3000.
상기 제4 실시예에 따른 배달 서비스 시스템에서, 상기 제1 및 제2 인증 정보가 일회성 인증 정보일 수 있다.In the delivery service system according to the fourth embodiment, the first and second authentication information may be one-time authentication information.
상기 배달 서비스 서버는 상기 배달 대상 객체에 관한 정보, 배달 예정 시간 정보, 상기 차량 내의 배달 위치 정보를 포함한 배달 주문 정보를 발생하고, 상기 배상 주문 정보를 상기 배달원의 단말기와 상기 차량에 전송할 수 있다.The delivery service server may generate delivery order information including information on the delivery target object, delivery scheduled time information, and delivery location information in the vehicle, and transmit the compensation order information to the delivery person's terminal and the vehicle.
상기 배달 주문 정보는 상기 배달 객체 정보의 적정 온도에 관한 정보를 포함할 수 있다.The delivery order information may include information on an appropriate temperature of the delivery object information.
상기 차량은 상기 배달 예정 시간에 앞서 차량 내 냉장고를 구동하여 상기 냉장고의 온도를 상기 배달 대상 객체의 적정 보관 온도로 제어할 수 있다.The vehicle may control the temperature of the refrigerator to an appropriate storage temperature of the object to be delivered by driving the refrigerator in the vehicle prior to the delivery scheduled time.
본 발명의 제5 실시예에 따른 배달 서비스를 제공받는 차량 제어 방법은, 서버로부터 배달서비스 요청에 대응하는 배달정보를 수신하는 단계;-상기 배달 서비스 요청은 유저 디바이스를 통해 상기 서버로 전송된 것임, 상기 서버로부터 상기 차량의 도어락 해제를 위한 제1 인증 정보를 수신하는 단계; 상기 서버로부터 수신한 제2 인증 정보를 갖는 배달원의 단말이 상기 차량으로부터 미리 정해진 거리에 근접함을 인식하는 경우, 상기 배달원의 단말로부터 상기 제2 인증 정보를 수신하여, 상기 제1 인증 정보와 제2 인증 정보를 비교하는 단계; 상기 제1 인증 정보와 제2 인증 정보가 일치하는 경우, 상기 도어락을 해제하는 단계; 상기 배달 서비스 요청에 대응하는 배달 제품이 상기 차량 내의 미리 정해진 위치에 위치함을 인식하는 단계; 및 배달 완료 정보를 상기 서버 및 상기 유저 디바이스에 전송하는 단계;를 포함할 수 있다.A vehicle control method receiving a delivery service according to a fifth embodiment of the present invention comprises the steps of receiving delivery information corresponding to a delivery service request from a server;-The delivery service request is transmitted to the server through a user device. Receiving first authentication information for unlocking the door lock of the vehicle from the server; When it is recognized that the terminal of the delivery person having the second authentication information received from the server is close to a predetermined distance from the vehicle, the second authentication information is received from the terminal of the delivery person, and the first authentication information and the 2 comparing authentication information; Releasing the door lock when the first authentication information and the second authentication information match; Recognizing that a delivery product corresponding to the delivery service request is located at a predetermined location in the vehicle; And transmitting the delivery completion information to the server and the user device.
본 발명은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 명세서의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명은 청구 범위의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices that store data that can be read by a computer system. The computer may also include a processor or control unit. The detailed description of the specification should not be construed as restrictive in all respects and should be considered as illustrative. The present invention should be determined by a rational interpretation of the claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
상술한 실시예에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의하여 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Features, structures, effects, and the like described in the above-described embodiments are included in at least one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, and the like illustrated in each embodiment may be combined or modified for other embodiments by a person having ordinary knowledge in the field to which the embodiments belong. Accordingly, contents related to such combinations and modifications should be interpreted as being included in the scope of the present invention.
또한, 이상에서 실시예들을 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예들에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부한 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiments have been described above, these are only examples and do not limit the present invention, and those of ordinary skill in the field to which the present invention pertains are illustrated above within the scope not departing from the essential characteristics of the present embodiment. It will be seen that various modifications and applications that are not available are possible. For example, each component specifically shown in the embodiments can be modified and implemented. And differences related to these modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.

Claims (20)

  1. 외부 서버로부터 수신 받아 미리 저장한 제1 인증 정보를 배달원의 단말기로부터 수신된 제2 인증 정보와 비교하여 사용자 인증 처리를 하여 인증 성공 후에 도어 잠금을 해제하는 단계; 및 Comparing the first authentication information received from the external server and stored in advance with the second authentication information received from the delivery person's terminal to perform user authentication processing to unlock the door after successful authentication; And
    상기 배달원으로부터 받은 배달 대상 객체가 상기 차량 내에 위치함을 인식하여 사용자의 단말기로 배달 완료 보고를 전송하는 단계;Recognizing that the delivery target object received from the delivery person is located in the vehicle and transmitting a delivery completion report to the user's terminal;
    를 포함하는 차량 제어 방법.Vehicle control method comprising a.
  2. 제 1 항에 있어서, The method of claim 1,
    상기 제1 및 제2 인증 정보가 외부 서버로부터 발생된 일회성 인증 정보인 차량 제어 방법.The vehicle control method wherein the first and second authentication information is one-time authentication information generated from an external server.
  3. 제 2 항에 있어서, The method of claim 2,
    상기 외부 서버로부터 수신된 배달 예정 시간에 앞서 차량 내에 비치된 냉장고를 구동하여 상기 냉장고의 온도를 상기 배당 대상 객체의 적정 보관 온도로 제어하는 단계를 더 포함하는 차량 제어 방법.The vehicle control method further comprising controlling a temperature of the refrigerator to an appropriate storage temperature of the object to be allocated by driving a refrigerator provided in the vehicle prior to the delivery scheduled time received from the external server.
  4. 제 1 항에 있어서, The method of claim 1,
    카메라를 이용하여 얻어진 영상을 분석한 결과를 바탕으로 상기 차량의 내부 공간 상태를 판단하여 상기 차량 내의 배달 위치를 선택하는 단계를 더 포함하는 차량 제어 방법.The vehicle control method further comprising the step of selecting a delivery location in the vehicle by determining a state of an interior space of the vehicle based on a result of analyzing the image obtained using a camera.
  5. 제 1 항에 있어서, The method of claim 1,
    외부 카메라 또는 센서를 이용하여 상기 차량으로 접근하는 배달원을 감지하는 단계; 및 Detecting a delivery person approaching the vehicle using an external camera or sensor; And
    상기 차량이 상기 인증 성공후에 상기 차량 내의 배달 위치와 가까운 윈도우에 배달 위치를 표시하는 단계를 더 포함하는 차량 제어 방법.The vehicle control method further comprising the step of displaying the delivery location in a window close to the delivery location in the vehicle after the authentication is successful.
  6. 제 1 항에 있어서, The method of claim 1,
    상기 인증 성공후 상기 차량의 도어가 열릴 때 또는 상기 배달 대상 객체가 상기 차량의 내부에 위치하는 상태를 인식할 때 배달 완료로 판단하는 단계; 및 Determining that delivery is complete when the door of the vehicle is opened after the authentication is successful or when a state in which the delivery target object is located inside the vehicle is recognized; And
    상기 배달 완료 후에 사용자의 단말기로 배달 완료 보고를 전송하는 단계를 더 포함하는 차량 제어 방법.The vehicle control method further comprising the step of transmitting a delivery completion report to the user's terminal after the delivery is completed.
  7. 제 6 항에 있어서, The method of claim 6,
    상기 배달 완료 보고와 함께 상기 차량의 내부 영상을 상기 사용자의 단말기로 전송하는 단계를 더 포함하는 차량 제어 방법.And transmitting the internal image of the vehicle to the user's terminal together with the delivery completion report.
  8. 제 6 항에 있어서, The method of claim 6,
    상기 배달 완료 보고 후에 상기 사용자가 탑승할 때 배달 결과를 출력하는 단계를 더 포함하는 차량 제어 방법.And outputting a delivery result when the user boards after the delivery completion report.
  9. 제 6 항에 있어서, The method of claim 6,
    상기 배달 완료 보고후 미리 설정된 시간이 경과할 때까지 상기 사용자가 탑승하지 않으면 상기 배달 대상 객체의 보관 경과 시간을 상기 사용자의 단말기로 전송하는 단계를 더 포함하는 차량 제어 방법.If the user does not board until a preset time elapses after the delivery completion report, transmitting the elapsed storage time of the delivery object to the user's terminal.
  10. 무선 통신부;Wireless communication unit;
    상기 무선 통신부를 통해 외부 서버로부터 수신된 제1 인증 정보를 저장하는 저장부; 및A storage unit for storing first authentication information received from an external server through the wireless communication unit; And
    상기 무선 통신부를 통해 배달원의 단말기로부터 제2 인증 정보를 수신한 경우, 상기 제1 인증 정보와 상기 제2 인증 정보를 비교하여 사용자 인증 과정을 수행하고, 인증 성공 후 도어 잠금을 해제하도록 하는 제어부;를 포함하고,A control unit configured to perform a user authentication process by comparing the first authentication information with the second authentication information when the second authentication information is received from the terminal of the delivery person through the wireless communication unit, and to unlock the door after successful authentication; Including,
    상기 제어부는 차량의 내부에 구비된 카메라로부터 획득한 상기 차량의 내부 영상을 분석하여 상기 배달원으로부터 배달된 배달 대상 객체를 인식한 경우, 상기 무선 통신부를 통해 사용자의 단말기로 배달 완료 보고를 전송하는 차량 제어 장치.When the control unit analyzes the internal image of the vehicle acquired from the camera provided in the vehicle and recognizes the delivery target object delivered from the delivery person, the control unit transmits a delivery completion report to the user's terminal through the wireless communication unit. controller.
  11. 제 10 항에 있어서, The method of claim 10,
    상기 제1 및 제2 인증 정보가 외부 서버로부터 발생된 일회성 인증 정보인 것을 특징으로 하는 차량 제어 장치.The vehicle control device, wherein the first and second authentication information is one-time authentication information generated from an external server.
  12. 제 10 항에 있어서, The method of claim 10,
    상기 차량의 내부에 비치된 냉장고;를 더 구비하고, A refrigerator provided inside the vehicle; further comprising,
    상기 제어부는, The control unit,
    상기 외부 서버로부터 수신된 배달 예정 시간에 앞서 상기 배당 대상 객체의 적정 보관 온도로 상기 냉장고를 구동하는 차량 제어 장치.A vehicle control device that drives the refrigerator to an appropriate storage temperature of the object to be allocated prior to a delivery scheduled time received from the external server.
  13. 제 10 항에 있어서, The method of claim 10,
    상기 제어부는,The control unit,
    상기 카메라를 통해 획득한 영상을 분석한 결과에 기초하여 상기 차량의 내부 공간 상태를 판단하여 상기 차량 내의 배달 위치를 선택하는 차량 제어 장치.A vehicle control device for selecting a delivery location in the vehicle by determining a state of an interior space of the vehicle based on a result of analyzing the image acquired through the camera.
  14. 제 10 항에 있어서, The method of claim 10,
    상기 제어부는,The control unit,
    외부 카메라 또는 센서를 이용하여 상기 차량으로 접근하는 상기 배달원을 감지하고, 상기 인증 성공 후에 상기 차량 내의 배달 위치와 가까운 윈도우에 배달 위치를 표시하는 것을 특징으로 하는 차량 제어 장치.A vehicle control apparatus, comprising: detecting the delivery person approaching the vehicle using an external camera or sensor, and displaying the delivery location in a window close to the delivery location in the vehicle after the authentication is successful.
  15. 제 10 항에 있어서,The method of claim 10,
    상기 제어부는,The control unit,
    상기 인증 성공 후 상기 차량의 도어가 열릴 때 또는 상기 배달 대상 객체가 상기 차량의 내부에 위치하는 상태를 인식할 때 배달 완료로 판단하고, 상기 배달 완료 후에 사용자의 단말기로 배달 완료 보고를 전송하는 것을 특징으로 하는 차량 제어 장치.When the door of the vehicle is opened after the authentication is successful, or when the delivery target object is recognized as being located inside the vehicle, it is determined that delivery is complete, and a delivery completion report is transmitted to the user's terminal after the delivery is completed. Vehicle control device, characterized in that.
  16. 제 15 항에 있어서, The method of claim 15,
    상기 제어부는,The control unit,
    상기 무선 통신부를 통해 상기 배달 완료 보고와 함께 상기 차량의 내부 영상을 상기 사용자의 단말기로 전송하는 것을 특징으로 하는 차량 제어 장치. And transmitting an internal image of the vehicle to the user's terminal together with the delivery completion report through the wireless communication unit.
  17. 제 15 항에 있어서,The method of claim 15,
    상기 제어부는,The control unit,
    출력 장치를 이용하여 상기 배달 완료 보고 후에 상기 사용자가 탑승할 때 배달 결과를 출력하는 것을 특징으로 하는 차량 제어 장치. And outputting the delivery result when the user boards after the delivery completion report using an output device.
  18. 제 17 항에 있어서,The method of claim 17,
    상기 제어부는, The control unit,
    상기 배달 완료 보고 후 미리 설정된 시간이 경과할 때까지 상기 사용자의 탑승을 인지하지 못하는 경우, 상기 무선 통신부를 통해 상기 배달 대상 객체의 보관 경과 시간을 상기 사용자의 단말기로 전송하는 것을 특징으로 하는 차량 제어 장치. Vehicle control, characterized in that, when the user's boarding is not recognized until a predetermined time elapses after the delivery completion report, the elapsed storage time of the delivery target object is transmitted to the user's terminal through the wireless communication unit. Device.
  19. 배달 서비스 서버가 사용자로부터의 배달 서비스 요청을 수신하는 단계; Receiving, by the delivery service server, a delivery service request from a user;
    상기 배달 서비스 서버로부터 발생된 제1 인증 정보를 차량으로 전송하고, 상기 배달 서비스 서버로부터 발생된 제2 인증 정보를 배달원의 단말기로 전송하는 단계;Transmitting first authentication information generated from the delivery service server to a vehicle, and transmitting second authentication information generated from the delivery service server to a terminal of a delivery person;
    상기 제1 및 제2 인증 정보의 비교 결과를 바탕으로 인정 성공으로 판단될 때 상기 차량의 도어 잠금을 해제하는 단계; 및 Releasing a door lock of the vehicle when it is determined that authentication is successful based on a comparison result of the first and second authentication information; And
    상기 차량이 상기 배달 서비스 요청시 주문된 배달 대상 객체가 상기 차량 내에 위치함을 인식한 후에 상기 사용자의 단말기로 배달 완료 보고를 전송하는 단계;Transmitting a delivery completion report to the user's terminal after the vehicle recognizes that the delivery target object ordered is located in the vehicle when the delivery service is requested;
    를 포함하는 차량을 이용한 배달 서비스 방법. Delivery service method using a vehicle comprising a.
  20. 사용자로부터의 배달 서비스 요청을 수신하면, 제1 인증 정보를 차량으로 전송하고, 배달 서비스 서버로부터 발생된 제2 인증 정보를 배달원의 단말기로 전송하는 배달 서비스 서버; 및 When receiving a delivery service request from a user, a delivery service server that transmits first authentication information to the vehicle and transmits second authentication information generated from the delivery service server to a terminal of the delivery person; And
    상기 제1 및 제2 인증 정보의 비교 결과에 기초하여 인증 성공으로 판단되는 경우, 상기 차량의 도어 잠금을 해제하는 차량;을 포함하고, A vehicle that unlocks a door of the vehicle when it is determined that authentication is successful based on a comparison result of the first and second authentication information,
    상기 차량이 상기 배달 서비스 요청시 주문된 배달 대상 객체가 상기 차량 내에 위치함을 인식한 경우, 상기 사용자의 단말기로 배달 완료 보고를 전송하는 차량을 이용한 배달 서비스 시스템.A delivery service system using a vehicle that transmits a delivery completion report to the user's terminal when the vehicle recognizes that an ordered delivery object is located in the vehicle when the delivery service is requested.
PCT/KR2019/001902 2019-02-18 2019-02-18 Vehicle control method, apparatus, and method and system for delivery service using vehicle WO2020171242A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2019/001902 WO2020171242A1 (en) 2019-02-18 2019-02-18 Vehicle control method, apparatus, and method and system for delivery service using vehicle
KR1020217019207A KR20210118066A (en) 2019-02-18 2019-02-18 Vehicle control method, device, delivery service method and system using vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/001902 WO2020171242A1 (en) 2019-02-18 2019-02-18 Vehicle control method, apparatus, and method and system for delivery service using vehicle

Publications (1)

Publication Number Publication Date
WO2020171242A1 true WO2020171242A1 (en) 2020-08-27

Family

ID=72144994

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001902 WO2020171242A1 (en) 2019-02-18 2019-02-18 Vehicle control method, apparatus, and method and system for delivery service using vehicle

Country Status (2)

Country Link
KR (1) KR20210118066A (en)
WO (1) WO2020171242A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220044509A1 (en) * 2019-05-24 2022-02-10 1Valet Corp. Method and system for access to a secured building
US20220076517A1 (en) * 2019-05-24 2022-03-10 1Valet Corp. Method and system for access to a secured building and a secured locker system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110116913A (en) * 2010-04-20 2011-10-26 엘지전자 주식회사 Service authentication apparatus and method thereof
JP2015161960A (en) * 2014-02-26 2015-09-07 善郎 水野 Management system for delivery state
JP2017517462A (en) * 2014-05-30 2017-06-29 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. On-vehicle delivery receipt method, system and apparatus
JP2018181291A (en) * 2017-04-12 2018-11-15 三井情報株式会社 Device, apparatus, information processing method, information processing system and program
JP2018204363A (en) * 2017-06-07 2018-12-27 株式会社ユピテル In-vehicle machine, unlocking system, and method for controlling system and in-vehicle machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110116913A (en) * 2010-04-20 2011-10-26 엘지전자 주식회사 Service authentication apparatus and method thereof
JP2015161960A (en) * 2014-02-26 2015-09-07 善郎 水野 Management system for delivery state
JP2017517462A (en) * 2014-05-30 2017-06-29 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. On-vehicle delivery receipt method, system and apparatus
JP2018181291A (en) * 2017-04-12 2018-11-15 三井情報株式会社 Device, apparatus, information processing method, information processing system and program
JP2018204363A (en) * 2017-06-07 2018-12-27 株式会社ユピテル In-vehicle machine, unlocking system, and method for controlling system and in-vehicle machine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220044509A1 (en) * 2019-05-24 2022-02-10 1Valet Corp. Method and system for access to a secured building
US20220076517A1 (en) * 2019-05-24 2022-03-10 1Valet Corp. Method and system for access to a secured building and a secured locker system
US11443580B2 (en) * 2019-05-24 2022-09-13 1Valet Corp. Method and system for access to a secured building

Also Published As

Publication number Publication date
KR20210118066A (en) 2021-09-29

Similar Documents

Publication Publication Date Title
WO2017039047A1 (en) Vehicle and control method thereof
WO2017003052A1 (en) Vehicle driving assistance method and vehicle
WO2017078362A1 (en) Vehicle and method for controlling the vehicle
WO2017034282A1 (en) Driver assistance apparatus and method for controlling the same
WO2020105751A1 (en) Method for monitoring occupant and device therefor
WO2018009038A1 (en) Vehicle driving assistance device and parking control system including same
WO2017094952A1 (en) Vehicle external alarm method, vehicle driving auxiliary device for performing same, and vehicle comprising vehicle driving auxiliary device
WO2017061653A1 (en) Method for preventing drunk driving and vehicle auxiliary device for providing same
WO2018070646A1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2020226258A1 (en) Autonomous driving vehicle and pedestrian guidance system and method using same
WO2020017716A1 (en) Robot for vehicle and method for controlling same
WO2020166749A1 (en) Method and system for displaying information by using vehicle
WO2021157760A1 (en) Route provision apparatus and route provision method therefor
WO2022154299A1 (en) Digital signage platform providing device, operating method thereof, and system including digital signage platform providing device
WO2020235714A1 (en) Autonomous vehicle and driving control system and method using same
WO2020145432A1 (en) Method for controlling vehicle through multi soc system
WO2020213772A1 (en) Vehicle control device and method for controlling same
WO2020040324A1 (en) Mobile its station and method of operating mobile its station
WO2019151575A1 (en) Vehicle terminal and control method of transportation system including same
WO2020017677A1 (en) Image output device
WO2019108003A1 (en) Method and device for correcting camera
WO2021246534A1 (en) Route providing device and route providing method therefor
WO2021230387A1 (en) Device for providing route and method for providing route therefor
WO2016186319A1 (en) Vehicle driving assisting device and vehicle
WO2020159245A1 (en) Method for sharing images between vehicles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19916350

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19916350

Country of ref document: EP

Kind code of ref document: A1