WO2020040318A1 - 사용자 수송 방법 및 개인용 이동 장치 - Google Patents

사용자 수송 방법 및 개인용 이동 장치 Download PDF

Info

Publication number
WO2020040318A1
WO2020040318A1 PCT/KR2018/009564 KR2018009564W WO2020040318A1 WO 2020040318 A1 WO2020040318 A1 WO 2020040318A1 KR 2018009564 W KR2018009564 W KR 2018009564W WO 2020040318 A1 WO2020040318 A1 WO 2020040318A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
processor
information
display
point
Prior art date
Application number
PCT/KR2018/009564
Other languages
English (en)
French (fr)
Inventor
황인영
이경하
김강민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US16/500,495 priority Critical patent/US20210405640A1/en
Priority to PCT/KR2018/009564 priority patent/WO2020040318A1/ko
Priority to KR1020197024846A priority patent/KR20210036775A/ko
Publication of WO2020040318A1 publication Critical patent/WO2020040318A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present invention relates to a user transport method and a personal mobile device.
  • the autonomous vehicle refers to a vehicle which can be driven by itself without a driver's driving operation. Many companies have entered the autonomous vehicle business and are engaged in research and development. In recent years, not only autonomous vehicles used by a single individual but also a concept of a share autonomous vehicle used by many people has been introduced to the industry.
  • an object of the present invention is to provide a user transportation method capable of door-to-door transportation.
  • the user transport method according to an embodiment of the present invention can be used in connection with a shared vehicle and a personal mobile device.
  • the user in a section in which the vehicle cannot be driven, the user can be transported using a personal mobile device, so that the user can be transported from the first starting point to the final destination point.
  • FIG. 1 is a view showing the appearance of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an interior of a vehicle according to an exemplary embodiment of the present invention.
  • FIG. 3 is a block diagram referred to to explain a vehicle cabin system according to an embodiment of the present invention.
  • 4A to 4C are views referred to for describing an input device according to an embodiment of the present invention.
  • FIG 5 is a view referred to for explaining the communication operation of the communication device and the mobile terminal according to an embodiment of the present invention.
  • FIG. 6 is a diagram referred to describe a display system according to an exemplary embodiment of the present invention.
  • FIG. 7 is a view referred to for explaining the cargo system according to an embodiment of the present invention.
  • FIG. 8 is a view referred to to explain a seat system according to an embodiment of the present invention.
  • FIG. 9 is a diagram referred to describe a payment system according to an embodiment of the present invention.
  • FIG. 10 is a diagram referred to for describing a usage scenario of a user according to an exemplary embodiment of the present invention.
  • 11 to 36 are views referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • FIG. 37 is a control block diagram of a payment system according to an embodiment of the present invention.
  • 39 is a flow chart referenced to explain the operation of the payment system according to an embodiment of the present invention.
  • FIG. 40 is a diagram referred to for describing an image data acquisition scenario according to an embodiment of the present invention.
  • 41 is a diagram referred to for describing an image data acquisition scenario according to an embodiment of the present invention.
  • 42 to 23 are views for explaining a product selection motion and a product opening motion according to an embodiment of the present invention.
  • 44 is a diagram referred to for describing an operation of displaying information according to an embodiment of the present invention.
  • 45 is a view referred to for describing an operation of providing information to a mobile terminal according to an embodiment of the present invention.
  • 46 is a diagram referred to for describing an operation of making a payment according to an embodiment of the present invention.
  • 47 is a control block diagram of a cargo system according to an embodiment of the present invention.
  • 49 is a view schematically illustrating a cabin according to an embodiment of the present invention.
  • 50 illustrates a box according to an embodiment of the invention.
  • 51 to 52 are views referred to to explain the moving mechanism according to the embodiment of the present invention.
  • 53 is a view referred to for describing an operation of exposing a product according to a user input according to an embodiment of the present invention.
  • 54 is a view referred to for describing an operation of opening only a selected box among a plurality of boxes according to an embodiment of the present invention.
  • 55 is a control block diagram of a display system according to an embodiment of the present invention.
  • 57 illustrates a user input for adjusting a display viewing angle according to an embodiment of the present invention.
  • 58 to 59 illustrate a physical viewing angle adjustment operation of the first display according to the embodiment of the present invention.
  • 60 to 61 illustrate a physical viewing angle adjustment operation of the second display according to an embodiment of the present invention.
  • 64 is a view illustrating an operation of adjusting the viewing angle according to the change of the position of the display area of the display according to the embodiment of the present invention.
  • 65 is a view illustrating a tilting angle adjustment operation of the touch input unit according to an embodiment of the present invention.
  • 66 illustrates the raising and lowering adjustment operation of the jog dial device according to the embodiment of the present invention.
  • 67 is a view illustrating a display area division operation of a display according to the number of occupants according to an embodiment of the present invention.
  • 68 to 69 are views for explaining a motion sickness reduction system for a vehicle according to an embodiment of the present invention.
  • 68 illustrates a first display
  • FIG. 69 illustrates a third display.
  • 70A to 70C are views referred to for describing a light output area according to an embodiment of the present invention.
  • 71A to 71B are views referred to for describing a display and a light output area according to an embodiment of the present invention.
  • 72 to 74 are views for explaining the change of the light output pattern of the light output area according to the embodiment of the present invention.
  • 75 is a view referred to for describing an operation of outputting a graphic object to reduce motion sickness according to an embodiment of the present invention.
  • 76 is a diagram referred to for describing an operation of reducing motion sickness during a video conference according to an embodiment of the present invention.
  • FIG. 77 is a view referred to for describing an operation of reducing motion sickness when watching content through a mobile terminal according to an embodiment of the present invention.
  • 78 is a view referred to for describing a posture adjusting operation of a seat for reducing motion sickness according to an embodiment of the present invention.
  • 79 illustrates an appearance of a personal mobile device according to an embodiment of the present invention.
  • FIG. 80 illustrates a control block diagram of a personal mobile device according to an embodiment of the present invention.
  • 81 illustrates a shared vehicle and personal mobility device according to an embodiment of the present invention.
  • 82A to 82B are views referred to for explaining a user transportation system according to an embodiment of the present invention.
  • FIG. 83 illustrates a flow chart of a user transportation system according to an embodiment of the present invention.
  • FIG. 84 illustrates a flow chart of a user transportation system according to an embodiment of the present invention.
  • 85 is a diagram referred to for explaining the use of a shared vehicle and a personal mobile device along a route according to an embodiment of the present invention.
  • 86 is a diagram referred to describe information provided by a mobile terminal of a user according to an embodiment of the present invention.
  • 87 is a diagram referred to for describing information sharing between a shared vehicle system and a personal mobile device system according to an embodiment of the present invention.
  • 88 is a diagram to help explain a system for providing destination service information according to an embodiment of the present invention.
  • 89 is a flowchart illustrating a destination service information providing system according to an embodiment of the present invention.
  • 90A-90B illustrate service information provided according to a destination according to an embodiment of the present invention.
  • 91A-91C illustrate information provided in a vehicular user interface device according to an embodiment of the invention.
  • the vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.
  • the left side of the vehicle means the left side of the driving direction of the vehicle
  • the right side of the vehicle means the right side of the driving direction of the vehicle
  • FIG. 1 is a view showing the appearance of a vehicle according to an embodiment of the present invention.
  • a vehicle 10 is defined as a vehicle that runs on a road or a track.
  • the vehicle 10 is a concept including a car, a train and a motorcycle.
  • the following describes, for example, an autonomous vehicle traveling in the vehicle 10 without the driver's driving operation.
  • the autonomous vehicle may be switched to the autonomous driving mode or the manual driving mode based on the user input.
  • the vehicle 10 includes a power train driver for controlling a power train, a chassis driver for controlling a chassis, a door driver for controlling a door, a safety device driver for controlling various safety devices, a lamp driver for controlling various lamps, and an air conditioning device. It may include an air conditioning drive for controlling.
  • Various driving units included in the vehicle 10 may be described as electronic devices. According to an embodiment, the vehicle 10 may further include other components in addition to the components described herein, or may not include some of the components described.
  • the vehicle 10 may include at least one object detection device that detects an object outside the vehicle 10.
  • the object detecting apparatus may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detecting apparatus may provide data on the object generated based on the sensing signal generated by the sensor to at least one electronic device included in the vehicle. At least one object detecting apparatus included in the vehicle 10 may be described as an electronic device.
  • the vehicle 10 may include at least one communication device for exchanging signals with a device located outside the vehicle 10.
  • the communication device may exchange signals with at least one of an infrastructure (for example, a server) and another vehicle.
  • At least one communication device included in the vehicle 10 may be described as an electronic device.
  • the vehicle 10 may include an internal communication system.
  • the plurality of electronic devices included in the vehicle 10 may exchange signals through an internal communication system.
  • the signal may include data.
  • the internal communication system may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
  • the vehicle 10 may include a cabin system 100.
  • the cabin system 100 is demonstrated with reference to FIGS.
  • FIG. 2 is a diagram illustrating an interior of a vehicle according to an exemplary embodiment of the present invention.
  • FIG. 3 is a block diagram referred to to explain a vehicle cabin system according to an embodiment of the present invention.
  • 4A to 4C are views referred to for describing an input device according to an embodiment of the present invention.
  • FIG 5 is a view referred to for explaining the communication operation of the communication device and the mobile terminal according to an embodiment of the present invention.
  • FIG. 6 is a diagram referred to describe a display system according to an exemplary embodiment of the present invention.
  • FIG. 7 is a view referred to for explaining the cargo system according to an embodiment of the present invention.
  • FIG. 8 is a view referred to to explain a seat system according to an embodiment of the present invention.
  • FIG. 9 is a diagram referred to describe a payment system according to an embodiment of the present invention.
  • the vehicle cabin system 100 (hereinafter, referred to as a cabin system) may be defined as a convenience system for a user who uses the vehicle 10.
  • the cabin system 100 may be described as a top-level system including a display system 400, a cargo system 500, a seat system 600 and a payment system 700.
  • the cabin system 100 includes a main controller 170, a memory 175, an interface unit 180, a power supply unit 190, an input device 200, an imaging device 250, a communication device 300, and a display system. 400, sound output 490, cargo system 500, seat system 600, and payment system 700.
  • the cabin system 100 may further include other components in addition to the components described herein, or may not include some of the components described.
  • the main controller 170 is electrically connected to the input device 200, the communication device 300, the display system 400, the cargo system 500, the seat system 600, and the payment system 700 to exchange signals. can do.
  • the main controller 170 may control the input apparatus 200, the communication apparatus 300, the display system 400, the cargo system 500, the seat system 600, and the payment system 700.
  • the main controller 170 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, It may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the main controller 170 may be configured of at least one sub controller. According to an embodiment, the main controller 170 may include a plurality of sub controllers. Each of the plurality of sub-controllers can individually control the devices and systems included in the grouped cabin system 100. The devices and systems included in the cabin system 100 may be grouped by function or grouped based on seating seats.
  • the main controller 171 may include at least one processor 171.
  • the main controller 171 is illustrated as including one processor 171, but the main controller 171 may include a plurality of processors.
  • the processor 171 may be classified into any of the above-described sub controllers.
  • the processor 171 may obtain first information about the first user and second information about the second user through the communication device 300.
  • the first mobile terminal of the first user may transmit first information to the cabin system 100.
  • the second mobile terminal of the second user may transmit second information to the cabin system 100.
  • the communication device 300 may receive the first information and the second information and provide them to the processor 171.
  • the processor 171 may specify each of the first user and the second user based on image data received from at least one of the internal camera 251 and the external camera 252.
  • the processor 171 may specify a first user and a second user by applying an image processing algorithm to the image data.
  • the processor 171 may specify the first user and the second user by comparing the first information and the second information with the image data.
  • the first information may include at least one of route information, body information, passenger information, luggage information, location information, preferred content information, preferred food information, disability information, and usage history information of the first user.
  • the second information may include at least one of route information, body information, passenger information, luggage information, location information, preferred content information, preferred food information, disability information, and usage history information of the second user. It may include.
  • the processor 171 may provide a control signal to at least one of the display and the speaker so that the content is provided to the user based on the electrical signal generated by the input device 200.
  • the processor 171 may determine the first boarding seat of the first user among the plurality of seats according to the first information.
  • the processor 171 may determine the attitude of the first boarding seat according to the first information.
  • the processor 171 may determine the second boarding seat of the second user among the plurality of seats according to the second information.
  • the processor 171 may determine the attitude of the second boarding seat according to the second information.
  • the processor 171 includes a communication device 300, an internal camera 251, an external camera 252, an input device 200, a display of the display system 400, a speaker of the sound output unit 490, and a cargo system ( 500), based on an electrical signal received from at least one of the plurality of sheets of the seat system 600, a service fee may be determined.
  • the processor 171 may provide a signal to the payment system 700 such that the determined service fee is charged.
  • the main controller 170 may include an artificial intelligence agent 172.
  • the artificial intelligence agent 172 may perform machine learning based on the data obtained through the input device 200.
  • the artificial intelligence agent 172 based on the machine-learned results, at least one of the display system 400, the sound output unit 490, the cargo system 500, the seat system 600 and the payment system 700. Can be controlled.
  • the main controller 170 may be understood as a vehicle electronic device.
  • the electronic device 170 may include an interface unit and a processor 171.
  • the interface unit of the electronic device 170 may include a communication device 300 that exchanges signals with an external device, at least one internal camera 251 for capturing an image in a cabin, and at least one external camera 252 for capturing an external image of a vehicle. ),
  • An input device 200 for converting a user input into an electrical signal, at least one display for outputting visual content, at least one speaker for outputting audio content, and a plurality of sheets each of which can be left by a plurality of users. You can exchange signals with at least one.
  • the processor 171 of the electronic device 170 obtains, through the communication device, first information about a first user and second information about a second user, and from at least one of the internal camera and the external camera. Based on the received image data, each of the first user and the second user is specified, and at least one of the display and the speaker to provide content to the user based on the electrical signal generated by the input device Provide a control signal, determine a first boarding seat of the first user among the plurality of seats according to the first information, and a second boarding seat of the second user among the plurality of seats according to the second information Determine a posture of the first boarding seat according to the first information, and set the posture of the second boarding seat according to the second information. have.
  • the memory 175 is electrically connected to the main controller 170.
  • the memory 175 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data.
  • the memory 175 may store data processed by the main controller 170.
  • the memory 175 may be configured by at least one of a ROM, a RAM, an EPROM, a flash drive, and a hard drive in hardware.
  • the memory 175 may store various data for operating the entire cabin system 100, such as a program for processing or controlling the main controller 170.
  • the memory 175 may be integrated with the main controller 170.
  • the interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly.
  • the interface unit 180 may be configured of at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
  • the power supply unit 190 may supply power to the cabin system 100.
  • the power supply unit 190 may receive power from a power source (eg, a battery) included in the vehicle 10, and supply power to each unit of the cabin system 100.
  • the power supply unit 190 may be operated according to a control signal provided from the main controller 170.
  • the power supply unit 190 may be implemented with a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the cabin system 100 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the main controller 170, the memory 175, the interface unit 180, and the power supply unit 190 may be mounted on at least one printed circuit board.
  • the input device 200 may receive a user input.
  • the input device 200 may convert a user input into an electrical signal.
  • the electrical signal converted by the input device 200 is converted into a control signal so that at least any one of the display system 400, the sound output unit 490, the cargo system 500, the seat system 600, and the payment system 700.
  • At least one processor included in the main controller 170 or the cabin system 100 may generate a control signal based on an electrical signal received from the input device 200.
  • the input device 200 may include at least one of a touch input unit 210, a gesture input unit 220, a mechanical input unit 230, and a voice input unit 240.
  • the touch input unit 210 may convert a user's touch input into an electrical signal.
  • the touch input unit 210 may include at least one touch sensor 211 to detect a user's touch input.
  • the touch input unit 210 may be integrally formed with at least one display included in the display system 400 to implement a touch screen. Such a touch screen may provide an input interface and an output interface between the cabin system 100 and the user.
  • the gesture input unit 220 may convert a user's gesture input into an electrical signal.
  • the gesture input unit 220 may include at least one of an infrared sensor 221 and an image sensor for detecting a user's gesture input.
  • the gesture input unit 220 may detect a 3D gesture input of the user.
  • the gesture input unit 220 may include a light output unit or a plurality of image sensors that output a plurality of infrared light.
  • the gesture input unit 220 may detect a user's 3D gesture input through a time of flight (TOF) method, a structured light method, or a disparity method.
  • TOF time of flight
  • the mechanical input 230 may convert a user's physical input (eg, pressing or rotating) through the mechanical device 231 into an electrical signal.
  • the mechanical input unit 230 may include at least one of a button, a dome switch, a jog wheel, and a jog switch.
  • the gesture input unit 220 and the mechanical input unit 230 may be integrally formed.
  • the input device 200 may include a jog dial device that includes a gesture sensor and is formed to be retractable from a portion of a peripheral structure (eg, at least one of a seat, an armrest, and a door). .
  • a jog dial device When the jog dial device is in a flat state with the surrounding structure, the jog dial device may function as the gesture input unit 220.
  • the jog dial device protrudes relative to the surrounding structure, the jog dial device may function as the mechanical input unit 230.
  • the voice input unit 240 may convert the voice input of the user into an electrical signal.
  • the voice input unit 240 may include at least one microphone 241.
  • the voice input unit 240 may include a beam foaming microphone.
  • the imaging device 250 may include at least one camera.
  • the imaging device 250 may include at least one of an internal camera 251 and an external camera 252.
  • the internal camera 251 can capture an image in the cabin.
  • the external camera 252 may capture a vehicle exterior image.
  • the internal camera 251 may acquire an image in the cabin.
  • the imaging device 250 may include at least one internal camera 251.
  • the imaging apparatus 250 preferably includes a number of cameras 251 corresponding to the occupant.
  • the imaging device 250 may provide an image acquired by the internal camera 251.
  • At least one processor included in the main controller 170 or the cabin system 100 detects a user's motion based on an image acquired by the internal camera 251, and generates a signal based on the detected motion.
  • the display system 400, the sound output unit 490, the cargo system 500, the seat system 600, and the payment system 700 may be provided to at least one.
  • the external camera 252 may acquire an external image of the vehicle.
  • the imaging device 250 may include at least one internal camera 252.
  • the imaging apparatus 250 preferably includes a number of cameras 252 corresponding to the boarding door.
  • the imaging apparatus 250 may provide an image acquired by the external camera 252.
  • At least one processor included in the main controller 170 or the cabin system 100 may obtain user information based on an image acquired by the external camera 252.
  • At least one processor included in the main controller 170 or the cabin system 100 authenticates the user based on the user information, or the user's body information (eg, height information, weight information, etc.), Passenger information, user's luggage information, and the like can be obtained.
  • FIG 3 illustrates that the input device 200 is directly connected to the main controller 170, the input device 200 may be connected to the main controller 170 via the interface unit 180.
  • the communication device 300 may exchange signals wirelessly with an external device.
  • the communication device 300 may exchange signals with an external device or directly exchange signals with an external device through a network.
  • the external device may include at least one of a server, a mobile terminal, and another vehicle. As illustrated in FIG. 5, the communication device 300 may exchange signals with at least one mobile terminal 390.
  • the communication device 300 may include at least one of an antenna, a radio frequency (RF) circuit capable of implementing at least one communication protocol, and an RF element to perform communication. According to an embodiment, the communication device 300 may use a plurality of communication protocols. The communication device 300 may switch the communication protocol according to the distance from the mobile terminal.
  • RF radio frequency
  • the communication device 300 may be connected to the main controller 170 via the interface unit 180.
  • the display system 400 may display graphical objects.
  • the display system 400 may include a first display device 410 and a second display device 420.
  • the first display device 410 may include at least one display 411 for outputting visual content.
  • the display 411 included in the first display device 410 is a flat panel display.
  • the display device may be implemented as at least one of a curved display, a rollable display, and a flexible display.
  • the first display device 410 may include a first display 411 positioned behind the seat and configured to move in and out of the cabin, and a first mechanism for moving the first display 411.
  • the first display 411 may be arranged in a slot formed in the seat main frame to be withdrawn from the slot.
  • the first display device 410 may further include a flexible area adjustment mechanism.
  • the first display may be formed to be flexible, and the flexible area of the first display may be adjusted according to the position of the user.
  • the first display device 410 may include a second display positioned on the ceiling of the cabin and being rollable, and a second mechanism for winding or unwinding the second display.
  • the second display may be formed to enable screen output on both sides.
  • the first display device 410 may include a third display that is positioned on the ceiling of the cabin and is flexibly formed, and a third mechanism for bending or unfolding the third display.
  • the display system 400 may further include at least one processor that provides a control signal to at least one of the first display device 410 and the second display device 420.
  • the processor included in the display system 400 may generate a control signal based on a signal received from at least one of the main controller 170, the input apparatus 200, the imaging apparatus 250, and the communication apparatus 300. Can be.
  • the display area of the display included in the first display device 410 may be divided into a first area 411a and a second area 411b.
  • the first area 411a may define content as a display area.
  • the first area 411 may display at least one of entertainment content (eg, movies, sports, shopping, music, etc.), video conference, food menu, and graphic objects corresponding to the augmented reality screen. Can be.
  • the first area 411a may display a graphic object corresponding to driving state information of the vehicle 10.
  • the driving situation information may include at least one of object information, navigation information, and vehicle state information outside the vehicle.
  • the object information outside the vehicle may include information on whether an object exists, location information of the object, distance information between the vehicle 100 and the object, and relative speed information between the vehicle 100 and the object.
  • the navigation information may include at least one of map information, set destination information, route information according to the destination setting, information on various objects on the route, lane information, and current location information of the vehicle.
  • the vehicle state information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, vehicle steering information , Vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
  • the second area 411b may be defined as a user interface area.
  • the second area 411b may output an artificial intelligence agent screen.
  • the second area 411b may be located in an area divided by a sheet frame. In this case, the user can look at the content displayed in the second area 411b between the plurality of sheets.
  • the first display device 410 may provide holographic content.
  • the first display apparatus 410 may provide holographic content for each of a plurality of users so that only the user who requested the content may view the corresponding content.
  • the second display device 420 may include at least one display 421.
  • the second display device 420 may provide the display 421 at a location where only individual passengers can check the display contents.
  • the display 421 may be disposed on the arm rest of the sheet.
  • the second display device 420 may display a graphic object corresponding to the personal information of the user.
  • the second display device 420 may include a number of displays 421 corresponding to the occupant.
  • the second display apparatus 420 may form a layer structure or an integrated structure with the touch sensor, thereby implementing a touch screen.
  • the second display device 420 may display a graphic object for receiving a user input of seat adjustment or room temperature adjustment.
  • the display system 400 may be connected to the main controller 170 via the interface unit 180.
  • the sound output unit 490 may convert an electrical signal into an audio signal.
  • the sound output unit 490 may include at least one speaker for outputting audio content.
  • the sound output unit 490 may include a plurality of speakers provided for each seat capable of riding.
  • the cargo system 500 may provide goods to the user at the request of the user.
  • the cargo system 500 may be operated based on electrical signals generated by the input device 200 or the communication device 300.
  • the cargo system 500 may include a cargo box.
  • the cargo box may be hidden at a portion of the bottom of the seat with the goods loaded.
  • the cargo box may be exposed to the cabin.
  • the user can select the required goods among the items loaded in the exposed cargo box.
  • the cargo system 500 may include a sliding moving mechanism and a product popup mechanism for exposing the cargo box according to a user input.
  • the cargo system 500 may include a plurality of cargo boxes to provide various kinds of goods.
  • the cargo box may have a built-in weight sensor for determining whether to provide each product.
  • the cargo system 500 is directly connected to the main controller 170, the cargo system 500 may be connected to the main controller 170 via the interface unit 180.
  • the seat system 600 may provide a user with a seat customized for the user.
  • the seat system 600 may be operated based on an electrical signal generated by the input device 200 or the communication device 300.
  • the seat system 600 may adjust at least one element of the sheet based on the obtained user body data.
  • the seat system 600 may include a user detection sensor (eg, a pressure sensor) for determining whether a user is seated.
  • the seat system 600 may include a plurality of seats each of which a plurality of users may seat. Any one of the plurality of sheets may be arranged facing at least the other. At least two users inside the cabin may sit facing each other.
  • FIG 3 illustrates that the seat system 600 is directly connected to the main controller 170, the seat system 600 may be connected to the main controller 170 via the interface unit 180.
  • the payment system 700 may provide a payment service to a user.
  • the payment system 700 may be operated based on an electrical signal generated by the input device 200 or the communication device 300.
  • the payment system 700 may calculate a price for at least one service used by a user and request that the calculated price be paid.
  • the payment system 700 may be connected to the main controller 170 via the interface unit 180.
  • the cabin system 100 may further include the mobile terminal 390 as a component.
  • FIG. 10 is a diagram referred to for describing a usage scenario of a user according to an exemplary embodiment of the present invention.
  • the first scenario S111 is a destination prediction scenario of the user.
  • the mobile terminal 390 may install an application interoperable with the cabin system 100.
  • the mobile terminal 390 may predict the destination of the user based on the user's contextual information through the application.
  • the mobile terminal 390 may provide vacancy information in the cabin through an application.
  • the second scenario S112 is a cabin interior layout preparation scenario.
  • the cabin system 100 may further include a scanning device for acquiring data about a user located outside the vehicle 100.
  • the scanning device may acquire the user's body data and baggage data by scanning the user.
  • the user's body data and baggage data can be used to set the layout.
  • the body data of the user may be used for user authentication.
  • the scanning device may include at least one image sensor.
  • the image sensor may acquire a user image by using light in a visible light band or an infrared band.
  • the seat system 600 may set the layout in the cabin based on at least one of the user's body data and clothing data.
  • the seat system 600 can provide a luggage storage space or a car seat installation space.
  • the third scenario S113 is a user welcome scenario.
  • the cabin system 100 may further include at least one guide light.
  • the guide light may be disposed on the floor in the cabin.
  • the cabin system 100 may output a guide light so that the user is seated on a predetermined seat among the plurality of seats.
  • the main controller 170 may implement a moving light by sequentially turning on a plurality of light sources with time from an open door to a predetermined user seat.
  • the fourth scenario S114 is a seat adjustment service scenario.
  • the seat system 600 may adjust at least one element of the sheet that matches the user based on the obtained body information.
  • the fifth scenario S115 is a personal content providing scenario.
  • the display system 400 may receive user personal data through the input apparatus 200 or the communication apparatus 300.
  • the display system 400 may provide content corresponding to user personal data.
  • Sixth scenario S116 is a product providing scenario.
  • the cargo system 500 may receive user data through the input device 200 or the communication device 300.
  • the user data may include user preference data, user destination data, and the like.
  • the cargo system 500 can provide goods based on user data.
  • the seventh scenario S117 is a payment scenario.
  • the payment system 700 may receive data for pricing from at least one of the input device 200, the communication device 300, and the cargo system 500.
  • the payment system 700 may calculate a vehicle usage price of the user based on the received data.
  • the payment system 700 may request a payment from a user (eg, the user's mobile terminal) at an estimated price.
  • the eighth scenario S118 is a display system control scenario of the user.
  • the input device 200 may receive a user input of at least one type and convert the user input into an electrical signal.
  • the display system 400 may control the displayed content based on the electrical signal.
  • the ninth scenario S119 is a multi-channel artificial intelligence (AI) agent scenario for a plurality of users.
  • the artificial intelligence agent 172 may classify a user input for each of a plurality of users.
  • the artificial intelligence agent 172 is configured to display the display system 400, the sound output unit 490, the cargo system 500, the seat system 600, and the payment system based on the electrical signals to which the plurality of user individual user inputs are switched. At least one of the 700 may be controlled.
  • the tenth scenario S120 is a multimedia content providing scenario for a plurality of users.
  • the display system 400 may provide content that all users can watch together.
  • the sound output unit 490 may provide the same sound to a plurality of users individually through the speakers provided for each sheet.
  • the display system 400 may provide content that a plurality of users can watch individually.
  • the sound output unit 490 may provide individual sounds through the speakers provided for each sheet.
  • the eleventh scenario S121 is a user safety ensuring scenario.
  • the main controller 170 controls to output an alarm for the surrounding object through at least one of the display system 400 and the sound output unit 490. can do.
  • the twelfth scenario S122 is a scenario for preventing the loss of belongings of a user.
  • the main controller 170 may acquire data on belongings of the user through the input device 200.
  • the main controller 170 may acquire motion data of the user through the input device 200.
  • the main controller 170 may determine whether the user leaves the belongings based on the data and the movement data of the belongings.
  • the main controller 170 may control to output an alarm regarding belongings based on at least one of the display system 400 and the sound output unit 490.
  • the thirteenth scenario S123 is a getting off report scenario.
  • the main controller 170 may receive the disembarkation data of the user through the input device 200. After the user gets off, the main controller 170 may provide the report data according to the getting off to the mobile terminal of the user through the communication device 300.
  • the report data may include the entire vehicle 10 usage fee data.
  • FIG. 11 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may acquire image data in a cabin from an internal camera 251.
  • the processor 171 may generate occupant information in the cabin based on the image data in the cabin.
  • the processor 171 may provide boarding personnel information to the mobile terminal 390 through the communication device 300.
  • the mobile terminal 390 may display boarding personnel information.
  • the user may check the displayed passenger information and determine whether to ride in consideration of the presence of a passenger.
  • FIG. 12 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may set layouts of a plurality of sheets according to the first information and the second information.
  • the plurality of sheets may be formed modular. Each of the plurality of sheets may be formed to be deformable. The plurality of sheets may be formed to be movable respectively.
  • the seat system 600 may include at least one driving device. The drive device can provide a driving force to deformation or movement of each of the plurality of sheets.
  • the processor 171 may deform or move at least one 1211 of the plurality of sheets based on the information of the user's luggage 1213 to store the luggage inside the cabin ( 1212 may provide a control signal for securing.
  • the processor 171 may deform at least one of the plurality of seats 1221 based on the user's car seat 1222 usage information to fix the car seat in the cabin. It can provide a control signal to secure the.
  • the car seat usage information of the user may be included in the first information or the second information.
  • the processor 171 may move or modify at least one of the plurality of sheets 1232 and 1233 based on the business sheet (eg, private sheet) request information to change the business. Sheets can be provided.
  • the processor 171 may provide a control signal for providing the wall 1234 to distinguish the space of the business sheet from other spaces inside the cabin.
  • the business sheet request information may be included in the first information or the second information.
  • FIG. 13 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may further include guide lighting 1312 and 1322.
  • the guide lighting 1312 and 1322 may be disposed on at least one of a floor, a ceiling, a door, and a seat in the cabin.
  • the processor 171 may detect the boarding of the first user.
  • the processor 171 may detect the boarding of the first user based on the image data received from the internal camera 251 and the external camera 252.
  • the processor 171 may provide a control signal to the guide writing 1312 so that guide light is output from the door to the first boarding seat when the first user is boarded.
  • the guide writing 1312 may include a plurality of light sources from the door to the first sheet 1311.
  • the processor 171 may control the guide lighting 1312 so that the plurality of light sources are sequentially turned on, thereby providing an animation effect.
  • the processor 171 may control the guide writing 1322 so that a light source disposed around the first sheet 1321 is turned on when the first user's boarding is detected.
  • FIG. 14 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may provide a control signal to at least one of a display and a speaker so that the first content corresponding to the first information is output. For example, when the first user requests a highlight output 1410, the processor 171 may display at least one display 411 of a highlight image of a team preferred by the first user based on the first user information. Can be marked on. The preferred team of the first user may be included in the first information.
  • the processor 171 may divide the display area of the display 411.
  • the processor 171 may divide the display area of the display 411 into a first area and a second area.
  • the processor 171 may control to display the first content corresponding to the first information on the first area 1421 of the display 411.
  • the processor 171 may control to display the second content corresponding to the second information on the second area 1422 of the display 411. If the second content is the same as the first content, the processor 171 may display the first content in the entire area of the display 411.
  • the processor 141 may divide the display 411 into a plurality of areas by default.
  • the processor 141 may divide the display 411 into a content display area 1420 and a user interface area 1430.
  • the processor 171 may display the above-described user request content in the content display area 1420.
  • the content display area 1420 may be divided into a first area 1421 and a second area 1422.
  • the user interface area 1430 may be a display area in response to a user request.
  • the processor 171 may output a user interface screen to the user interface area 1430.
  • the processor 171 may output the artificial intelligence agent screen to the user interface area 1430.
  • the processor 171 when the input device 200 receives a user input, the processor 171 indicates that the user input has been received and replaces the first graphic object displayed in the user interface area 1430 with the second graphic object. You can change it.
  • the first graphic object and the second graphic object may be implemented by animation.
  • 15 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may select a product based on an electrical signal received from at least one of the communication device 300, the internal camera 251, and the input device 300.
  • the user's intention to select a product may be converted into an electrical signal through at least one of the mobile terminal 390, the communication device 300, the internal camera 251, and the input device 300.
  • the processor 171 may select a product required by the user based on the electrical signal converted by the user's intention.
  • the processor 171 may provide a signal to the cargo system such that the selected product is provided.
  • the cargo system 171 may open a cargo box in which the selected goods are embedded and provide the goods.
  • the input device 200 may receive a user input and convert it into a first electrical signal.
  • the touch sensor included in the touch input unit 210 may convert a user's touch input into an electrical signal.
  • the gesture sensor 221 included in the gesture input unit 220 may convert a user's gesture input into an electrical signal.
  • the jog dial 231 included in the mechanical input unit 230 may convert a user's mechanical input into an electrical signal.
  • the microphone 241 included in the voice input unit 240 may convert the voice input of the user into an electrical signal.
  • the display system 400 may display a product menu on at least one display based on the electrical signal converted by the input apparatus 200. While the product menu is displayed on the display, the input apparatus 200 may receive a user input for selecting a product. The input apparatus 200 may convert a user input for selecting the first product into a second electrical signal.
  • the cargo system 500 may control the sliding mechanism to move the box into the cabin based on the second electrical signal.
  • the cargo system 500 may control the lifting mechanism to allow the first product to be exposed inside the cabin based on the second electrical signal.
  • the cargo button 549 may convert a user input into an electrical signal.
  • the cargo system 500 may control the sliding mechanism to move the box into the cabin based on the electrical signal.
  • the cargo system 500 may control the lifting mechanism to allow a plurality of goods to be exposed into the cabin based on the electrical signal.
  • the sliding mechanism may be operated according to a control signal received from the processor 171.
  • the sliding mechanism can slide the cargo box.
  • the sliding mechanism can slide the cargo box from the hidden space inside the seat to the cabin.
  • the sliding mechanism may include a driving unit, a power switching unit, and a driving force transmission unit.
  • the driver may convert electrical energy into kinetic energy.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the cargo box.
  • the power switching unit can switch the power of the rotary motion to the power of the linear motion.
  • the driving force transmission unit may provide the converted power to the cargo box.
  • the sliding mechanism may further comprise a rail.
  • the cargo box can slide along a rail based on the power transmitted by the driving force transmission unit.
  • the lifting mechanism may be operated according to a control signal received from the processor 171.
  • the lifting mechanism can lift the shelf that is placed in the cargo box.
  • the lifting mechanism may include a drive unit, a power converter, and a drive force transmission unit.
  • the driver may convert electrical energy into kinetic energy.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the shelf. For example, the power switching unit can switch the power of the rotary motion to the power of the linear motion.
  • the driving force transmission unit may provide the converted power to the shelf.
  • the shelf can lift the movement based on the power transmitted by the drive force transmission portion.
  • 16 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the input device 200 may further include a jog dial device 1610.
  • the jog dial device 1610 may include, at least in part, a gesture sensor capable of converting a user's gesture input into an electrical signal.
  • the jog dial device 1610 may be formed to be withdrawn from at least one of a seat, an armrest, and a door.
  • the jog dial device 1610 may receive a mechanical input in a state 1610a protruding from the armrest.
  • the jog dial device 1610 can function as the mechanical input unit 230.
  • the gesture input may be received.
  • the jog dial device 1610 may function as the gesture input unit 220.
  • the input device 300 may further include a lifting (rising and falling) mechanism.
  • the lifting mechanism may be operated based on the control signal of the processor 171.
  • the lifting mechanism may include a driving unit, a power switching unit, and a power transmission unit.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit can convert the generated driving force into a power suitable for the movement of the jog dial device.
  • the power transmission unit may transmit the converted power to the jog dial device.
  • the processor 171 may provide a control signal for adjusting the jog dial device to rise or fall in response to the seating position.
  • the processor 171 may provide a control signal to the elevating mechanism such that the jog dial device is in a flat state with the surrounding structure (eg, the seat, the armrest, the door).
  • the lifting mechanism can raise the jog dial device.
  • the state of the jog dial device may be the first state 1610a.
  • the jog dial device may function as the mechanical input unit 230.
  • the processor 171 may provide a control signal to the lifting mechanism so that the jog dial device protrudes relative to the surrounding structure.
  • the elevating mechanism can lower the jog dial device.
  • the state of the jog dial device may be the second state 1610b. In the second state 1610b, the jog dial device may function as the gesture input unit 220.
  • the processor 171 displays the operation guide image displayed on the top of the jog dial device on the side of the jog dial device.
  • a control signal for displaying can be provided.
  • the user's seating position may be divided into a first seating position and a second seating position.
  • the first seating position may be defined as a sitting position on the seat
  • the second seating position may be defined as a lying position on the seat.
  • the first seating position may be described in a relatively higher posture than the second seating position
  • the second seating position may be described in a relatively lower posture than the first seating position.
  • 17 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may provide an interface for the disabled based on the first information. As illustrated at 1710, the processor 171 may implement a haptic interface for the visually impaired on one surface of the jog dial device. For example, the processor 171 may three-dimensionally implement an operation guide display on one surface of the jog dial device.
  • the cabin system 100 may include a turntable 1721.
  • the processor 171 may obtain information about the wheelchair through the imaging apparatus 250. When it is determined that the wheelchair is positioned on the turntable 1721, the processor 171 may rotate the turntable 1721 in the direction of the boarding seat of the user who rides the wheelchair.
  • FIG. 18 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the input device 200 may include at least one beam foaming microphone 1801, 1802, 1803, and 1804.
  • the processor 171 may classify a voice input through the beam forming microphones 1801, 1802, 1803, and 1804 into a voice of a first user and a voice of a second user.
  • the input device 200 may include a plurality of beam forming microphones 1801, 1802, 1803, and 1804 disposed around each of the plurality of sheets.
  • the number of beam forming microphones 1801, 1802, 1803, and 1804 may correspond to the number of sheets.
  • the input device 200 may include one beam forming microphone.
  • the first beamforming microphone 1801 may receive a first voice 1811 of the first user 1810.
  • the first beamforming microphone 1801 may receive a second voice 1821 of the second user 1820.
  • the first beamforming microphone 1801 may receive a first voice 1831 of the third user 1830.
  • the processor 171 may distinguish the first user 1810, the second user 1820, and the third user 1830 based on the location of the talker determined based on the two microphones included in the beamforming microphone. have.
  • the processor 171 may use the first voice 1811, the second voice 1821, and the third voice based on the positions of the first user 1810, the second user 1820, and the third user 1830. (1831) Each can be distinguished.
  • the processor 171 may generate a control signal based on the divided voice inputs of the plurality of users.
  • 19 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the input apparatus 200 may receive a first input of the first user 1810 and a second input of the second user 1820, respectively.
  • the first input and the second input may be inputs for requesting content output.
  • the first input and the second input may respectively correspond to different content.
  • the first input may be an input for requesting the output of the first content
  • the second input may be an input for requesting the output of the second content.
  • the processor 171 may divide the display area of the display 411 into the first area 1910 and the second area 1920.
  • the processor 171 may display first content corresponding to the first input in the first area and display second content corresponding to the second input in the second area.
  • Both the first input and the second input may correspond to the first content.
  • the first input and the second input may be inputs for requesting output of the first content.
  • the processor 171 may display the first content in the entire display area of the display 411.
  • 20 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may detect the belongings 2010 of the first user from an image inside the cabin.
  • the processor 171 may receive image data from the indoor camera 251.
  • the processor 171 may detect the belongings 2010 of the first user based on the image data. For example, the processor 171 may detect an increase in volume according to the belongings 2010 and detect the belongings.
  • the processor 171 may determine whether the first user gets off the belongings based on the image inside the cabin.
  • the processor 171 may detect the disposition motion of the belongings 2010 placed on the sheet or the floor and the first user based on the image data from the indoor camera 251.
  • the processor 171 may generate an alarm 2020 or 2030 through at least one of a display of the display system 400 and a speaker of the sound output unit 490. ) Can be printed.
  • 21 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the vehicle 10 may be operated according to a wave motion of an external user.
  • the vehicle 10 may detect the user's wave motion 2111 through a camera included in the object detecting apparatus.
  • the vehicle 10 may output the first light 2101 to the road surface in the direction of the user through the light output device.
  • the first light 2101 may be understood as light for notifying other nearby vehicles or pedestrians that the vehicle 10 approaches the user.
  • the vehicle 10 may output the second light 2121 around the user through the light output device.
  • the second light 2121 may be understood as light for notifying a user of a boarding position.
  • the vehicle 10 may transmit boarding location information to the user's mobile terminal 390.
  • the mobile terminal 390 may display the boarding location information in augmented reality. Through this process, the user can use the vehicle 10 without a separate reservation.
  • 22 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the external camera 252 may capture a user.
  • the processor 252 may obtain information of the user based on the image data obtained by the external camera 252.
  • the processor 252 may obtain body information, luggage information, and passenger information of the user based on the image data of the external camera 252.
  • the processor 252 may specify a user based on the image data of the external camera 252.
  • the cabin system 100 may further include an external display 2210.
  • the external display 2210 may be classified as a sub configuration of the display system 400.
  • the external display 2210 may be disposed at a portion outside the door.
  • the processor 171 may provide a pre-boarding screen of the user through the external display 2210.
  • the processor 171 may display a screen for confirming user information or a user recognition completion screen on the external display 2210.
  • FIG. 23 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide various riding modes to a user.
  • the processor 171 may provide the user with the selected mode based on the user input.
  • the mode selection may be made before boarding the vehicle 10 via the mobile terminal 390.
  • the mode selection may be made by the user through the input device 200 in the cabin interior.
  • the cabin system 100 may further include an optical output device.
  • the light output device may include a plurality of light sources disposed corresponding to each of the plurality of sheets.
  • the processor 171 may provide a sleep mode 2310 according to the sleep mode selection input. When the sleep mode is selected, the processor 171 may control the light output device such that light is not output toward the user. For example, the processor 171 may provide the reading mode 2320 according to the reading mode selection input. When the reading mode is selected, the processor 171 may control the optical output device to output light toward the user.
  • the processor 171 may provide the multimedia mode 2330 according to the multimedia mode selection input.
  • the processor 171 may provide multimedia content to the user.
  • the processor 171 may provide at least one of drama, movie and TV program, and music video.
  • the processor 171 may provide content having a running time time corresponding to the movement time of the user.
  • the processor 171 may provide game content.
  • the processor 171 may provide a game interface to each of the plurality of users so that the plurality of users may use one game.
  • 24 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may further include a light output area 2410.
  • Light output area 2410 may be disposed around display 413 of display system 400.
  • the light output area 2410 may be disposed at both sides of the edge of the display 413.
  • the processor 171 may control the light output pattern of the light output area 2410 disposed on both sides of the display 413 of the display system 400.
  • the processor 171 may control the color of the light output for each part of the light output area 2410 to be changed.
  • the processor 171 may receive driving speed data of the vehicle 10 from at least one electronic device mounted in the vehicle 10 through the interface unit 180.
  • the processor 171 may control the light output pattern of the light output area 2410 based on the travel speed data.
  • the processor 171 may control the speed at which the color of light output for each part of the optical output device 2410 is changed based on the traveling speed data. Through such control, a user who views the content output from the display 413 can recognize the movement of the vehicle 10 so as not to feel motion sickness.
  • 25 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may display information related to a terrain driving on the display 412 of the display system 400.
  • the processor 171 may display the content displayed on the display 412 of the display system 400 in association with the driving terrain.
  • the processor 171 may receive data about whether the vehicle 10 passes a bump from at least one electronic device mounted in the vehicle 10 through the interface unit 180. Can be.
  • the processor 171 may change the position of the content display area based on the data about the bump. Through such control, a user who views the content output from the display 413 can recognize the movement of the vehicle 10 so as not to feel motion sickness.
  • 26 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the display system 400 may further include window screens 2613 and 2614.
  • the window screen may be provided in at least one area of the windows 2611 and 2612 of the vehicle.
  • the window screen may be implemented as a transparent display.
  • the processor 171 may provide a control signal to the window screen.
  • the window screens 2613 and 2614 may be provided in plural in the windows 2611 and 2612 adjacent to each of the plurality of sheets.
  • the processor 171 may display the contents requested by each of the plurality of users on the plurality of window screens 2613 and 2614, respectively.
  • the processor 171 may display the content requested by the user on the window screens 2613 and 2614 closest to the user.
  • the processor 171 may display the first content requested by the first user 2616 on the first window screen 2613 closest to the first user 2616.
  • the processor 171 may display the second content requested by the second user 2617 on the second window screen 2614 closest to the second user 2615. The user can watch the content displayed on the window screen 2614 while looking out of the windows 2611 and 2612.
  • the window screen 2622 may implement a blind function.
  • the window screen 2622 may adjust the amount of light transmitted to the window 2621.
  • the processor 171 may control the window screen 2622 based on the user input.
  • the processor 171 may control the window screen 2622 such that at least a portion of the blind area is removed 2624 based on a user touch or gesture 2623 with respect to the window screen 2622.
  • FIG. 27 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the processor 171 may transmit data related to the user's use of the cabin system to the mobile terminal 390 through the communication device 300.
  • the processor 171 may transmit the moving path of the user, the type of the user's use function, and the fee information according to the use to the mobile terminal 390.
  • the mobile terminal 390 may display data related to the use of the cabin system.
  • the cabin system 100 may provide a parental notification function.
  • the processor 171 may transmit the situation information of the occupant 2810 to the terminal 2830 of the user 2820 through the communication device 300.
  • the user 2820 may be a guardian of the occupant 2810.
  • the user 2820 may reserve the vehicle 10 for the occupant 2810 and request information of the occupant 2820.
  • the processor 171 may transmit the boarding information, the location information, and the getting off information of the occupant 2810 to the terminal 2830 of the user 2820.
  • the processor 171 may transmit an image of the occupant 2810 captured by the internal camera 251 and the external camera 252 to the terminal 2830 of the user 2820.
  • the terminal 2830 may display the information provided from the cabin system 100.
  • 29 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide a shopping function and a hotel reservation function.
  • the processor 171 may display shopping content 2911 and 2914 received by the shopping server through the display of the display system 400.
  • the processor 171 may receive the product purchase inputs 2912 and 2913 associated with the shopping contents 2911 and 2914 through the input apparatus 200.
  • the processor 171 may transmit the product purchase input data of the user to the shopping server through the communication device 300.
  • the shopping contents 2911 and 2914 may relate to a product associated with a product provided by the cargo system 500.
  • the processor 171 may transmit purchase input data including the discounted price data to the shopping server.
  • the processor 171 may display the hotel reservation content 2921 received by the hotel server through the display of the display system 400.
  • the processor 171 may receive a hotel reservation input through the input device 200.
  • the processor 171 may transmit the hotel reservation input data to the hotel server through the communication device 300.
  • FIG. 30 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide a movie screening function on an external screen.
  • the processor 171 may provide a control signal to an external optical output device of the vehicle 10.
  • the processor 171 may provide a control signal such that the selected content is projected by the external light output device toward the external screen.
  • 31 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide a collision alarm function with an external vehicle object.
  • the processor 171 may receive data about objects around the vehicle 10 from the external object detecting apparatus.
  • the processor 171 may acquire data on whether the user gets off from at least one of the input apparatus 200, the imaging apparatus 250, the communication apparatus 300, the sheet system 600, and the memory 175. Can be.
  • the processor 171 may output an alarm 3112 when a dangerous object exists around the vehicle 10 in a state where data regarding whether the user gets off or not is obtained. In this case, the processor 171 may output the surrounding image of the vehicle 10.
  • the display system 400 can further include an external display.
  • the external display may be disposed on a portion of the exterior of the vehicle 10.
  • the processor 171 may output the alarm 3112 to the external display when data regarding whether the user gets off or not is obtained.
  • the processor 170 may receive data about an operation of the vehicle 10 from at least one electronic device included in the vehicle 10 through the interface unit 180.
  • the processor 171 may display content on an external display based on data about the operation of the vehicle 10.
  • the processor 171 may display the alarm 3112 on the external display when data regarding the stop of the vehicle 10 is obtained.
  • FIG 32 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide a function of interworking with the personal mobile device 3220.
  • the processor 151 may exchange signals with the management server through the communication device 300.
  • the processor 151 may receive information about the available personal mobile device 3220 from the management server.
  • the processor 151 may make a request to the management server so that the personal mobile device 3320 may be arranged at the drop off location based on the destination information.
  • the processor 151 may provide information about the available personal mobile device 3320 through at least one of the display system 400 and the sound output unit 490.
  • the processor 151 may provide information on the available personal mobile device 3320 through the communication device 300 and the mobile terminal 390.
  • the information about the mobile device 3320 may include at least one of location information, availability information, residual energy information, and movable distance information of the mobile device 3320.
  • FIG 33 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide a function interworking with an air service.
  • the processor 151 may exchange signals with the management server through the communication device 300.
  • the processor 151 may receive at least one of flight plan departure information and flight arrival schedule information from the management server.
  • the processor 151 may set an airport arrival time based on at least one of the flight departure schedule information and the flight arrival schedule information.
  • the processor 171 may provide a control signal for the vehicle 10 to arrive at the airport at a set time.
  • 34 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide a cleaning function.
  • the cabin system 100 may further include an automatic cleaning system.
  • the processor 171 may provide a control signal to the automatic cleaning system to perform automatic cleaning during the downtime of the cabin system 100.
  • the processor 171 may irradiate an ultraviolet (ultraviolet) 3410 inside the cabin to manage a sanitary state inside the cabin.
  • 35 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may provide an advertisement function using an external display.
  • the display system 400 may further include an external display.
  • the processor 171 may receive advertisement data from the advertisement server through the communication device 300.
  • the processor 171 may provide a control signal so that the content based on the advertisement data is displayed on the external display.
  • 36 is a view referred to for explaining the operation of the cabin system according to an embodiment of the present invention.
  • the cabin system 100 may further include a trunk 3510.
  • the trunk 3510 may be formed in a module form.
  • the trunk 3510 formed in a modular form may be replaced according to user information.
  • an additional battery pack may be embedded in the first trunk.
  • the second trunk may be a cargo box containing goods.
  • the third trunk may be embedded with a styler for managing clothes.
  • the space formed in the vehicle 10 may accommodate the modular trunk 3510.
  • a modular trunk 3510 adapted to user information may be provided to provide appropriate functions to user requests.
  • FIG. 37 is a control block diagram of a payment system according to an embodiment of the present invention.
  • the payment system 700 may include an input device 200, an imaging device 250, a communication device 300, a display system 400, an audio output unit 500, a cargo system 500, The sheet system 600 and the electronic device 710 may be included. According to an embodiment, the payment system 700 may omit some of the components listed above or further include other components.
  • the input device 200, the image device 250, the communication device 300, the display system 400, the sound output unit 500, the cargo system 500, and the seat system 600 are referred to FIGS. 1 to 37. The description described above may be applied.
  • the electronic device 710 may perform a charging operation for the vehicle occupant.
  • the electronic device 710 may include at least one interface unit 716, at least one processor 717, at least one memory 718, and a power supply unit 719.
  • the interface unit 716 may exchange signals with at least one electronic device mounted in the vehicle 10.
  • the interface unit 716 may exchange signals with at least one electronic device provided in the cabin system 100 by wireless or wired.
  • the interface unit 716 may include an input device 200, an imaging device 250, a communication device 300, a display system 400, an audio output unit 490, a cargo system 500, and a seat system 600. You can exchange signals with at least one.
  • the interface unit 716 may be electrically connected to the processor 717 to provide the received signal to the processor 717.
  • the interface unit 716 may be configured of at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and an apparatus.
  • the interface unit 716 may exchange signals with at least one internal camera 251 for capturing an image in the cabin.
  • the internal camera 251 may be provided in plural so as to photograph each of a plurality of users using a plurality of sheets.
  • the interface unit 716 may exchange signals with the plurality of internal cameras 251.
  • the internal camera 251 may be one.
  • the internal camera 251 may be disposed on the ceiling to photograph a plurality of users.
  • the interface unit 716 may exchange signals with one internal camera 716.
  • the interface unit 716 may receive a signal according to a user's seat detection from the seat system 600.
  • the seat system 600 may include a sensor (eg, a weight sensor) that detects a user's seat.
  • the interface unit 716 may receive a signal according to a seat detection from a sensor of the seat system 600.
  • the interface unit 716 may exchange signals with at least one external camera 252 that captures an image of the outside of the vehicle.
  • the processor 717 may control the overall operation of each unit of the electronic device 710.
  • the processor 717 may be electrically connected to the interface unit 716, the memory 718, and the power supply unit 719.
  • the processor 717 may be described as one of a plurality of sub controllers constituting the main controller 170.
  • the processor 717 may be driven by the power supplied from the power supply 719.
  • the processor 717 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers.
  • controllers micro-controllers
  • microprocessors microprocessors
  • microprocessors may be implemented using at least one of the electrical unit for performing other functions.
  • the processor 717 may receive image data from at least one internal camera 251 through the interface unit 716.
  • the image data may be an image photographed inside the cabin.
  • the processor 717 may detect the user based on the image data.
  • the processor 717 may detect the motion of the user based on the image data.
  • the processor 717 may receive image data from an internal camera assigned to the seat of the user specified among the plurality of internal cameras.
  • the processor 717 classifies an image of an area corresponding to the specified seat of the user based on the image data received from one internal camera. Can be processed.
  • the processor 717 may generate charging data based on the detected motion of the user.
  • the charging data may be data for charging a user.
  • the billing data may include at least one of user information, used service information, price information, and fee payment means information.
  • the processor 717 may specify a user to be charged based on the image data acquired through the internal camera 251.
  • the processor 717 can specify any one of the plurality of users as the user to be charged based on the video data.
  • the processor 717 may specify a user to be charged based on the image data acquired through the external camera 251.
  • the processor 717 may receive a signal according to a user's seating detection from the seat system 600 through the interface unit 716.
  • the processor 717 may specify a user to be charged based on the signal according to the seat detection.
  • the processor 717 may compare the image data before the user boarding with the image data after the user boarding.
  • the processor 717 may track the motion of the user through image data comparison.
  • the processor 717 may determine whether the detected user motion corresponds to at least one of a motion that causes contamination, a vandalism motion, and a stolen motion.
  • the processor 717 may perform motion tracking of the specified user through computer image processing.
  • the processor 717 may determine whether the specified user motion corresponds to at least one of a motion causing damage, a vandalism motion, and a stolen motion based on the motion to be tracked.
  • the processor 717 may receive motion data of the vehicle through the interface unit 716.
  • the processor 717 may compare the viewpoint of the pollution cause motion of the user with the viewpoint of the motion of the vehicle to determine whether the contamination cause motion of the user is based on the vehicle motion. For example, the processor 717 may determine whether a motion in which the user spills the beverage occurred as the vehicle passes the road surface object (eg, bump). If it is determined that the pollution cause motion of the user is based on the motion of the vehicle, the charging data may not be generated or the charging data of the discounted amount may be generated.
  • the road surface object eg, bump
  • the processor 717 may determine whether the pollution cause motion is due to a product purchased in the cabin. For example, the processor 717 may determine whether the pollution cause motion occurs by leaving the container of the drink purchased by the user in the cabin. If it is determined that the user's contamination cause motion is due to a product purchased in the cabin, the processor 717 may not generate charging data or generate charging data of a discounted amount.
  • the processor 717 may receive image data from at least one of the internal camera 251 and the external camera 252.
  • the processor 717 may generate body profile data of the user based on image data received from at least one of the internal camera 251 and the external camera 252.
  • the body profile data may include at least one of body size information of the user, characteristic information of the user's body (for example, body shape information of the user and information on whether the user is disabled).
  • the processor 717 may track the user's motion based on the user's body profile data.
  • the processor 717 may determine whether the specified user motion corresponds to at least one of a motion causing damage, a vandalism motion, and a stolen motion based on the motion to be tracked.
  • the processor 717 may determine whether to purchase the goods located in the cargo box, based on the motion of the user.
  • a cargo box may be provided in the cabin to provide goods to the user.
  • the cargo box may be formed to be withdrawn from at least a portion of the seat in a state where a plurality of goods are embedded.
  • the processor 717 may specify the direction of the hand approaching the goods located in the cargo box in the image data.
  • the processor 717 can specify a user to be charged based on the direction of the hand. For example, when it is determined that the direction of the hand is directed from the first seat to the cargo box, the processor 717 may specify the occupant of the first seat as the user to be charged.
  • the processor 717 may detect a product selection motion and a product opening motion of the user specified in the image data. When the product selection motion and the product opening motion are detected in the image data, the processor 717 may determine that the specified user purchases the product. The processor 717 may generate charging data including the purchased product price information.
  • the processor 717 may receive the sensing data from the weight sensor included in the cargo box through the interface unit 716. The processor 717 may determine whether the user selects a product based on the received sensing data.
  • the cargo box may include a light emitting device.
  • the light emitting device may include a plurality of light sources disposed corresponding to each of the plurality of products.
  • the light emitting device may change the output light of any one of the plurality of light sources in response to a signal corresponding to selection of any one of a plurality of products.
  • the processor 717 may determine that the specified user selects a product in the pocket.
  • the processor 717 may provide a signal for outputting product selection information to at least one other electronic device included in the vehicle 10 through the interface unit 716. Can be. At least one of the display system 400 and the sound output unit 490 may output product selection information based on the provided signal. The mobile terminal 390 of the user may output product selection information based on a signal provided through the communication device 300. When a motion of opening a product is detected, the processor 717 may provide a signal for outputting product purchase information to at least one other electronic device included in the vehicle 10 through the interface unit 716. Can be. At least one of the display system 400 and the sound output unit 490 may output product purchase information based on the provided signal. The mobile terminal 390 of the user may output product purchase information based on a signal provided through the communication device 300.
  • the processor 717 may determine to cancel the purchase of the product when a motion of selecting the product from the image data and then moving the product back to the cargo box is detected.
  • the processor 717 may store the image data, which is the basis for charging, in the memory 718.
  • the processor 717 may transmit the charging data to the mobile terminal 390 of the user through the interface unit 716 and the communication device 300.
  • the processor 717 may transmit the image data stored to the mobile terminal 390 of the user together with the charging data through the interface unit 716 and the communication device 400. By checking the image received by the mobile terminal 390, the user can grasp the cause of the charging.
  • the processor 717 may generate charging data based on at least one of a driving operation and a service providing operation of the vehicle.
  • the fee according to the driving operation of the vehicle may be defined as the driving fee of the vehicle from when the specified user gets on to getting off.
  • the fee according to the service providing operation may include at least one of a massage function providing service of a seat, an air conditioning and heating service of a vehicle, a content providing service through the display system 400, and a private space providing service.
  • the processor 717 may transmit the charging data to the payment server.
  • the payment server may charge the specified user based on the charging data.
  • the billing data may include card data of the user.
  • the settlement server may charge based on the card data.
  • the charging data may include mobile terminal data of the user.
  • the payment server may charge using the mobile terminal.
  • the processor 717 may receive the billing processing result data from the payment server through the interface unit 716 and the communication device 300.
  • the processor 717 may provide a signal to the display system 400 so that charging result information may be displayed based on the charging process result data.
  • the processor 717 may detect the getting off operation of the user based on the image data received from at least one of the internal camera 251 and the external camera 252. The processor 717 may transmit the charging data to the payment server when the user's getting off operation is detected.
  • the memory 718 is electrically connected to the processor 717.
  • the memory 718 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data.
  • the memory 718 may store data processed by the processor 717.
  • the memory 718 may be configured in at least one of a ROM, a RAM, an EPROM, a flash drive, and a hard drive in hardware.
  • the memory 718 may store various data for operations of the entire electronic device 710, such as a program for processing or controlling the processor 717.
  • the memory 718 may be integrally implemented with the processor 717.
  • the memory 718 may be driven by the power supplied from the power supply unit 719.
  • the power supply unit 719 may supply power to the electronic device 710.
  • the power supply unit 719 may receive power from a power source included in the vehicle 10, and supply power to each unit of the electronic device 710.
  • the power supply unit 719 may be operated according to a control signal provided from the processor 717.
  • the power supply unit 719 may be implemented with a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the electronic device 710 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the interface unit 716, the processor 717, the memory 718, and the power supply unit 719 may be mounted on at least one printed circuit board.
  • the payment system 700 is operated (S1205).
  • the processor 717 may generate reference data through indoor monitoring (S1210).
  • the processor 717 may receive various data from various electronic devices in the cabin through the interface unit 716.
  • the processor 717 may generate reference data based on the received data.
  • the processor 717 may acquire image data through at least one of the indoor camera 251 and the external camera 252.
  • the processor 717 may generate reference data based on the image data.
  • the processor 717 may include the posture data of the seat, the basic volume data of the seat, the data on the degree of contamination of the seat, the operation status data of the equipment in the cabin, the data on whether the equipment in the cabin is broken, and the cargo box. Reference data for at least one of the inventory data may be generated.
  • the processor 717 may determine whether the cabin system 100 operates normally (S1215). The processor 717 may determine whether the cabin system 100 is operating normally, based on the data received.
  • the processor 717 sends an error result to the control server and signals the ECU (Electronic Control Unit) of the vehicle 10 to move the vehicle 10 to a repair center. Can be provided (S1220).
  • ECU Electronic Control Unit
  • the processor 717 may determine whether a user (eg, a passenger) is on the basis of the received data (S1225). For example, the processor 717 may determine whether the user rides on the basis of the image data received from at least one of the internal camera 251 and the external camera 252. If it is determined that the user does not board, return to step S1210.
  • a user eg, a passenger
  • the processor 717 may determine whether the user rides on the basis of the image data received from at least one of the internal camera 251 and the external camera 252. If it is determined that the user does not board, return to step S1210.
  • the processor 717 may determine the boarding position of the user based on the received data (1230). For example, the processor 717 may determine the boarding position of the user based on the image data received from the internal camera 251. The processor 717 may identify the user by identifying the boarding position of the user.
  • the processor 717 may monitor the motion of the user (S1235). For example, the processor 717 may monitor the motion of the user based on the image data received from the internal camera 251.
  • the processor 717 may determine whether the motion of the user is a service use motion (S1240). For example, the processor 717 may determine whether the motion of the user is a motion using the massage function of the seat, whether the motion is using the content of the display system 400, and a business class (eg, using a private space service). It may be determined whether it is a motion to be used or a motion to purchase goods of a cargo box.
  • a service use motion S1240.
  • the processor 717 may determine whether the motion of the user is a motion using the massage function of the seat, whether the motion is using the content of the display system 400, and a business class (eg, using a private space service). It may be determined whether it is a motion to be used or a motion to purchase goods of a cargo box.
  • the processor 717 may specify the content of the service and the service user (S1245). For example, the processor 717 may specify the content of the service and the service user based on the image data received from the internal camera 251. For example, the processor 717 may specify a service using user based on the sensing data received from the seat system.
  • the processor 717 may charge a fee corresponding to the service used for the specified user (S1225).
  • the processor 717 may generate first charging data based on the detected motion of the user.
  • the first billing data may include at least one of specified user information, used service information, fee information, and payment means information.
  • the processor 717 may determine whether the passenger gets off based on the received data (S1225). For example, the processor 717 may determine whether the passenger is getting off, based on the image data received from at least one of the internal camera 251 and the external camera 252.
  • the processor 717 may generate second charging data based on a fare according to the driving operation of the vehicle 10 (S1260).
  • the second charging data may include at least one of specified user information, user's getting on and off location information, moving distance information, moving time information, fare information, and payment means information.
  • the processor 717 may compare the reference data generated in operation S1210 with the image data obtained after the user gets off (S1265).
  • the processor 717 may determine whether there is a difference between the reference data and the image data acquired after the user gets off (S1270). For example, as a result of the comparison, the processor 717 may determine whether at least one of the contamination of the sheet, the damage of the items in the cabin, the theft of goods in the cabin, and the operation error of the device in the cabin.
  • the processor 717 may generate third charging data based on the difference (S1275).
  • the third billing data may include at least one of specified user information, billing generation information, billing information, and payment means information.
  • the processor 717 may transmit a signal including charging data to the payment server through the interface unit 716 and the communication device 300.
  • the charging data may include at least one of the first charging data, the second charging data, and the third charging data.
  • 39 is a flow chart referenced to explain the operation of a payment system according to an embodiment of the present invention.
  • the processor 717 enters a snack menu (S1315) and carries a signal for opening a snack bar. It may be provided to the system 500 (S1320).
  • the snack bar may be understood as the cargo box described above.
  • the processor 717 may provide a signal for opening the snack bar to the cargo system 500 (S1320).
  • the snack bar button is disposed in at least one area of the cargo box, it can be understood as a button for generating a cashier's signal.
  • the processor 717 may provide the signal roll display system 400 to return to the previous screen of the multimedia screen (S1370). If there is no previous screen, the display system 400 may output a main menu.
  • the processor 717 may determine whether the snack is taken out (S1330).
  • the snack may be understood as any one of the goods provided through the above-described cargo box.
  • the processor 717 may determine whether the snack is taken out based on at least one of the weight sensor included in the cargo box and the image data received from the internal camera 251.
  • the processor 717 can specify the taken out snack (S1335).
  • the processor 717 may provide a signal for converting the light output color of the light source corresponding to the pocket where the taken snack is located from the first color to the second color (S1340).
  • the processor 717 may identify a user who has taken out the snack and generate billing data (S1345). For example, the processor 717 may specify a user who has taken out the snack based on the image data received from the internal camera 251. The processor 717 may generate billing data including at least one of specified user information, selected snack price information, and payment means information.
  • the processor 717 may provide a signal to the display system 400 so that information about the charging data is output (S1350).
  • the display system may output information about the charging data based on the received signal.
  • the processor 717 may determine whether the selected product returns to the snack bar (S1355). The processor 717 may determine whether the selected product is returned to the snack bar based on the image data received from the internal camera 251.
  • the processor 717 may cancel the charging process.
  • the processor 717 may provide a signal for converting the light output color of the light source corresponding to the pocket where the returned snack is located from the second color to the first color.
  • the processor 717 may provide a signal for outputting payment cancellation information to the display system 400 (S1360).
  • FIG. 40 is a diagram referred to for describing an image data acquisition scenario according to an embodiment of the present invention.
  • the processor 717 may exchange signals with the seat system 600 that controls a plurality of sheets through the interface unit 716.
  • the seat system 600 may include a d-left sensor disposed on each of the plurality of sheets.
  • the processor 717 may receive the fruiting detection signal from the sheet system 717.
  • the imaging apparatus 250 may include a plurality of cameras 251 provided in a number corresponding to the number of sheets.
  • the plurality of cameras 251 may be disposed at positions where the plurality of sheets may be photographed, respectively.
  • the plurality of cameras 251 may be disposed at positions where respective users of the plurality of sheets may be photographed.
  • the first camera of the plurality of cameras may be disposed at a position corresponding to the first sheet of the plurality of sheets of the ceiling.
  • the processor 717 may exchange signals with the plurality of internal cameras 251 through the interface unit 716.
  • the processor 717 may receive a signal from the seat system 717 corresponding to a detection signal generated from the seating detection sensor disposed on the first seat. In this case, the processor 717 may receive image data from the first camera corresponding to the first sheet. The processor 717 may detect a motion of the user seated on the first sheet based on the image data received from the first camera, and perform a charging operation based on the motion of the user.
  • 41 is a diagram referred to for describing an image data acquisition scenario according to an embodiment of the present invention.
  • the processor 717 may exchange signals with the seat system 600 that controls a plurality of sheets through the interface unit 716.
  • the seat system 600 may include a d-left sensor disposed on each of the plurality of seats 611, 612, 613, and 614.
  • the processor 717 may receive the fruiting detection signal from the sheet system 717.
  • the imaging device 250 may include one camera 251.
  • the camera 251 may be disposed at a position where all of the plurality of sheets can be photographed.
  • the camera 251 may be disposed at a part of the ceiling.
  • the processor 717 may exchange signals with the camera 251 through the interface unit 716.
  • the processor 717 may receive a signal from the seat system 717 corresponding to a detection signal generated from the seating detection sensor disposed on the first seat. In this case, the processor 717 may classify and process an image of the first region corresponding to the first sheet among the regions of the image acquired from the camera 251. The processor 717 may detect the motion of the user detected in the first area and perform a charging operation based on the motion of the user.
  • the processor 717 may select a user who selects a product based on the image data acquired by the internal camera 251. For example, the processor 717 may detect a motion of catching the first product 531 located in the cargo box 530 from the image data. The processor 717 may specify the first user 721 as the purchase user of the first product 531 based on the motion of catching the first product 531 of the first user 721. For example, the processor 717 may detect the hand 721a of the first user 721 holding the first product 531. The processor 717 may specify the first user 721 as a purchase user of the first product 531 based on the movement trajectory of the hand 721a.
  • the processor 717 may detect the hand 721a of the first user 721 holding the first product 531.
  • the processor 717 may determine whether the first user 731 selects 731 the first product 531 based on the hand 721a holding the first product 531.
  • the processor 717 may detect the opening motion 732 of the first product 531.
  • the processor 717 may determine whether the first user 731 has purchased the first product 531 based on the opening motion 732 of the first product 531.
  • the processor 717 may generate charging data when it is determined that the first user 721 selects the first product 531 and purchases it.
  • the processor 717 may detect a motion of the first user 721 to return the first product 531 to the cargo box 530. The processor 717 may determine whether to cancel the purchase of the first user 721 for the first product 531 based on the motion of returning the first product 531.
  • 44 is a diagram referred to for describing an operation of displaying information according to an embodiment of the present invention.
  • the processor 717 may exchange signals with at least one of the display system 400 and the sound output unit 490 through the interface unit 716.
  • the processor 717 may determine whether to purchase the product, based on whether to select the product and whether to open the product.
  • the processor 717 may provide the display system 400 with a signal corresponding to the first product selection information of the first user.
  • the display system 400 may output the first product selection information 741 through at least one display based on the received signal.
  • the processor 717 may provide the sound output unit 490 with a signal corresponding to the first product selection information of the first user.
  • the sound output unit 490 may output first product selection information through at least one speaker based on the received signal. In this way, the first user may recognize whether the first product is selected.
  • the processor 717 may provide the display system 400 with a signal corresponding to the first product purchase information of the first user.
  • the display system 400 may output the first product purchase information 742 through at least one display based on the received signal.
  • the processor 717 may provide the sound output unit 490 with a signal corresponding to the first product purchase information of the first user.
  • the sound output unit 490 may output first product selection information through at least one speaker based on the received signal. Through this, the first user can recognize whether the first product is purchased.
  • 45 is a view referred to for describing an operation of providing information to a mobile terminal according to an embodiment of the present invention.
  • the payment system 700 may further include a mobile terminal 390.
  • the processor 717 may exchange signals with the mobile terminal 390 through the interface unit 716 and the communication device 300.
  • the processor 717 may transmit the charging data to the mobile terminal 390.
  • the billing data may include at least one of user information, billing cause information, billing fee information, and payment means information.
  • the processor 717 may transmit the image data, which is the basis of charging, together with the charging data to the mobile terminal 390.
  • the mobile terminal 390 may output charging information based on the charging data.
  • the mobile terminal 390 may output video data that is the basis of billing along with billing data.
  • the mobile terminal 390 may proceed with payment based on the billing data.
  • the processor 717 may transmit product purchase information to the mobile terminal 390 when a user purchases a product.
  • the processor 717 may transmit a signal corresponding to the first product selection information of the first user to the mobile terminal 390 of the first user.
  • the mobile terminal 390 may output first product selection information of the first user.
  • the processor 717 may transmit a signal corresponding to the first product purchase information of the first user to the mobile terminal 390 of the first user.
  • the mobile terminal 390 may output first product purchase information of the first user.
  • 46 is a diagram referred to for describing an operation of making a payment according to an embodiment of the present invention.
  • the payment system 700 may further include a payment server 391.
  • the processor 717 may exchange signals with the payment server 391 through the interface unit 716, the communication device 300.
  • the processor 717 may transmit the charging data to the payment server 391.
  • the settlement server 391 may perform settlement based on the billing data.
  • 47 is a control block diagram of a cargo system according to an embodiment of the present invention.
  • the cargo system 500 may include an input device 200, an imaging device 250, a communication device 300, a display system 400, an audio output unit 490, a seat system 600, It may include a payment system 700 and a product providing device 510. According to an embodiment, the cargo system 500 may omit some of the components listed above or further include other components.
  • FIGS. 1 to 47 The input device 200, the imaging device 250, the communication device 300, the display system 400, the sound output unit 490, the seat system 600, and the payment system 700 are referred to FIGS. 1 to 47. The description described above may be applied.
  • the product providing device 510 may be mounted on at least a portion of the vehicle 10.
  • the product providing device 510 may be referred to as a vehicle product providing device 510.
  • the product providing apparatus 510 may provide a product to a user in a cabin.
  • the product providing apparatus 510 includes at least one box 530, at least one interface unit 516, at least one processor 517, at least one memory 518, a power supply unit 519, and the like. It may include a moving mechanism 520.
  • the product providing device 510 may further include the light emitting device 525 and the refrigerating device 527 individually or in combination.
  • the box 530 may be formed to be withdrawn from at least a portion of the sheet in a state in which a plurality of products are embedded.
  • the box 530 may be hidden between the bottoms of the plurality of sheets.
  • the box 530 may be hidden between the bottom of the first sheet and the bottom of the second sheet.
  • At least one surface of the box 530 may be formed of a transparent material. Box 530 will be described in detail with reference to FIG. 49 and below.
  • the interface unit 516 may exchange signals with at least one electronic device mounted in the vehicle 10.
  • the interface unit 516 may exchange signals with at least one electronic device provided in the cabin system 100 by wireless or wired.
  • the interface unit 516 may include an input device 200, an imaging device 250, a communication device 300, a display system 400, an audio output unit 490, a seat system 600, and a payment system 700. You can exchange signals with at least one.
  • the interface unit 516 may be electrically connected to the processor 517 to provide the received signal to the processor 517.
  • the interface unit 516 may be configured of at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and an apparatus.
  • the interface unit 516 may receive a signal to which a user input is switched from at least one of the input apparatus 200, the imaging apparatus 250, and the communication apparatus 300.
  • the interface unit 516 may receive destination data of the user from the navigation device of the vehicle 10.
  • the interface unit 516 may receive position data of the vehicle 10 from the navigation device.
  • the processor 517 may control the overall operation of each unit of the product providing apparatus 510.
  • the processor 517 may be electrically connected to the interface unit 516, the memory 518, and the power supply unit 519.
  • the processor 517 may be described as one of a plurality of sub controllers constituting the main controller 170.
  • the processor 517 may be driven by the power supplied from the power supply 519.
  • the processor 517 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers.
  • controllers may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 517 may receive a signal based on a user input.
  • the processor 517 may receive a signal based on a user input from at least one of the input apparatus 200, the imaging apparatus 250, and the communication apparatus 300.
  • the processor 517 may receive a signal based on a user input from a button provided on at least one surface of the box 530.
  • the processor 517 may provide a control signal to expose at least one of the plurality of goods into the cabin.
  • the processor 517 may provide a control signal when a signal is received from at least one electronic device mounted in the vehicle.
  • the processor 517 may provide a control signal to expose at least a portion of the box that is integrated with the seat and hidden.
  • the processor 517 may provide a control signal to the moving mechanism 520 for moving the box.
  • the moving mechanism 520 may move the box according to the control signal.
  • the processor 517 may provide a control signal to the moving mechanism 520.
  • the processor 517 may provide the moving mechanism 520 with a control signal for concealing the box 530 that has exited the cabin, in accordance with the first condition.
  • the first condition may be a condition in which a user's selection of a product is not detected for a preset time or more.
  • the processor 517 may determine whether the first condition is satisfied according to the user motion data detected from the image data of the internal camera 251.
  • the processor 517 may provide a control signal for bringing at least the box 530 which has entered the seat back into the cabin, in accordance with the second condition.
  • the second condition may be a user approach detection to the box 530 or a touch detection condition for the box.
  • the processor 517 may determine whether the second condition is satisfied according to the user motion data detected from the image data of the internal camera 251.
  • the processor 517 may determine whether the second condition is satisfied according to the sensing data received from the touch sensor provided on at least one surface of the box 530.
  • the processor 517 may provide a control signal to the sliding mechanism 521.
  • the sliding mechanism 521 may slide the box 530 according to the control signal.
  • the processor 517 may provide a control signal to the lifting mechanism 522.
  • the lifting mechanism 522 may lift the shelf disposed in the box in accordance with the control signal.
  • the box 530 may include at least one shelf.
  • the box 530 may include a first shelf on which the first product is placed. When a signal corresponding to the selection for the first product is received, the processor 517 may provide the lifting mechanism 522 with a control signal for lifting the first shelf.
  • the processor 517 may provide a control signal to the light emitting device 525.
  • the plurality of products may include a first product.
  • the light emitting device 525 may include a first light source having a shape surrounding at least a portion of the first product.
  • the processor 517 provides the light emitting device 525 with a control signal for switching the color of the output light of the first light source from the first color to the second color. can do.
  • the box 530 may be composed of a plurality of boxes.
  • the processor 517 may provide a control signal for exposing goods contained in a box corresponding to the signal among the plurality of boxes. Can provide.
  • the processor 517 may receive a signal including destination data of a user from at least one electronic device mounted in the vehicle 10.
  • the processor 517 may provide a control signal for exposing a product contained in a box corresponding to the destination data among the plurality of boxes.
  • the processor 517 may provide a control signal to the refrigerating device 527.
  • the processor 517 may receive location data of the vehicle 10 from at least one electronic device mounted in the vehicle through the interface unit 516.
  • the processor 517 may control the driving of the refrigerating device based on the position data. For example, the processor 517 may control the driving of the refrigerating device according to the distance data between users who are scheduled to board the vehicle 10, calculated based on the position data of the vehicle.
  • the processor 517 may provide a control signal to increase the refrigeration performance as the distance value between the vehicle 10 and the user decreases.
  • the processor 517 may control the driving of the refrigeration apparatus according to the distance data between the vehicle 10 and the battery charging station calculated based on the position data of the vehicle. have.
  • the processor 517 may lower the refrigerating performance when the distance between the vehicle 10 and the battery charging station is greater than or equal to the reference value when the battery remaining amount is equal to or less than the reference value.
  • the memory 518 is electrically connected to the processor 517.
  • the memory 518 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data.
  • the memory 518 may store data processed by the processor 517.
  • the memory 518 may be configured in at least one of a ROM, a RAM, an EPROM, a flash drive, and a hard drive in hardware.
  • the memory 518 may store various data for the overall operation of the product providing apparatus 510, such as a program for processing or controlling the processor 517.
  • the memory 518 may be integrally implemented with the processor 517.
  • the memory 518 may be driven by the power supplied from the power supply 519.
  • the power supply unit 519 may supply power to the product providing device 510.
  • the power supply unit 519 may receive power from a power source included in the vehicle 10 and supply power to each unit of the product providing device 510.
  • the power supply unit 519 may be operated according to a control signal provided from the processor 517.
  • the power supply unit 519 may be implemented with a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the product providing device 510 may include at least one printed circuit board (PCB).
  • the interface unit 516, the processor 517, the memory 518, and the power supply unit 519 may be mounted on at least one printed circuit board.
  • the moving mechanism 520 may be operated according to a control signal received from the processor 517.
  • the moving mechanism 520 may move the box 530 from the hidden space of the box 530 to the cabin.
  • the moving mechanism 520 may move the box based on the control signal from the processor 517.
  • the moving mechanism 520 may include a driving unit (eg, a motor, an actuator, a solenoid) for providing a driving force, and a driving force transmission unit for transmitting the driving force to the box.
  • the moving mechanism 520 may further include a power switching unit for converting the driving force into the moving power of the box.
  • the moving mechanism 520 may conceal the box 530 that came out of the cabin into the seat based on the control signal from the processor 517.
  • the moving mechanism 520 may expose the box 530 that has entered the seat back into the cabin based on the control signal from the processor 517.
  • the moving mechanism 520 may include a sliding mechanism 521 and a lifting mechanism 522.
  • the sliding mechanism 521 may be operated according to a control signal received from the processor 517.
  • the sliding mechanism 521 may slide the box 530.
  • the sliding mechanism 521 may slide the box 530 from the hidden space inside the seat to the cabin.
  • Lifting mechanism 522 may be operated in accordance with a control signal received from processor 517. Lifting mechanism 522 may lift the shelf disposed in box 530. The lifting mechanism 522 may lift a plurality of shelves arranged for each product in the box 530.
  • the light emitting device 525 may be operated according to a control signal received from the processor 517.
  • the light emitting device 525 may be disposed in the box 530.
  • the light emitting device 525 may include a plurality of light sources disposed corresponding to each of the plurality of products.
  • the light emitting device 525 may change the output light of any one of the plurality of light sources according to a signal corresponding to the selection of any one of the plurality of products.
  • the refrigeration apparatus 527 may be operated according to a control signal received from the processor 517.
  • the refrigeration apparatus 527 can absorb the heat in the box 530.
  • the refrigerating device 527 absorbs heat in the box 530 according to a control signal of the processor 517 so that the refrigerating performance increases as the distance value between the vehicle 10 and the user decreases. can do.
  • the refrigerating device 527 may have a low refrigeration performance when the distance value between the vehicle 10 and the battery charging station is equal to or greater than the reference value while the battery remaining amount is equal to or less than the reference value.
  • the heat inside the box 530 may be absorbed.
  • the processor 517 may select one of a plurality of boxes located in a trunk. A box in which the selected product is embedded may be selected (S1230).
  • the processor 517 may select a box (S1220).
  • the processor 517 may select a box containing a basic package product or a box containing a recommended package product.
  • the cargo button may be understood as a button disposed in at least one area of the box to generate a cashier's signal.
  • the processor 517 may provide a control signal to the moving mechanism 520 to open the box 530 (S1235).
  • the moving mechanism 520 may move the box to open the box.
  • the processor 517 may conceal the box (S1285) and return the display screen of the display system 400 to the previous screen. (S1290).
  • the processor 517 may determine whether the first product is selected from the plurality of products (S1245). For example, the processor 517 may determine whether the first product is selected based on the image data of the internal camera 512. For example, the processor 517 may determine whether the first product is selected based on the sensing data generated by the weight sensor provided in the box. When the first product is selected, the processor 517 may determine the location of the selected first product based on at least one of the image data and the sensing data (S1250).
  • the processor 517 may convert the color of the output light of the first light source corresponding to the first product from the first color to the second color (S1255).
  • the payment system 700 or the processor 517 may specify a first user who selected the first product based on the image data of the internal camera 251, and detect the opening motion of the first product. In this case, the payment system 700 or the processor 517 may generate charging data for the first user of the first product (S1260). When the processor 517 specifies the first user and detects an opening motion of the first product to generate billing data, the processor 517 may transmit the billing data to the payment system 700.
  • the payment system 700 or the processor 517 may transmit a signal including charging data to the mobile terminal 390 of the first user in operation S1265.
  • the processor 517 may determine whether the first product is returned (S1270). For example, the processor 517 may determine whether the first product is returned based on at least one of the image data of the internal camera 251 and the sensing data of the weight sensor.
  • the processor 517 may convert the color of the output light of the first light source from the second color to the first color.
  • the processor 517 may cancel the charging process (S1275).
  • the processor 517 may provide a control signal to the moving mechanism 520 such that the box 530 is hidden in the sheet (S1280).
  • 49 is a view schematically illustrating a cabin according to an embodiment of the present invention. 50 illustrates a box according to an embodiment of the invention.
  • the product providing apparatus 510 may include at least one box 530.
  • Box 530 may be referred to as a cargo box.
  • the box 530 may be formed to be withdrawn from at least a portion of the sheets 611 and 612 in a state where a plurality of products are embedded.
  • the box 530 may be moved from inside the seat into the cabin or from inside the cabin to the seat by the force provided by the moving mechanism 520.
  • the box 530 may be exposed into the cabin by the force provided by the moving mechanism 520.
  • the box 530 may be concealed into the seats 611 and 612 by the force provided by the moving mechanism 520. Spaces for accommodating the box 530 may be formed in the seats 611 and 612.
  • the box 530 may be hidden in at least one seat interior space.
  • the box 530 may be hidden in the space between the plurality of seat bottoms.
  • the box 530 may be hidden between the bottom of the first sheet 611 and the bottom of the second sheet 612. With the box 530 hidden, the box 530 can be integrated with the seat.
  • At least one surface of the box 530 (eg, a surface exposed toward the inside of the cabin) may be formed of a material having the same color as the sheet.
  • At least one surface of the box 530 may be formed of a transparent material.
  • the surface exposed toward the inside of the cabin among the plurality of surfaces defining the box 530 may be formed of a transparent material.
  • a button 549 may be disposed on at least one surface of the box 530.
  • a button 549 may be disposed on a surface of the plurality of surfaces defining the box 530 that is exposed toward the inside of the cabin.
  • the button 549 may convert the user input into an electrical signal.
  • the converted electrical signal may be transmitted to the processor 517.
  • the processor 517 may open or close the box according to the electrical signal received at the button 549.
  • the box 530 may include a plurality of products 541b and 547b.
  • the product may be a simple food such as a beverage, snack, pasta, hamburger, or the product may be a leisure item such as a golf ball or a golf glove. There is no limit to a product.
  • Box 530 may include a plurality of pockets 541, 547.
  • a plurality of products may be placed in each of the plurality of pockets 541 and 547.
  • Side portions of the plurality of pockets 541 and 547 may be formed of a deformable material.
  • Sensors eg, weight sensors
  • Sensors for detecting the presence of goods may be disposed below the plurality of pockets 541 and 547.
  • Lower ends of the plurality of pockets 541, 547 may be in contact with the shelf. When the shelf is lifted by the lifting mechanism 522, at least a portion of the goods 541b and 547b may be exposed into the cabin while the side portions of the plurality of pockets 541 and 547 are compressed.
  • a plurality of light sources may be disposed around the openings of the plurality of pockets 541 and 547, respectively.
  • the light sources 541a and 547a may have a shape that surrounds the opening edge along the shape of the opening of the pocket.
  • the light sources 541a and 547a are sub-components of the above-described light emitting device 525 and may be controlled under the control of the processor 517.
  • the output light of the light sources 541a and 547a around the pockets 541 and 547 that accommodate the selected products may change.
  • the box 530 may include a first pocket 541.
  • the first product 541b may be placed in the first pocket 541.
  • the side portion of the first pocket 541 may be formed of a deformable material.
  • a sensor for detecting the presence of the first product 541b may be disposed below the first pocket 541.
  • the lower end of the first pocket 541 may be in contact with the shelf. When the shelf is lifted by the lifting mechanism 522, at least a portion of the first product 541b may be exposed into the cabin while the side portion of the first pocket 541 is compressed.
  • the first light source 541a may be disposed around the opening of the first pocket 541.
  • the first light source 541a may have a shape surrounding the edge of the opening along the shape of the opening of the first pocket 541.
  • 51 to 52 are views referred to to explain the moving mechanism according to the embodiment of the present invention.
  • the moving mechanism 520 may include a sliding mechanism 521 and a lifting mechanism 522.
  • the sliding mechanism 521 may include a driving unit, a power switching unit, and a driving force transmission unit.
  • the driver may convert electrical energy into kinetic energy.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the box 530.
  • the power switching unit can switch the power of the rotary motion to the power of the linear motion.
  • the driving force transmission unit may provide the converted power to the box 530.
  • the sliding mechanism 521 may further include a rail.
  • the box 530 may slidingly move through the rail based on the power transmitted by the driving force transmission unit.
  • the lifting mechanism 522 may include a driving unit, a power conversion unit, and a driving force transmission unit.
  • the driver may convert electrical energy into kinetic energy.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the shelf 531.
  • the power switching unit can switch the power of the rotary motion to the power of the linear motion.
  • the driving force transmission unit may provide the converted power to the shelf 531.
  • the shelf 531 can lift a movement based on the power transmitted by the drive force transmission part.
  • the shelf 531 may be classified into a lower configuration of the box 530.
  • the shelf 531 may accommodate at least one product 501, 502, 503, 504.
  • the shelf 531 may be integrally formed.
  • the plurality of articles 501, 502, 503, 504 may be exposed together into the cabin by the power provided by the lifting mechanism 522.
  • the shelf 531a may be formed detachably.
  • the shelf 531 can accommodate a plurality of products 501, 502, 503, 504, respectively.
  • the shelf 531 may be composed of a plurality of shelves 531a, 531b, 531c, and 531d.
  • the 1st shelf 531a can settle the 1st goods 501, and the 2nd shelf 531b can hold 2nd goods 502. As shown in FIG.
  • Each of the plurality of shelves 531a, 531b, 531c, and 531d can be individually lifted. For example, based on the signal for selecting the first product 501, the first shelf 531a may lift in accordance with the power provided by the lifting mechanism 522. In this case, only the first product 501 may be exposed inside the cabin.
  • 53 is a view referred to for describing an operation of exposing a product according to a user input according to an embodiment of the present invention.
  • the input apparatus 200 may receive a user input and convert it into a first electrical signal.
  • the touch sensor included in the touch input unit 210 may convert a user's touch input into an electrical signal.
  • the gesture sensor 221 included in the gesture input unit 220 may convert a user's gesture input into an electrical signal.
  • the jog dial 231 included in the mechanical input unit 230 may convert a user's mechanical input into an electrical signal.
  • the microphone 241 included in the voice input unit 240 may convert the voice input of the user into an electrical signal.
  • the display system 400 may display a product menu on at least one display based on the electrical signal converted by the input apparatus 200. While the product menu is displayed on the display, the input apparatus 200 may receive a user input for selecting a product. The input apparatus 200 may convert a user input for selecting the first product into a second electrical signal.
  • the processor 517 may control the sliding mechanism 521 to move the box into the cabin based on the second electrical signal.
  • the processor 517 may control the lifting mechanism 522 to allow the first product to be exposed into the cabin based on the second electrical signal.
  • the cargo button 549 may convert a user input into an electrical signal.
  • the processor 517 may control the sliding mechanism 521 to move the box into the cabin based on the electrical signal.
  • the processor 517 may control the lifting mechanism 522 so that a plurality of goods may be exposed into the cabin based on the electrical signal.
  • 54 is a view referred to for describing an operation of opening only a selected box among a plurality of boxes according to an embodiment of the present invention.
  • the product providing apparatus 510 may include a plurality of boxes 531, 532, 533, and 534.
  • the plurality of boxes 531, 532, 533, and 534 may be located in a space outside the cabin.
  • the plurality of boxes 531, 532, 533, and 534 may be located in the trunk.
  • the cabin interior is in communication with the trunk, the plurality of boxes (531, 532, 533, 534) can move from the trunk to the cabin interior or from the cabin to the trunk.
  • the trunk may be provided with a mechanism capable of circulating the plurality of boxes 531, 532, 533, 534.
  • the first box 531 may be selected according to a predetermined condition.
  • the first box 531 may be selected by default.
  • the first box 531 may be selected from among a plurality of boxes according to a user input.
  • the first box 531 may be selected according to the plurality of user preference data.
  • the first box 531 may be selected from among a plurality of boxes according to the user product purchase history data.
  • the first box 531 of the plurality of boxes may be selected according to the user destination data.
  • the selected first box 531 may move from the trunk into the cabin by the moving mechanism 520.
  • 55 is a control block diagram of a display system according to an embodiment of the present invention.
  • the display system 101 may include an interface unit 406, a processor 407, a memory 408, a power supply unit 409, a display device 410, and an audio output unit 490. Can be. According to an exemplary embodiment, the display system 101 may further include the input apparatus 200, the imaging apparatus 250, and the communication apparatus 300 individually or in combination.
  • Contents described with reference to FIGS. 1 to 55 may be applied to the input apparatus 200, the imaging apparatus 250, the communication apparatus 300, the display apparatus 410, and the audio output unit 490.
  • the description will be made mainly on the contents not described with reference to FIGS. 1 to 55.
  • the input apparatus 200 may receive a user input for manipulating the display apparatus 410 and convert the user input into an electrical signal.
  • the imaging apparatus 250 may acquire an image for detecting the motion of the user.
  • the communication device 300 may receive content to be output through the display device 410 and the sound output unit 490 from at least one of an external server, a mobile terminal, and another vehicle.
  • FIG. 55 illustrates that the input device 200, the imaging device 250, and the communication device 300 exchange signals directly with the processor 407, the input device 200, the imaging device 250, and the communication are different.
  • the device 300 may exchange signals with the processor 407 via the interface unit 406.
  • the display system 101 may be mounted on the vehicle 10.
  • the display system 101 may be referred to as a vehicle display system.
  • the display system 101 may provide a menu, multimedia content, video conference, driving situation information, and the like to a user inside the cabin.
  • the interface unit 406 may exchange signals with at least one electronic device mounted in the vehicle 10.
  • the interface unit 406 may exchange signals with at least one electronic device provided in the cabin system 100 by wireless or wired.
  • the interface unit 406 exchanges signals with at least one of the input apparatus 200, the imaging apparatus 250, the communication apparatus 300, the cargo system 500, the seat system 600, and the payment system 700. can do.
  • the interface unit 406 may be electrically connected to the processor 407 to provide the received signal to the processor 407.
  • the interface unit 406 may be configured of at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and an apparatus.
  • the interface unit 406 may exchange signals with at least one of the input apparatus 200, the imaging apparatus 250, and the communication apparatus 300.
  • the interface unit 406 may exchange signals with the internal camera 251.
  • the interface unit 406 may receive image data from the internal camera 251.
  • the processor 407 may control the overall operation of each unit of the display system 400.
  • the processor 407 may be electrically connected to the interface unit 406, the memory 408, and the power supply 409.
  • the processor 407 may be described as one of a plurality of sub controllers constituting the main controller 170.
  • the processor 407 may be driven by the power supplied from the power supply 409.
  • the processor 407 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers.
  • controllers may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 407 may receive a signal based on a user input.
  • the processor 407 may receive a signal based on a user input from at least one of the input apparatus 200, the imaging apparatus 250, and the communication apparatus 300.
  • the processor 407 may provide a control signal to at least one of the display apparatus 410 and the sound output unit 490.
  • the processor 407 may obtain seating position data of the user.
  • the processor 407 may receive seating position data from at least one electronic device mounted in the vehicle.
  • the processor 407 may receive seating position data of the user from the seat system 600.
  • Seat system 600 may include a seating position sensor.
  • the processor 407 may receive the sensing data generated by the seating position sensor.
  • the processor 407 may receive seating position data from the imaging apparatus 250.
  • the processor 407 may receive seating position data detected by image processing based on the image data of the internal camera 251.
  • the processor 407 may provide a control signal for adjusting the viewing angle of the display 411, 412, 413 based on the user's sitting position data.
  • the processor 407 may provide a control signal for adjusting the viewing angle of the display 411, 412, 413 corresponding to the seating position.
  • the processor 407 may provide a control signal to at least one of the first display 411, the second display 412, and the third display 413.
  • the processor 407 may provide a control signal to at least one of the first mechanism 416, the second mechanism 417, and the third mechanism 418.
  • the processor 407 may receive sheet change data from the sheet system 600 through the interface unit 406. In this case, the processor 407 may receive the gaze data of the user from the internal camera 251 through the interface unit 406. The processor 407 may provide a control signal for adjusting the viewing angles of the displays 411, 412, and 413 based on the gaze data of the user.
  • the processor 407 may provide a control signal for adjusting the posture of the displays 411, 412, and 413 in response to a user's sitting position.
  • the processor 407 may provide a control signal to the first mechanism 416 so that the first display 411 rises or falls in response to the user's sitting position.
  • the first mechanism 416 may raise or lower the first display 411 based on the control signal.
  • the processor 407 may provide a control signal to the second mechanism 417 such that the second display 412 rolls up or rolls down in response to the user's sitting position.
  • the second mechanism 417 may roll up or roll down the second display 412 based on the control signal.
  • the processor 407 may provide a control signal to the third mechanism 418 such that the curvature of the third display 413 is changed in response to the user's sitting position.
  • the third mechanism 418 can change the curvature of the third display 413 based on the control signal.
  • the processor 407 may provide the display device 410 with a control signal for changing the position of the display area on the displays 411, 412, and 413 in response to the user's sitting position.
  • the display device 410 may change the position of the display area of the displays 411, 412, and 413 in at least one of the upward direction and the downward direction based on the control signal.
  • the processor 407 may provide a control signal for adjusting a viewing angle of the displays 411, 412, and 413 based on data received from at least one electronic device mounted in the vehicle 10.
  • the processor 407 may receive image data including a user image from the internal camera 251.
  • the processor 407 may detect the gaze of the user and the finger of the user from the image data.
  • the processor 407 may determine whether the line of sight of the user and the virtual extension line extending from the user's finger meet with a space where the display 411, 412, 413 may be located.
  • the processor 407 may output user controllable notification content.
  • the processor 407 may display a graphic object or output acoustic content.
  • the processor 407 may track the movement of the user's finger in the user image.
  • the processor 407 may provide a control signal for adjusting the viewing angle of the display according to the movement of the user's finger tracked. Through such control, the user can intuitively adjust the display viewing angle.
  • the processor 407 may provide a control signal for adjusting the posture of the input device 200 based on the user's sitting position data.
  • the processor 407 may provide a control signal for adjusting the posture of the input apparatus 200 to correspond to the user's sitting position.
  • the processor 407 may provide a control signal for adjusting the tilting angle of the touch input unit 210 in response to the seating position.
  • the processor 407 may provide a control signal for adjusting the jog dial device to rise or fall in response to a user's sitting position.
  • the processor 407 may provide a control signal for displaying the operation guide image displayed on the top surface of the jog dial device on the side of the jog dial.
  • the processor 407 may receive data on the number of users on board.
  • the processor 407 may receive data on the number of users aboard from at least one electronic device mounted in the vehicle 10.
  • the processor 407 may receive data about the number of users on board from the seat system 600.
  • the processor 407 may obtain data on the number of occupant users based on the seating sensor included in the seat system 600.
  • the processor 407 may receive data about the number of users boarding from the imaging apparatus 300.
  • the processor 407 may acquire data about the number of users on board based on an image obtained from at least one of the internal camera 251 and the external camera 252.
  • the processor 407 may provide the display device 410 with a control signal for distinguishing the display areas of the displays 411, 412, and 413 based on the data on the number of occupants.
  • the processor 407 may provide the display device 410 with a control signal for classifying the display areas of the displays 411, 412, and 413 according to the number of users who ride in the processor 407.
  • the memory 408 is electrically connected to the processor 407.
  • the memory 408 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data.
  • the memory 408 may store data processed by the processor 407.
  • the memory 408 may be configured by hardware of at least one of a ROM, a RAM, an EPROM, a flash drive, and a hard drive.
  • the memory 408 may store various data for operating the entire display system 400, such as a program for processing or controlling the processor 407.
  • the memory 408 may be integrally implemented with the processor 407.
  • the memory 408 may be driven by the power supplied from the power supply 409.
  • the power supply unit 409 may supply power to the display system 400.
  • the power supply unit 409 may receive power from a power source included in the vehicle 10 and supply power to each unit of the display system 400.
  • the power supply 409 may be operated according to a control signal provided from the processor 407.
  • the power supply 409 may be implemented with a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the display system 400 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the interface unit 406, the processor 407, the memory 408, and the power supply 409 may be mounted on at least one printed circuit board.
  • the display device 410 may display at least one graphic object. By displaying the graphic object, the display apparatus 410 may provide a menu, multimedia content, video conference, driving status information, and the like to a user inside the cabin. The description of the first display apparatus 410 described with reference to FIGS. 1 to 10 may be applied to the display apparatus 410.
  • the display device 410 may include at least one display 411, 412, 413. In FIG. 55, the display device 410 includes four displays, but the number is not limited thereto.
  • the display device 410 may include all of the first display 411, the first mechanism 416, the second display 412, the second mechanism 417, the third display 413, and the third mechanism 418. May include or optionally include some.
  • the display device 410 may optionally include a first display 411 and a first mechanism 416.
  • the first display 411 may be located behind the seat and may be formed in and out of the cabin.
  • the first mechanism 416 can move the first display 411.
  • the display device 410 may optionally include a second display 412 and a second mechanism 417.
  • the second display 412 may be positioned on the ceiling of the cabin and may be rollable.
  • the second mechanism 417 may wind or unwind the second display 412.
  • the display device 410 may optionally include a third display 413 and a third mechanism 418.
  • the third display 413 may be positioned on the ceiling of the cabin and may be formed to be flexible.
  • the third mechanism 418 may bend or unfold the third display 413.
  • the user's seating positions 441 and 442 may be defined as a user's posture on the seat.
  • the seat system 600 may generate seating position data of the user based on the seating position sensor.
  • the seat system 600 may include a tilt sensor disposed on the back of the seat.
  • the seat system 600 may generate seating position data of the user based on the sensing data generated by the tilt sensor.
  • the imaging apparatus 250 may generate seating position data of the user based on image processing.
  • the imaging apparatus 250 may include at least one processor to implement an image processing algorithm.
  • the imaging apparatus 250 may acquire a user image through the internal camera 251.
  • the imaging apparatus 250 may generate seating position data based on the head height of the user while the user is seated on the seat.
  • the imaging apparatus 250 may generate seating position data based on the inclination of the upper body or the inclination of the lower body based on the bottom surface of the cabin.
  • the user's seating position may be divided into a first seating position 441 and a second seating position 442.
  • the first seating position 441 may be defined as a sitting position on the seat
  • the second seating position 442 may be defined as a lying posture on the seat.
  • the first seating position 441 may be described in a higher position than the second seating position 442, and the second seating position 442 may be described in a lower position than the first seating position 441.
  • 57 illustrates a user input for adjusting a display viewing angle according to an embodiment of the present invention.
  • the processor 407 may receive image data including a user image from the internal camera 251. As illustrated at 452, the processor 407 may detect the user's gaze and the user's finger in the image data through a predetermined image processing algorithm. The processor 407 may determine whether the virtual line 452a extending from the user's gaze and the user's finger meets the space 452b where the display 411 may be located. When it is determined that the display 411 is positioned on the virtual line 452a, the processor 407 may display content indicating that the display position control using the motion of the user is possible, the display apparatus 410 and the sound output unit ( 490) may be output through at least one.
  • the processor 407 may provide a control signal for tracking the movement of a user's finger and adjusting the viewing angle of the display 411 according to the movement of the tracked finger. For example, when a finger that is pointing up is tracked, the processor 407 may provide a control signal to raise the first display 411. For example, when a finger going down is tracked, the processor 407 may provide a control signal so that the first display 411 goes down. As illustrated at 454, when the user lowers his or her finger toward the display 411, the processor 407 may end the display control process.
  • 58 to 59 illustrate a physical viewing angle adjustment operation of the first display according to the embodiment of the present invention.
  • the first display 411 may be located behind at least one sheet 611, 612.
  • the first display 411 may be located behind the first sheet and the second sheet 611 and 612.
  • the first display 411 may face the third sheet and the fourth sheet.
  • a user seated on the third sheet or the fourth sheet may watch the content displayed on the first display 411.
  • the first display 411 may be located behind the third sheet and the fourth sheet.
  • the first display 411 may face the first sheet 611 and the second sheet 612.
  • the content displayed on the user first display 411 seated on the first sheet 611 or the second sheet 612 may be viewed.
  • the first display 411 may be formed in the cabin so as to be able to be put in and out of the cabin.
  • the first display 411 may be disposed in a slot formed in the sheet frame.
  • the first display 411 may exit from the slot into the cabin or enter the slot from within the cabin by the first mechanism.
  • the first mechanism may cause at least a portion of the first display 411 to exit the slot inside the cabin or at least a portion of the first display 411 to enter the slot inside the cabin.
  • the first mechanism 416 may physically move the first display 411 to adjust the viewing angle.
  • the first mechanism 416 can be operated based on the control signal of the processor 407.
  • the first mechanism 416 may include a driving unit, a power conversion unit, and a power transmission unit.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the first display 411.
  • the power transmission unit may transmit the converted power to the first display 411.
  • the processor 407 may provide a control signal to the first mechanism 416 to raise or lower the first display 411 in response to the seating position.
  • the processor 407 may provide a control signal to the first mechanism 416 such that at least a portion of the first display 411 comes out of the cabin.
  • the first mechanism may cause at least a portion of the first display 411 to exit the slot into the cabin. In this case, the first display 411 may be in a first state 411a.
  • the processor 407 may provide a control signal to the first mechanism 416 such that at least a portion of the first display 411 enters the slot.
  • the first mechanism 416 can cause at least a portion of the first display 411 to enter the slot from inside the cabin.
  • the first display 411 may be in the second state 411b.
  • the second state 411b may be understood to be a state in which the exposed area of the first display 411 into the cabin is smaller than the first state 411b.
  • the display device 410 may further include a flexible area adjusting mechanism.
  • the flexible region adjustment mechanism may be operated according to the control signal of the processor 407.
  • the flexible area adjustment mechanism may include a first rail, a second rail, a post, a connecting portion, and a driving portion.
  • the first rail may be attached to one surface of the first display 411.
  • the first rail may be formed of a flexible material.
  • the first rail may restrain one end of the connecting portion in the total height direction.
  • the first rail may guide the connection part to slide in the full width direction.
  • the second rail may be attached to the floor in the cabin or to a portion of the seat frame.
  • the second rail may restrain one end of the post in the full length direction.
  • the second rail may guide the post to slide in the full width direction.
  • the post may extend in the elevation direction.
  • the connection unit may connect the post and the first display 411.
  • One end of the connection portion may be inserted into the first rail.
  • One end of the connection part may be connected to the first rail in a state in which one region of the first display 411 is bent in the first direction.
  • the driving unit may provide a driving force to allow sliding of the post.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the flexible region adjusting mechanism may include a post extending in the vertical direction (eg, the full width direction), and a connection part connecting the post and the first display 411.
  • the first display 411 may be formed to be flexible in left and right directions (eg, full width directions).
  • the processor 407 may provide a control signal to the flexible area adjustment mechanism to direct the first display 411 to the user.
  • the processor 407 may provide a control signal to the flexible region adjusting mechanism such that the flexible region of the first display 411 is adjusted according to the position of the user.
  • 60 to 61 illustrate a physical viewing angle adjustment operation of the second display according to an embodiment of the present invention.
  • the second display 412 may be located on the ceiling inside the cabin.
  • the second display 412 may be rollable.
  • the second display 412 may be located between a region corresponding to the first sheet 611 and a region corresponding to the third sheet 613 facing the first sheet 611 on the ceiling of the cabin.
  • the second sheet 612 may be positioned between the region corresponding to the second sheet 612 and the region corresponding to the fourth sheet 614 facing the second sheet 612.
  • the second display 412 in the rolled state may be disposed in the full width direction on the ceiling inside the cabin.
  • the second display 412 may be formed to enable screen output on both sides.
  • Both the user seated on the first sheet 611 and the second sheet 613 and the user seated on the third sheet 613 and the fourth sheet 614 can view the content displayed on the second display.
  • the second display 412 may be formed to roll down or roll up into the cabin.
  • the second mechanism 417 may wind or unwind the second display 412.
  • the second mechanism 417 may physically move the second display 412 to adjust the viewing angle.
  • the second mechanism 417 may be operated based on the control signal of the processor 407.
  • the second mechanism 417 may include a driving unit, a power conversion unit, and a power transmission unit.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the second display 412.
  • the power transmission unit may transmit the converted power to the second display 412.
  • the processor 407 may provide a control signal to the second mechanism 417 such that the second display 412 rolls up or rolls down in response to the seating position.
  • the processor 407 may provide a control signal to the second mechanism 417 such that at least a portion of the second display 412 is rolled up.
  • the second mechanism 417 may cause at least a portion of the second display 412 to be rolled up.
  • the second display 412 may be in the first state 412a.
  • the processor 407 may provide a control signal to the second mechanism 417 such that at least a portion of the second display 412 is rolled down.
  • the second display 412 may be in the second state 412b.
  • the second state 412b may be understood to be a state in which the exposed area of the second display 412 into the cabin is larger than the first state 412a.
  • the third display 413 may be located on the ceiling inside the cabin.
  • the third display 413 may be formed to be flexible.
  • the third display 413 may be located at a point facing the third sheet 613 and the fourth sheet on the ceiling of the cabin interior.
  • the third display 413 may be located at a point facing the first sheet 611 and the second sheet on the ceiling of the cabin interior.
  • the third display 413 may be bent or extended.
  • the third mechanism 418 may physically move the third display 413 to adjust the viewing angle.
  • the third mechanism 418 can be operated based on the control signal of the processor 407.
  • the third mechanism 418 may include a driving unit, a power conversion unit, and a power transmission unit.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into power suitable for the movement of the third display 413.
  • the power transmission unit may transmit the converted power to the third display 413.
  • the processor 407 may provide a control signal to the third mechanism 418 such that the curvature of the third display 413 is changed in response to the seating position.
  • the processor 407 provides a control signal to the third mechanism 418 such that the upper portion of the third display 413 is bent in a direction opposite to the direction toward the cabin interior. can do.
  • the third display 413 may be in the first state 413a.
  • the processor 407 provides a control signal to the third mechanism 418 such that the lower portion of the third display 413 is bent in a direction opposite to the direction toward the cabin interior. can do.
  • the third display 413 may be in the second state 413b.
  • the second state 413b may be understood as a larger area of the third display 413 facing the floor of the cabin interior than the first state 413a.
  • 64 is a view illustrating an operation of adjusting the viewing angle according to the change of the position of the display area of the display according to the embodiment of the present invention.
  • the display areas of the displays 411, 412, and 413 may be changed according to a user's seating position.
  • the processor 407 may change the position of the display area on the displays 411, 412, and 413 in response to the user's sitting position. For example, when the user's seating position is changed from the first seating position 441 to the second seating position 442, the processor 407 changes the display area of the displays 411, 412, and 413 to the first area.
  • the second area 462 may be changed from 461.
  • the processor 407 changes the display area of the displays 411, 412, and 413 from the second area 462.
  • the first area 461 may be changed.
  • the first area 461 may be described as an area below the displays 411, 412, and 413 compared to the second area 462.
  • 65 is a view illustrating a tilting angle adjustment operation of the touch input unit according to an embodiment of the present invention.
  • the input device 300 may include a touch input unit 210 that converts a user's touch input into an electrical signal.
  • the touch input unit 210 may be integrally formed with the private display device 420 to implement a touch screen.
  • the touch input unit 210 may be disposed on at least one of a seat, an arm rest, and a door.
  • the input device 300 may further include a tilting mechanism.
  • the tilting mechanism may physically move the touch input unit 210.
  • the tilting mechanism may be operated based on the control signal of the processor 407.
  • the tilting mechanism may include a drive unit, a power conversion unit, and a power transmission unit.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit may convert the generated driving force into a power suitable for moving the touch input unit 210.
  • the power transmission unit may transmit the converted power to the touch input unit 210.
  • the processor 407 may provide a control signal for adjusting a tilting angle of the touch input unit in response to the seating position.
  • the processor 407 may transmit a control signal to the tilting mechanism such that the touch input unit 210 is flat with the surrounding structure (eg, seat, armrest, or door). Can provide.
  • the tilt angle may be 0 degrees.
  • the state of the touch input unit 210 may be a first state 210a.
  • the processor 407 may provide a control signal to the tilting mechanism such that the touch input unit 210 is tilted.
  • the tilting mechanism may tilt the touch input unit 210.
  • the tilting angle may be 1 degree or more and 90 degrees or less.
  • the state of the touch input unit 210 may be the second state 210b.
  • the second state 210b may be understood as being tilted more than the first state 210a.
  • 66 illustrates the raising and lowering adjustment operation of the jog dial device according to the embodiment of the present invention.
  • the input device 300 may include a jog dial device that includes a gesture sensor and is formed to be retractable from at least one portion of a seat, an arm rest, and a door.
  • An operation guide image may be displayed on the top of the jog dial device.
  • An operation guide image may be displayed on the top of the jog dial device.
  • the manipulation guide image may be erased according to the control signal of the processor 407.
  • An operation guide image may be displayed on the side of the jog dial device.
  • the manipulation guide image may be erased according to the control signal of the processor 407.
  • the input device 300 may further include a lifting (rising and falling) mechanism.
  • the lifting mechanism may be operated based on the control signal of the processor 407.
  • the lifting mechanism may include a driving unit, a power switching unit, and a power transmission unit.
  • the driving unit may generate a driving force.
  • the driving unit may include at least one of a motor, an actuator, and a solenoid.
  • the power switching unit can convert the generated driving force into a power suitable for the movement of the jog dial device.
  • the power transmission unit may transmit the converted power to the jog dial device.
  • the processor 407 may provide a control signal for adjusting the jog dial device to rise or fall in response to the seating position.
  • the processor 407 may provide a control signal to the elevating mechanism so that the jog dial device is in a flat state with the surrounding structure (eg, seat, armrest, door). Can be.
  • the lifting mechanism can raise the jog dial device.
  • the state of the jog dial device may be the first state 221a.
  • the jog dial device may function as the mechanical input unit 230.
  • the processor 407 may provide a control signal to the elevating mechanism such that the jog dial device protrudes relative to the surrounding structure.
  • the elevating mechanism can lower the jog dial device.
  • the state of the jog dial device may be the second state 221b. In the second state 221b, the jog dial device may function as the gesture input unit 220.
  • the operation guide image displayed on the top surface of the jog dial device can provide a control signal for displaying on the side of the jog dial device.
  • 67 is a view illustrating a display area division operation of a display according to the number of occupants according to an embodiment of the present invention.
  • the processor 407 may provide a control signal to the display device 410 to classify a display area of the displays 411, 412, and 413 according to the number of users who board. As illustrated at 471, when one user boards, content may be displayed on all areas of the displays 411, 412, and 413. As illustrated at 472, when the first user and the second user board, the processor 407 divides the display 411, 412, 413 into a first area and a second area. The first content of the first user may be displayed, and the second content of the second user may be displayed in the second area. As illustrated at 473, when the first user and the second user request the same content, the processor 407 may display the same content in all areas of the displays 411, 412, and 413.
  • 68 to 69 are views for explaining a motion sickness reduction system for a vehicle according to an embodiment of the present invention.
  • 68 illustrates a first display
  • FIG. 69 illustrates a third display.
  • the display system 400 of FIG. 55 may be operated as a vehicle motion sickness reduction system 400.
  • the display system 400 in which motion sickness reduction is performed may be referred to as a vehicle motion sickness reduction system 400.
  • the vehicle motion sickness reduction system 400 may include an interface unit 406, at least one light output area 2410, and a processor 407.
  • the vehicle motion sickness reduction system 400 further includes at least one of an input device 200, an imaging device 250, a communication device 300, an audio output unit 490, a memory 408, and a power supply unit 409. It may include. Description of each configuration of the vehicle motion sickness reduction system 400, the description of Figure 55 to 67 can be applied.
  • the interface unit 406 may exchange signals with at least one electronic device mounted in the vehicle 10.
  • the interface unit 406 may receive information on a state of the vehicle from at least one sensor mounted on the vehicle 10.
  • the interface unit 406 may receive information on the state of the vehicle from at least one electronic control unit (EUC) mounted on the vehicle 10.
  • EUC electronice control unit
  • the interface unit 406 may include, from at least one electronic device, information about the stationary state of the vehicle 10, information about a traveling speed of the vehicle 10, and information about a steering direction of the vehicle 10. At least one of the information about the vertical movement of the vehicle 10 and the information about the heading direction of the vehicle 10 may be received.
  • the interface unit 406 may receive driving status information of the vehicle 10 from at least one electronic device.
  • the interface unit 406 may receive information about a terrain of a road on which the vehicle 10 is driving from at least one electronic device.
  • the interface unit 406 can exchange signals with the seat system 600.
  • the interface unit 406 may exchange signals with a seat attitude adjustment mechanism included in the seat system 600.
  • the seat posture adjustment mechanism may adjust the posture of the seat based on the signal provided by the processor 407.
  • the interface unit 406 may exchange signals with the communication device 300 that performs wireless communication with the mobile terminal 390.
  • the at least one light output area 2410 may be located around at least one display screen.
  • the at least one light output area 2410 may be integrally formed with the display screen mechanically.
  • the at least one light output area 2410 may constitute at least one of the displays 411, 412, and 413 of the display device 410 together with the at least one display screen. In this case, the at least one light output area 2410 may be implemented in at least one area of the display 411, 412, 413.
  • the at least one light output area 2410 may be formed to be mechanically separated from the display screen.
  • the at least one light output region 2410 may include at least one light source.
  • the light source may be operated by a control signal generated by the processor 407. It is preferable that a light source is a surface light source.
  • the rear seat may be defined as a seat that the user can sit facing in the forward direction of the vehicle.
  • the front seat may be defined as a seat in which a user may sit facing in the reverse direction of the vehicle.
  • the at least one display 411 may include a rear sheet display 411a and a front sheet display 411b.
  • FIG. 68 only the rear seat display 411a and front seat display 411b applied to the first display 411 are illustrated, but each of the second display 412 and the third display 413 is a rear seat display. And a display for the front sheet.
  • the display direction of the screen may be opposite to the vehicle forward driving direction.
  • the rear seat display 411a may be positioned so that the screen can be viewed from the rear seat 2452.
  • the at least one light output area 2410 is the first light output area 2411 disposed on the left side of the rear seat display 411a based on the forward travel direction of the vehicle 10 and the forward travel of the vehicle 10.
  • the second light output area 2412 may be disposed on the right side of the rear sheet display 411a based on a direction.
  • the display direction of the screen may be a vehicle forward driving direction.
  • the front sheet display 411b may be arranged to view a screen on the front sheet.
  • the at least one light output area 2410 is the third light output area 2413 disposed on the left side of the front seat display 411b based on the forward travel direction of the vehicle 10 and the forward travel of the vehicle 10.
  • the fourth light output area 2414 may be disposed on the right side of the front sheet display 411b based on the direction.
  • the processor 407 may receive information about a state of the vehicle received from the electronic device through the interface unit 406.
  • the processor 407 may provide the light output area 2410 with a control signal for changing a pattern of light output from the light output area 2410 based on the information about the state of the vehicle.
  • the pattern of the output light By changing the pattern of the output light, the user can be aware of the movement of the vehicle 10. As a result, motion sickness felt while watching the display screen can be alleviated.
  • the processor 407 may receive information about the stopped state of the vehicle 10 from the electronic device.
  • the processor 407 may provide a control signal for stopping the pattern change of the light output from the light output area 2410 based on the information about the stopped state of the vehicle 10.
  • the processor 407 may provide a control signal for changing the pattern of the light output from the light output area 2410 at a constant speed based on the information about the stationary state of the vehicle 10. .
  • the pattern change of the light may be stopped or the pattern of light may be changed at a constant speed so that the user may recognize that the vehicle 10 is in a stopped state.
  • the processor 407 may receive information about the traveling speed of the vehicle 10 from the electronic device.
  • the processor 407 may adjust the pattern change speed of the light output from the light output area 2410 based on the information about the traveling speed of the vehicle 10. For example, the processor 407 may adjust the pattern change speed of the light output to be proportional to the running speed value of the vehicle 10.
  • the processor 407 may adjust the change in the pattern change speed of the light output from the light output area 2410 based on the information about the change in the travel speed of the vehicle 10. For example, the processor 407 may adjust the change of the pattern change speed of light output to be proportional to the change value of the travel speed of the vehicle 10.
  • the processor 407 may receive information about the traveling speed of the vehicle 10 from the electronic device.
  • the processor 407 may adjust the length of the light emitting area in the light output area 2410 based on the information about the traveling speed of the vehicle 10. For example, the processor 407 may adjust the length of the light emitting area in the light output area 2410 in proportion to the running speed value of the vehicle 10.
  • the processor 407 may receive information on steering of the vehicle 10 from the electronic device.
  • the processor 407 may adjust the width of the light emitting area in the light output area 2410 based on the information about the steering direction and the degree of steering of the vehicle 10. For example, the processor 407 may select at least one of a light output area located on the left side of the screen and a light output area located on the right side according to the steering direction of the vehicle 10. For example, the processor 407 may adjust the width of the light emitting area of the selected light output area in proportion to the degree of steering of the vehicle 10. For example, when receiving the steering direction information in the left direction, the processor 407 may widen the width of the first light output area 2411 located on the left side of the rear seat display 411a.
  • the processor 407 may narrow or maintain the width of the second light output area 2412 positioned around the rear seat display 411a. For example, when receiving the steering direction information in the right direction, the processor 407 may widen the width of the second light output area 2412 positioned on the right side of the rear seat display 411a. In this case, the processor 407 may narrow or maintain the width of the first light output area 2411 positioned around the rear seat display 411a. For example, when receiving the steering direction information in the left direction, the processor 407 can widen the width of the fourth light output area 2414 disposed on the right side of the front sheet display 411b.
  • the processor 407 can narrow or maintain the width of the third light output area 2413 disposed on the left side of the front sheet display 411b.
  • the processor 407 can widen the width of the third light output area 2413 disposed on the left side of the front sheet display 411b.
  • the processor 407 can narrow or maintain the width of the fourth light output region 2414 disposed on the right side of the front sheet display 411b.
  • the processor 407 may receive information about the vertical movement of the vehicle 10 from the electronic device.
  • the processor 407 may change the position of the light emitting area in the light output area based on the information about the vertical movement of the vehicle 10.
  • the processor 407 may change the position of the light emitting area in a direction opposite to the vertical movement of the vehicle 10. For example, when the front wheel of the vehicle 10 ascends on a road surface object (for example, a bump), the processor 407 receives information about the movement of the vehicle 10 ascending. In the output area 2410, the position of the emission area may be changed downward. For example, when the front wheel of the vehicle 10 descends from the road surface object and receives information about the movement of the vehicle 10 descending, the processor 407 may position the light emitting region in the light output region 2410. You can change to
  • the processor 407 may receive information about the terrain of the driving road from the electronic device.
  • the processor 407 may display the graphic object corresponding to the information on the terrain of the driving road on at least one area of the display screen. By displaying a graphic object corresponding to the information on the terrain of the driving road, motion sickness can be reduced by allowing the user to recognize the terrain and predict the movement of the vehicle according to the terrain.
  • the processor 407 may receive information about at least one of acceleration, deceleration, and steering according to the terrain of the driving road from the electronic device.
  • the processor 407 may display a graphic object corresponding to information on at least one of acceleration, deceleration, and steering on at least one region of the display screen. By displaying a graphic object corresponding to information on at least one of acceleration, deceleration, and steering, motion sickness can be reduced by allowing a user to recognize movement of the vehicle.
  • the processor 407 may provide a control signal for changing a pattern of light output from the light output area while displaying the video conference related graphic object on at least one area of the display screen.
  • the processor 407 may transmit, to the mobile terminal 390, data about a change in the pattern of light output from the light output area through the interface unit 406 and the communication device 300.
  • the processor 407 may transmit data about the change of the light pattern to the mobile terminal 390. have.
  • the mobile terminal 390 may reduce motion sickness of a user who views the mobile terminal by implementing a pattern change of light for reducing motion sickness of the user.
  • the processor 407 may receive information about the state of the vehicle 10 from the electronic device.
  • the processor 407 transmits a control signal for adjusting the posture of the seat in a direction different from the inertia of the vehicle 10, based on the information about the state of the vehicle 10, through the interface unit 406. Can be provided to the coordination mechanism.
  • the processor 407 may provide, via the interface unit 406, a control signal for keeping the sheet horizontal to the seat attitude adjustment mechanism.
  • the processor 407 may provide a control signal for adjusting the posture of the seat when it is determined that the user is watching the screen of the display. Through such control, motion sickness can be reduced by allowing the user to recognize that the vehicle 10 is not moving.
  • 70A to 70C are views referred to for describing a light output area according to an embodiment of the present invention.
  • At least one light output area 2410 may include a first light output area 2411 and a second light output area 2412.
  • the first light output area 2411 may be positioned on the left side of the display screen 2651 of the rear seat display 411a based on the forward travel direction of the vehicle 10.
  • the first light output area 2411 may be located on the left side of the display screen 2651 based on the user 7010 when the user 7010 views the screen 2651.
  • the second light output area 2412 may be located on the right side of the display screen 2651 of the rear seat display 411a based on the forward travel direction of the vehicle 10.
  • the second light output area 2412 may be positioned on the right side of the display screen 2651 based on the user 7010 when the user 7010 views the screen 2651.
  • the display screen 2601 is positioned at the center of the user, and the light output area 2410 is positioned at the vicinity of the user.
  • At least one light output area 2410 may include a third light output area 2413 and a fourth light output area 2414.
  • the third light output area 2411 may be located on the left side of the display screen 2701 of the front seat display 411b based on the forward travel direction of the vehicle 10.
  • the third light output area 2413 may be positioned on the right side of the display screen 2651 based on the user 7010 when the user 7010 views the screen 2651.
  • the fourth light output area 2414 may be located on the right side of the display screen 2651 of the front seat display 411b based on the forward travel direction of the vehicle 10.
  • the fourth light output area 2414 may be positioned on the left side of the display screen 2651 based on the user 7010 when the user 7010 views the screen 2651.
  • the display screen 2601 is positioned at the center of the user, and the light output area 2410 is positioned at the vicinity of the user.
  • At least one light output area 2410 may include a fifth light output area 2415 and a sixth light output area 2416.
  • the fifth light output area 2415 may be positioned at an upper end of the display screen 2651 of the rear sheet display 411a or the front sheet display 411b.
  • the sixth light output area 2416 may be located at a lower end of the display screen 2651 of the rear sheet display 411a or the front sheet display 411b.
  • the display screen 2601 is positioned at the center of the user, and the light output area 2410 is positioned at the vicinity of the user.
  • 71A to 71B are views referred to for describing a display and a light output area according to an embodiment of the present invention.
  • the first display 411 may be divided into a first display for a rear sheet and a first display for a front sheet.
  • the first display for the rear seat may be positioned so that the screen can be viewed from the rear seat.
  • the first display for the rear seat may be located between the front windshield and the front seat.
  • the first display for the front sheet may be positioned to view a screen in the front sheet.
  • the first display for the front sheet may be located between the rear glass and the rear sheet.
  • the light output area 2410 may be positioned around the first display 411.
  • the light output area 2410 may be described as at least one area of the first display 411.
  • the first display 411 may include a content display area 2651 and a light output area 2410.
  • the light output area 2410 may include at least one light source that is physically distinguished from the first display 411.
  • the at least one light source may be disposed around the first display 411. At least one light source is preferably disposed at both sides of the first display 411.
  • the third display 413 may be divided into a third display for a rear sheet and a third display for a front sheet.
  • the third display for the rear seat may be positioned so that the screen can be viewed from the rear seat.
  • the third display for the rear seat may be disposed in proximity to the front windshield of the ceiling in the cabin 100.
  • the third display for the front sheet may be positioned to view the screen in the front sheet.
  • the third display for the front seat may be disposed in proximity to the rear glass of the ceiling in the cabin 100.
  • 72 to 74 are views for explaining the change of the light output pattern of the light output area according to the embodiment of the present invention.
  • first display 411a for the rear seat is described as an example, the description of the light output area 2410 may also be applied to the first display 411b for the front sheet, the second display, and the third display.
  • the processor 407 may adjust the length of the light emitting area of the light output area 2410 based on the information about the traveling speed of the vehicle 10.
  • the processor 407 controls the control signal to emit light in one region 2851 of the first light output region 2411 based on the first speed value of the vehicle 10. Can be provided.
  • the emission region 2851 may have a first length value.
  • the processor 407 may provide a control signal to emit one region 2852 of the second light output region 2412.
  • the emission region 2852 may have a first length value.
  • the processor 407 may determine the length of the light emitting region 2851 of the first light output region 2411 based on a second speed value greater than the first speed value of the vehicle 10. Can be adjusted to the second length value.
  • the processor 407 may adjust the length of the light emitting region 2852 of the second light output region 2412 to a second length value based on the second speed value.
  • the processor 407 may determine the length of the light emitting region 2851 of the first light output region 2411 based on a third speed value greater than the second speed value of the vehicle 10. Can be adjusted to the third length value.
  • the processor 407 may adjust the length of the light emitting region 2852 of the second light output region 2412 to a third length value based on the third speed value of the vehicle 10.
  • the processor 407 may adjust the width of the light emitting area in the light output area 2410 based on the information about the steering direction and the degree of steering of the vehicle 10.
  • the processor 407 adjusts the width of the first light output area 2411 to the second light output area 2412 when steering is not performed in either the left direction or the right direction. You can keep the same width.
  • the processor 407 may widen the width of the first light output area 2411 than the second light output area 2412 when receiving steering direction information in a left direction. .
  • the processor 407 may widen the light emitting area 2851 of the first light output area 2411 than the light emitting area 2852 of the second light output area 2412. have.
  • the processor 407 may maintain or narrow the width of the second light output area 2412 when receiving steering direction information in the left direction.
  • the processor 407 may maintain or narrow the emission area 2852 of the second light output area 2412.
  • the first light output region 2411 and the second light output region 2412 may be controlled as opposed to those described with reference to FIG. 73.
  • the processor 407 may change the position of the light emitting area in the light output area based on the information about the vertical movement of the vehicle 10.
  • the processor 407 may change the position of the light emitting area in a direction opposite to the vertical movement of the vehicle 10.
  • the processor 407 may output the center area 2851 and the second light output of the first light output area 2411 when there is no movement in the vertical direction of the vehicle 10.
  • the control signal may be provided to cause the center area 2852 of the area 2412 to emit light.
  • the processor 407 when receiving information about the ascending movement of the vehicle 10, moves the position of the light emitting area 2851 of the first light output area 2411 downward. You can change it.
  • the processor 407 may change the position of the emission area 2852 of the second light output area 2412 downward when receiving information about the movement of the vehicle 10 rising.
  • the processor 407 may adjust the speed at which the light emitting regions 2851 and 2852 change in proportion to the speed at which the vehicle 10 rises.
  • the processor 407 may adjust the displacement in which the light emitting regions 2851 and 2852 change in proportion to the displacement of the vehicle 10.
  • the processor 407 may change the position of the light emitting area 2851 of the first light output area 2411 upward when receiving information about the downward movement of the vehicle 10. Can be.
  • the processor 407 may change the position of the light emitting area 2852 of the second light output area 2412 upward when the vehicle 10 receives the information about the downward movement.
  • the processor 407 may adjust the speed at which the light emitting regions 2851 and 2852 change in proportion to the speed at which the vehicle 10 descends.
  • the processor 407 may adjust the displacement in which the light emitting regions 2851 and 2852 change in proportion to the displacement of the vehicle 10 descending.
  • 75 is a view referred to for describing an operation of outputting a graphic object to reduce motion sickness according to an embodiment of the present invention.
  • the processor 407 may receive information about a terrain of a driving road from an electronic device.
  • the processor 407 may display the graphic object corresponding to the information on the terrain of the driving road on at least one area of the display screen.
  • the processor 407 may receive information on a curve section from the electronic device.
  • the processor 407 may display an image corresponding to the curve section on at least one area 3151 of the display screen.
  • the processor 407 may display the remaining distance and the remaining time until the curve section on at least one area 3151 of the display screen.
  • the processor 407 may display a graphic object corresponding to information on at least one of acceleration, deceleration, and steering corresponding to the terrain of the driving road, on at least one area of the display screen.
  • the processor 407 may display at least one of an accelerator pedal image, a brake pedal image, and a steering wheel image on at least one region of the display screen.
  • 76 is a diagram referred to for describing an operation of reducing motion sickness during a video conference according to an embodiment of the present invention.
  • the processor 407 may display a video conference related graphic object on a display.
  • the processor 407 may provide a control signal to the first light output area 2411 and the second light output area 2412 during video conferencing related graphic object display.
  • the processor 407 may provide a control signal for changing the light emitting area 2851 of the first light output area 2411 and the light emitting area 2852 of the second light output area 2412 during video conference content display. have.
  • FIG. 77 is a view referred to for describing an operation of reducing motion sickness when watching content through a mobile terminal according to an embodiment of the present invention.
  • the processor 407 may transmit data about a change of the pattern of light output from the light output area to the mobile terminal 390 through the interface unit 406 and the communication device 300.
  • the mobile terminal 390 may display the light output regions 3311 and 3312.
  • the mobile terminal 390 may set one region of the light output regions 3311 and 3312 as the light emitting regions 3331 and 3352.
  • the mobile terminal 390 can control changes in the light emitting regions 3331 and 3352.
  • 78 is a view referred to for describing a posture adjusting operation of a seat for reducing motion sickness according to an embodiment of the present invention.
  • the processor 407 may exchange signals with the seat system 600 through the interface unit 406.
  • the seat system 600 may include a seat attitude adjustment mechanism 3651.
  • the seat posture adjustment mechanism 3451 may be positioned below the seat to raise or lower a portion of the seat.
  • the processor 407 provides the seat posture adjustment mechanism with a control signal for adjusting the posture of the seat in a direction different from the inertia of the vehicle 10 based on the information about the state of the vehicle 10 received from the electronic device. can do. For example, when the vehicle 10 accelerates with an acceleration having a predetermined value, the processor 407 may raise the rear portion of the seat. For example, when the vehicle 10 decelerates at a deceleration having a predetermined value, the processor 407 may raise the front part of the seat. For example, when the vehicle 10 rotates with a rotational acceleration having a predetermined value, the processor 407 may raise a portion of the seat in the direction in which the centripetal force is formed.
  • 79 illustrates an appearance of a personal mobile device according to an embodiment of the present invention.
  • FIG. 80 illustrates a control block diagram of a personal mobile device according to an embodiment of the present invention.
  • 81 illustrates a shared vehicle and personal mobility device according to an embodiment of the present invention.
  • the personal mobile device 20 may be described as an autonomous vehicle for transporting one user.
  • the personal mobile device 20 may include at least one wheel 8001, a user boarding portion 8002, and a user interface device 8005.
  • the user interface device 8005 may include an input device 8010, an imaging device 8015, and an output device 8050.
  • the personal mobile device 20 may further include a portion in contact with the body, such as a handle 8003.
  • the personal mobile device 20 includes an input device 8010, an imaging device 8015, a communication device 8020, an object detection device 8025, a navigation device 8030, an output device 8050, and a driving device 8060.
  • the interface unit 8069 may include a processor 8070, a memory 8080, and a power supply 8090. According to an embodiment, the personal mobile device 20 may omit the described components or further include other components.
  • the input device 8010 may receive a user input.
  • the input device 200 may convert a user input into an electrical signal.
  • the input device 8010 may include a touch sensor capable of converting a user's touch input into an electrical signal, a gesture sensor capable of converting a user's gesture input into an electrical signal, and a physical input (eg, pressing or rotating) of the user. ) May include at least one of a mechanical device capable of converting the electrical signal into an electrical signal and a microphone capable of converting a user's voice input into an electrical signal.
  • the imaging device 8015 may include at least one camera.
  • the imaging apparatus 8015 may acquire a user image.
  • the user image acquired by the imaging apparatus 8015 may be used for user authentication.
  • the communication device 8020 can exchange signals wirelessly with an external device.
  • the communication device 8020 may exchange signals with an external device through a network network, or may directly exchange signals with an external device.
  • the external device may include at least one of a server (8212 of FIG. 82A and 8211 of FIG. 82B), a mobile terminal, and a shared vehicle 10.
  • the communication device 8020 may include at least one of an antenna, a radio frequency (RF) circuit capable of implementing at least one communication protocol, and an RF element to perform communication. According to an embodiment, the communication device 8020 may use a plurality of communication protocols. The communication device 8020 can switch the communication protocol according to the distance from the mobile terminal.
  • RF radio frequency
  • the object detecting apparatus 8025 may detect an object outside the personal mobile device.
  • the object detecting apparatus 8025 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detecting apparatus 8025 may provide data on the object generated based on the sensing signal generated by the sensor to at least one electronic device included in the vehicle.
  • the navigation device 8030 may provide navigation information.
  • the navigation information may include at least one of map information, set destination information, route information according to the destination setting, information on various objects on the route, lane information, and current location information of the vehicle.
  • the output device 8050 can output information.
  • the output device 8050 may include a display 8051, an audio output unit 8302, and an optical output device 8303.
  • the display 8051 can visually output information.
  • the sound output unit 8032 can acoustically output information.
  • the light output device 8302 can output light of at least one color.
  • the light output device 8302 may be disposed on at least one portion of the body of the personal mobile device 20 so that the user can easily recognize the color of the light output.
  • the drive device 8060 is a device that electrically controls the driving of various devices of the personal mobile device 20.
  • the driving device 8060 may control the movement of the wheel.
  • the drive device 8060 may include a power source drive unit 8081, a brake drive unit 8082, and a steering drive unit 8803.
  • the power source driver 8021 may control the power source of the personal mobile device 20.
  • the power source driver 8021 can control the engine output torque and the like.
  • the power source driver 8021 can control the rotational speed, torque, and the like of the motor.
  • the brake driver 8082 may perform electronic control on the brake device.
  • the steering driver 8303 may perform electronic control of the steering apparatus.
  • the interface unit 8069 can exchange signals with other devices by wire.
  • the interface unit 8069 may be wired to the mobile terminal 390 to exchange signals other than the mobile terminal 390.
  • the processor 8070 includes an input device 8010, an imaging device 8015, a communication device 8020, an object detection device 8025, a navigation device 8030, an output device 8050, a driving device 8060, and an interface. It may be electrically connected to the unit 8069 and the memory 8080 to exchange signals.
  • the processor 8070 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers. may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units
  • the processor 8070 may receive a signal including information or data from at least one server (8212 of FIG. 82A and 8211 of FIG. 82B) through the communication device 8020.
  • the processor 8070 may control at least one of the output device 8050 and the driving device 8060 based on the received signal.
  • the processor 8070 may receive information about a disembarkation point of the shared vehicle 10 in which the user boards through the communication device 8020. Information about the disembarkation point of the shared vehicle 10 may be provided from at least one server 8212 of 8a and 8211 of 82b.
  • the processor 8070 may provide a control signal to the driving device 8060 so as to autonomously move to the drop off point. In this case, the processor 8070 may use the navigation data provided by the navigation device 8030.
  • the processor 8070 may receive information about a time point when the shared vehicle 10 arrives at the getting off point through the communication device 8020.
  • the processor 8070 may provide a control signal to the driving device 8060 so that the personal mobile device arrives at the point of departure at the time of arrival.
  • the point in time when the shared vehicle 10 arrives at the drop off point may reflect the movement time of the shared vehicle 10 according to a traffic condition.
  • the processor 8070 may receive, via the communication device 8020, information about a boarding point of the shared vehicle 10 on which the user is to board.
  • the processor 8070 may provide a control signal to the driving device 8060 so as to transport the user to the point of boarding.
  • the processor 8070 may receive information about a disembarkation point while moving along a path destined for the charging station. In this case, the processor 8070 may change the route from the getting off point to the destination.
  • the processor 8070 may receive identification data associated with the user via the communication device 8020.
  • the processor 8070 may provide a control signal to the light output device 8303 to output light for identification of the first color based on the identification data.
  • the user can recognize, through the identification light, the personal mobile device assigned to him.
  • the processor 8070 may receive first information about the user from the server managing the shared vehicle 10 through the communication device 8020.
  • the processor 8070 may authenticate a user based on the first information.
  • the first information may include user authentication information.
  • the memory 8080 is electrically connected to the processor 8070.
  • the memory 8080 may store basic data for the unit, control data for controlling the operation of the unit, and data input / output.
  • the memory 8080 may store data processed by the processor 8070.
  • the memory 8080 may be hardware, and may include at least one of a ROM, a RAM, an EPROM, a flash drive, and a hard drive.
  • the memory 8080 may store various data for operation of the personal mobile device 20, such as a program for processing or controlling the processor 8070.
  • the memory 8080 may be integrated with the processor 8070.
  • the power supply unit 8090 may supply power to the personal mobile device 20.
  • the power supply 8090 may include a battery.
  • the power supply unit 8090 may be operated according to a control signal provided from the main controller 170.
  • 82A to 82B are views referred to for explaining a user transportation system according to an embodiment of the present invention.
  • User transport system 8200 may include at least one server 8211, 8212, 8214, at least one shared vehicle 10a, 10b, and at least one personal mobile device 20a, 20b. According to an embodiment, the user transportation system 8200 may further include at least one user mobile terminal 390a and 390b and a payment server 8213.
  • At least one server 8211, 8212, 8214 may receive a mobile service request signal from the first departure point of the first user to the final destination.
  • the at least one server 8211, 8212, and 8214 may transmit a first request signal to allow the shared vehicle to move from the scheduled ride point of the first user to the scheduled ride point.
  • At least one server 8211, 8212, and 8214 may determine whether there is a section in which a vehicle cannot travel on a path from the first departure point to the final destination.
  • the at least one server 8211, 8212, and 8214 may determine that there is a section in which the vehicle cannot travel on the route, and the personal mobile device may move toward at least one of the first departure point and the scheduled departure point.
  • the second request signal may be sent to move.
  • the at least one shared vehicle 10a or 10b may move to the getting-off point at the scheduled ride point butt according to the first request signal.
  • At least one personal mobile device 20a or 20b may move from the first starting point to the boarding point or from the getting off point to the final destination according to the second request signal.
  • the user transportation system 8200 includes a shared vehicle server 8201, a plurality of shared vehicles 10a and 10b, a personal mobile device server 8212, and a plurality of personal mobile devices 20a and 20b. , User mobile terminals 390a and 390b, and payment server 8213.
  • the shared vehicle server 8211 can manage the plurality of shared vehicles 10a and 10b.
  • the shared vehicle server 8211 may receive a signal from the user terminals 390a and 390b.
  • the shared vehicle server 8211 may allocate the shared vehicles 10a and 10b based on the received signal.
  • the shared vehicle server 8211 may transmit an operation command signal to the shared vehicles 10a and 10b based on the received signal.
  • the shared vehicle server 8211 may transmit at least one of a movement command signal, a stop command signal, an acceleration command signal, a deceleration command signal, and a steering command signal to the shared vehicles 10a and 10b.
  • the shared vehicle server 8211 may exchange signals with the personal mobile device server 8212.
  • the plurality of shared vehicles 10a and 10b may be operated based on an operation command signal received at the shared vehicle server 8201.
  • the shared vehicles 10a and 10b may move to the ride point of the first user based on the signal received from the shared vehicle server 8211.
  • the shared vehicles 10a and 10b may move from the riding point of the first user to the getting off point of the first user based on the signal received from the sharing vehicle server 8211.
  • the personal mobile device server 8212 may manage the plurality of personal mobile devices 20a and 20b.
  • the personal mobile device server 8212 may receive signals from the user terminals 390a and 390b.
  • the personal mobile device server 8212 may receive a signal from the shared vehicle server 8211.
  • the personal mobile device server 8212 may allocate the personal mobile devices 20a and 20b based on the received signal.
  • the personal mobile device server 8212 may transmit an operation command signal to the personal mobile devices 20a and 20b based on the received signal.
  • the personal mobile device server 8212 may transmit at least one of a movement command signal, a stop command signal, an acceleration command signal, a deceleration command signal, and a steering command signal to the personal mobile devices 20a and 20b.
  • the plurality of personal mobile devices 20a and 20b may be operated based on an operation command signal received at the personal mobile device server 8212.
  • the personal mobile device 20a, 20b may move to the first starting point of the first user based on the received signal.
  • the personal mobile device 20a, 20b may move from the first departure point of the first user to the ride point (or ride scheduled point) of the shared vehicle 10a, 10b based on the received signal.
  • the personal mobile devices 20a and 20b may move to the getting off point (or getting off point) of the first user based on the received signal.
  • the personal mobile device 20a, 20b may move from the point of departure of the first user to the final destination of the first user based on the received signal.
  • the user terminals 390a and 390b may receive a user input for using at least one of the shared vehicles 10a and 10b and the personal mobile devices 20a and 20b.
  • the user terminals 390a and 390b may transmit a mobile service request signal based on a user input to at least one of the shared vehicle server 8211 and the personal mobile device server 8212.
  • the settlement server 8213 may pay a user's mobile service fee.
  • the payment server 8213 receives payment data from at least one of the shared vehicle server 8211, the personal mobile device server 8212, the shared vehicles 10a and 10b, and the personal mobile devices 20a and 20b. Can be performed.
  • the description of the user transportation system 8200 of FIG. 82A may be applied to the user transportation system 8200 of FIG. 82B. Hereinafter, the difference will be described.
  • the user transport system 8200 includes a user transport server 8214, a plurality of shared vehicles 10a and 10b, a plurality of personal mobile devices 20a and 20b, user mobile terminals 390a and 390b, and a payment server 8213. ) May be included.
  • the user transport server 8214 may perform the functions of the shared vehicle server 8211 and the personal mobile device server 8212 of FIG. 82A.
  • the user transportation server 8214 can manage the plurality of shared vehicles 10a and 10b.
  • the user transport server 8214 may manage the plurality of personal mobile devices 20a and 20b.
  • FIG. 83 illustrates a flow chart of a user transportation system according to an embodiment of the present invention.
  • FIG. 83 is a flow chart of a user transport method of the user transport system 8200 of FIG. 82A.
  • 85 is a diagram referred to for explaining the use of a shared vehicle and a personal mobile device along a route according to an embodiment of the present invention.
  • the shared vehicle server 8211 may receive a mobile service request signal from the first user terminal (390a of FIG. 82A) to the final destination from the first user terminal (S1505).
  • the shared vehicle server 8211 may determine whether there is a section in which the vehicle cannot travel on the path from the first departure point to the final destination (S1510). For example, the shared vehicle server 8211 may determine whether there is a section without a lane on the path from the first departure point to the final destination.
  • the shared vehicle server 8201 may transmit a personal mobile device request signal to the personal mobile device server 8212 (S1520).
  • the personal mobile device server 8212 may receive a mobile service request signal of the personal mobile device (S1525).
  • the mobile service request signal of the personal mobile device may include a goods delivery request signal of the user.
  • the shared vehicle server 8211 may transmit the boarding predicted point information and the boarding predicted point information (S1530).
  • the personal mobile device server 8212 may receive the boarding schedule point 8520 information and the boarding schedule point 8230 information (S1535).
  • the shared vehicle server 8211 when it is determined that the shared vehicle cannot travel in at least some sections of the entire path from the first departure point 8505 to the final destination (S1510), the personal mobile device server 8212 is used. May receive at least one of the boarding plan point 8520 information and the boarding plan point 8850 information.
  • Boarding point 8520 may be defined as the point closest to the original departure point 8405 while being able to move to shared vehicle 10a.
  • the getting off point 8530 may be moved to the shared vehicle 10a and may be defined as the nearest point to the final destination.
  • the shared vehicle server 8211 may acquire and transmit the first information of the user (S1540).
  • the personal mobile device server 8212 may receive the first information of the user (S1545). If it is determined that the user boarded the personal mobile device server 8212 before the step S1560 or the step S1585, the personal mobile device server 8212 may transmit the first information of the user to the personal mobile device 20a. have. The personal mobile device 20a may perform user authentication based on the received first information.
  • the personal mobile device server 8212 is based on the position of each of the plurality of mobile devices 20a and 20b and the distance between the scheduled departure point 8330 and the amount of remaining energy of each of the plurality of personal mobile devices 20a and 20b.
  • the call signal may be transmitted to any one of the plurality of personal mobile devices 20a and 20b.
  • the personal mobile device server 8212 may transmit, to the called personal mobile device 20a, the initial departure point information and the boarding schedule point 8220 information of the shared vehicle 10a (S1550).
  • the personal mobile device server 8212 may request the personal mobile device 20a to move toward the initial starting point (S1555). According to an embodiment, the personal mobile device server 8212 moves the personal mobile device 20a toward the first starting point with the goods according to the user object delivery request signal loaded on the personal mobile device 20a. You can request In this case, the personal mobile device server 8212 may request the personal mobile device 20a to move toward the point for acquiring the goods according to the user object delivery request signal before moving toward the initial departure point.
  • the personal mobile device server 8212 may transmit a signal to the personal mobile device 20a to move from the initial departure point to the boarding point 8520 of the shared vehicle 10a in a state where the user boards ( S1560).
  • the shared vehicle server 8211 may request the shared vehicle 10a to move from the scheduled ride point 8520 to the scheduled departure point 8530 (S1565).
  • the personal mobile device server 8212 may transmit, to the personal mobile device 20a, the information on the scheduled departure point 8530 and the final destination information of the shared vehicle 10a (S1570).
  • the shared vehicle server 8211 may determine a scheduled arrival time of the shared vehicle 10a at the getting off point (S1575).
  • the personal mobile device server 8212 may transmit a signal to the personal mobile device 20a so that the personal mobile device 20a moves toward the scheduled arrival point 8530 to the personal mobile device 20a (S1580).
  • the personal mobile device server 8212 receives the information about the point in time when the shared vehicle 10a arrives at the scheduled arrival point 8730, and the personal mobile device server 8212 is located at the scheduled departure point ( And transmitting a signal to the personal mobile device 20a such that the personal mobile device 20a is located at the scheduled arrival point 8530 at the time of arrival at 8530.
  • the time point of arrival at the scheduled arrival point 8530 may be determined based on the traffic situation.
  • the personal mobile device server 8212 moves the personal mobile device 20a toward the point of getting off at the state where the goods according to the user object delivery request signal are loaded into the personal mobile device 20a.
  • the signal may be transmitted to the mobile device 20a.
  • the personal mobile device server 8212 may request the personal mobile device 20a to move toward the point for acquiring the goods according to the user object delivery request signal before moving toward the point of getting off.
  • the personal mobile device server 8212 may send a signal to the personal mobile device 20a so that the personal mobile device 20a moves from the scheduled departure point 8530 to the final destination while the user is on board (see FIG. S1585).
  • the server 8212 may further include transmitting a signal to the personal mobile device 20a to move toward the boarding point.
  • the personal mobile device server 8212 signals the personal mobile device 20a to move toward the ride scheduled point in the state in which the goods according to the object delivery request signal are loaded in the personal mobile device 20a. Can be transmitted.
  • the personal mobile device server 8212 may request the personal mobile device 20a to move toward the point for acquiring the goods according to the user object delivery request signal before moving to the boarding point.
  • 84 illustrates a flow chart of a user transportation system according to an embodiment of the present invention.
  • 84 is a flow chart of the user transportation system of FIG. 82B.
  • 85 is a diagram referred to for explaining the use of a shared vehicle and a personal mobile device along a route according to an embodiment of the present invention.
  • the user terminal 390a may request a shared vehicle from the first departure point to the final destination 8404.
  • the user transport server 8214 may assign the shared vehicle 10a to the user who requested it (S1601).
  • the user transport server 8214 may determine whether the starting point 8405 is a position where the shared vehicles 10a and 10b can enter (S1605).
  • the user transport server 8214 may check whether the personal mobile devices 20a and 20b are used through the user terminal 390a. (S1610).
  • the user transport server 8214 calls any one 20a of the personal mobile devices 20a and 20b, and then calls the personal mobile device 20a. Identification color code can be given.
  • the user transport server 8214 may provide the user terminal 390a with information about the color code for identification (S1613).
  • the user transport server 8214 may provide a signal to move the personal mobile device 20a to the original origin 8505 (S1616).
  • the user transport server 8214 may determine whether the user is in a building (S1620). If it is determined that the user is in the building, the user transport server 8214 may cause the personal mobile device 20a to wait until the user exits the building (S1623). If it is determined that the user is out of the building, the user transportation server 8214 may provide a signal for the personal mobile device 20a to move to the boarding point 8520 in the state where the user boards.
  • the user transport server 8214 may determine whether the final destination 8404 is a position where the shared vehicles 10a and 10b can enter (S1630).
  • the user transport server 8214 may call any one 10a of the shared vehicles 10a and 10b (S1633).
  • the user transport server 8214 may provide a signal for the shared vehicle 10a to be moved to the final destination 8404 in a state where the user boards at the scheduled ride point 8520.
  • the user transport server 8214 may determine whether to use the personal mobile devices 20a and 20b through the user terminal 390a. It can be confirmed (S1640).
  • the user transport server 8214 may share the estimated time of arrival with the stations around the final destination 8404 (S1645).
  • the station can charge the batteries of the plurality of personal mobile devices 20a, 20b while storing the plurality of personal mobile devices 20a, 20b.
  • the user transport server 8214 may apply the color identification code to either 20a of the personal mobile devices 20a and 20b (S1650).
  • the user transport server 8214 may update the estimated time of arrival at the getting off point (S1655).
  • the user transport server 8214 may send a signal to the personal mobile device 20a such that the personal mobile device 20a moves to the scheduled departure point 8530 of the shared vehicle 10a.
  • the user transportation server 8214 may determine whether the shared vehicle 10a arrives at the scheduled arrival point 8530 (S1665). If the shared vehicle 10a does not arrive, the personal mobile device 20a may transmit a signal to the personal mobile device 20a so that the personal mobile device 20a waits at the scheduled arrival point 8530 until it arrives (S1670).
  • the user transport server 8214 may perform the personal transport device 20a at the disembarkation scheduled point 8530 while the user boards.
  • a signal may be transmitted to the personal mobile device 20a to move to the final destination 8540.
  • the user transport server 8214 detects another user call around the personal mobile device 20a (S1680), and if there is no other user call, the personal mobile device 20a returns to the station. In step S1690, a signal may be transmitted. If there is another user call, the user transport server 8214 may determine whether the remaining battery amount of the personal mobile device 20a is sufficient (S1685). If it is determined that the remaining battery amount is sufficient, the personal mobile device 20a may provide a signal to the personal mobile device 20a to move to the called new destination 8850. If it is determined that the remaining battery amount is not sufficient, a signal may be sent to the personal mobile device 20a so that the personal mobile device 20a returns to the station.
  • 86 is a diagram referred to describe information provided by a mobile terminal of a user according to an embodiment of the present invention.
  • At least one of the shared vehicle server 8211, the personal mobile device server 8212, and the user transport server 8214 may transmit information about a user transport service to the user terminal 390a.
  • At least one of the shared vehicle server 8211, the personal mobile device server 8212, and the user transport server 8214 transmits the movement route information, the shared vehicle 10a usage information, and the personal mobile device 20a movement information.
  • the user terminal 390a may display information about a user transport service.
  • the user terminal 390a may display information 8610 about a route traveled by the user using the shared vehicle 10a and the personal mobile device 20a.
  • the user terminal 390a may display information 8620 about a moving distance and a usage cost using the shared vehicle 10a.
  • the user terminal 390a may display information 8630 about the moving distance and the using cost using the personal mobile device 20a.
  • 87 is a diagram referred to for describing information sharing between a shared vehicle system and a personal mobile device system according to an embodiment of the present invention.
  • the imaging device 8015 of the personal mobile device 20 may acquire a user image.
  • the personal mobile device 20 may transmit the user image to the personal mobile device server 8212.
  • the personal mobile device server 8212 of FIG. 82A may authenticate the user based on the received user image.
  • the personal mobile device server 8121 may share authentication information with the shared vehicle server 8211 and the shared vehicles 10a and 10b.
  • At least one of the internal camera 251 and the external camera 252 of the shared vehicle 10 may acquire a user image.
  • the shared vehicle 10 may transmit the user image to the shared vehicle server 8211 of FIG. 82A.
  • the shared vehicle server 8211 may authenticate a user based on the received user image.
  • the shared vehicle server 8211 may share authentication information with the personal mobile device server 8212 and the personal mobile devices 20a and 20b.
  • 88 is a diagram to help explain a system for providing destination service information according to an embodiment of the present invention.
  • the destination service information providing system may include a user terminal 390, a shared vehicle server 8211 of FIGS. 82A and 82B, a first server 8850, and a shared vehicle 10. .
  • the user terminal 390 may receive a user input.
  • the user terminal 390 may receive a user input of setting the first point as a destination.
  • the user terminal 390 may transmit a signal corresponding to a user input having a first point as a destination, to the shared vehicle server 8211.
  • the shared vehicle server 8211 may be referred to as an autonomous vehicle server.
  • the autonomous vehicle server 8211 may set a first point requested through the user terminal 390 as a destination.
  • the autonomous vehicle server 8211 may provide a signal for the autonomous vehicle 10 to move to the first point while the user is in the autonomous vehicle 10.
  • the first server 8950 may transmit the first preliminary information and the first post information about the service provided by the first point to at least one of the shared vehicle server 8201 and the autonomous vehicle 10.
  • the first server 8950 may reflect user data and generate data for service provision at the first point.
  • the first server 8950 may obtain feedback data of a user corresponding to data for providing a service.
  • the feedback data may be understood as data generated while the user uses the service provided at the first point.
  • the feedback data may include data generated while a user is receiving medical care, data generated while purchasing a product, data generated through an airport boarding gate, data generated during a hotel check-in, or data ordered for food.
  • the data may include at least one of data generated while going to work, data generated while attending, data generated when entering a sports center or a theater, and data generated while entrusting a broken product to a service center.
  • the first server 8950 may generate first post information based on the feedback data.
  • the shared vehicle 10 may be referred to as an autonomous vehicle.
  • the autonomous vehicle 10 may receive advance information from the first server 8850 while moving toward the first point based on the signal received by the autonomous vehicle vehicle 8201.
  • the autonomous vehicle 10 may output dictionary information on at least one display 411, 412, 413.
  • the autonomous vehicle 10 may obtain a user input corresponding to the dictionary information.
  • the autonomous vehicle 10 may transmit user data based on a user input to the first server 8850.
  • the autonomous vehicle 10 may generate charging data based on the user data.
  • the autonomous vehicle 10 may transmit the charging data to the first server.
  • the first server 8950 may make a payment based on the received billing data.
  • the destination service information providing system may further include a second server 8960.
  • the second server 8960 may provide second dictionary information on a service provided at the second point.
  • the autonomous vehicle 10 may receive the second dictionary information, starting from the first point and moving toward the second point.
  • the autonomous vehicle 10 may convert the information output on the at least one display 411, 412, 413 from the first post information to the second preliminary information.
  • the autonomous vehicle 10 may convert the information output on the at least one display 411, 412, 413 from the first post information to the second preliminary information.
  • the autonomous vehicle 10 may include a display system (400 of FIG. 55).
  • the display system 400 may function as a vehicle user interface device that provides an interface function between the autonomous vehicle 10 and the user.
  • the display system 400 may be referred to as a vehicle user interface device.
  • the vehicle 10 may move from the departure point 8911 to the first point 8942 in the state where the user rides.
  • the user may arrive at the first point (8942) and use the service provided by the first point (8942). Thereafter, the vehicle 10 may move from the first point 8942 to the second point 8943.
  • the user may arrive at the second point 8943 and use the service provided by the second point 8943.
  • the vehicle user interface device 400 may include an input device 200, an imaging device 250, a communication device 300, a display device 417, an audio output unit 490, and an interface.
  • the unit 406 may include a processor 407, a memory 408, and a power supply 409.
  • the description of the display system 400 described with reference to FIGS. 55 to 67 may be applied to the vehicle user interface device 400.
  • FIG. 88 a vehicle user interface device 400 will be described based on differences or feature points from the display system 400.
  • the input device 200 may convert a user's input into an electrical signal.
  • the communication device 300 may exchange signals with at least one server wirelessly.
  • the communication device 300 may exchange signals wirelessly with the first server 8850 and the second server 8960.
  • the first server 8950 may be defined as a server used for providing a service at the first point 8942.
  • the second server 8960 may be defined as a server used to provide a service at the second point 8843.
  • the first point 8942 and the second point 8943 may be at least one of a hospital, a place of purchase of a product, an airport, a hotel, a restaurant, an office, a school, a sports center, a theater, and a service center.
  • At least one display 411, 412 413 may output information.
  • the at least one display 411, 412, 413 may output at least one of pre-information and post-information about a service provided by the first point 8942.
  • the at least one display 411, 412, 413 may output at least one of pre-information and post-information about a service provided by the second point 8843.
  • the dictionary information may be defined as information provided to the user before arriving at the first point 8942 or the second point 8843.
  • the dictionary information may be defined as information provided to the user before using the service provided at the first point 8942 or the second point 8943. The user may use a service provided at the first point 8942 or the second point 8943 based on the dictionary information.
  • the post information may be defined as information provided to the user after departure from the first point 8942 or the second point 8943.
  • the post information may be defined as information provided to the user after using the service provided at the first point 8942 or the second point 8843.
  • the interface unit 406 may exchange signals with at least one electronic device mounted in the vehicle 10.
  • the processor 407 is a dictionary for the services provided at the first point 8942 from the first server 8850 via the communication device 300 while the vehicle 10 is moving towards the first point 8942. Information can be received.
  • the processor 407 may output dictionary information to the at least one display 411, 412, 413.
  • the processor 407 may obtain a user input corresponding to the dictionary information.
  • the processor 407 may obtain a user input through at least one of an input device and a communication device.
  • the processor 407 may obtain a user input by receiving an electrical signal generated by the input device.
  • the processor 407 may obtain a user input by receiving the electrical signal converted by the mobile terminal 390 through the communication device 300.
  • the processor 407 may transmit user data based on a user input to the first server 8950 through the communication device 300.
  • the processor 407 acquires the personal information of the user through at least one of the input device 200 and the communication device 300, and obtains the obtained personal information through the communication device 300 from the first server 8850. ) Can be sent.
  • the processor 407 may, at the first point 8942, from the first server 8850 via the communication device 300, while the vehicle 10 is moving from the first point 8942 to the second point 8943. It is possible to receive the post information about the service provided.
  • the processor 407 may output the post information to the displays 411, 412, and 413.
  • the post information may be understood as other information than the prior information.
  • the processor 407 may, via the communication device 300, from the second server 8560, the second point 8943, while the vehicle 10 is moving from the first point 8942 to the second point 8943. Preliminary information about the services provided by can be received. When the condition is satisfied, the processor 407 may provide advance information about a service provided by the second point 8943 after the post information about the service provided by the first point 8942 displayed on the displays 411, 412, and 413. The display 411, 412, 413 can be controlled to switch to.
  • condition may be a first condition in which the distance value from the first point 8942 to the vehicle 10 is greater than the distance value from the second point 8943 to the vehicle 10.
  • the condition may be a second condition in which a user input for setting the second point 8943 as a destination is received.
  • condition may be a third condition in which a user input for ending the screen related to the first point 8942 is received.
  • the processor 407 may obtain data related to a user's intention of using a service provided at the first point 8942 from at least one electronic device mounted in the vehicle 10.
  • the processor 407 may stop the output of the dictionary information when acquiring the first data related to the intention of not using the service provided by the first point 8942.
  • the first data may be data generated by a motion in which the user flips the sheet from at least one of the seat position and the internal camera.
  • 89 is a flowchart illustrating a destination service information providing system according to an embodiment of the present invention.
  • the processor 407 may set a destination (S205).
  • the processor 407 may set a destination based on a user input through the input apparatus 200.
  • the processor 407 may receive a user input through the mobile terminal 390 to the communication device 300 and set a destination.
  • the destination can be understood as the first point 8942.
  • the processor 407 may acquire user information (S210).
  • the processor 407 may obtain user information based on a user input through the input apparatus 200.
  • the processor 407 may obtain user information from the mobile terminal 390.
  • the user information may include at least one of personal information of the user, authentication information of the user, biometric information of the user, body information of the user, and service history information of the user.
  • the processor 407 may request service information of the destination (S220). For example, if it is determined that the distance between the vehicle 10 and the destination is less than or equal to the reference value, the processor 407 may request service information of the destination. For example, if it is determined that the estimated arrival time of the destination is less than or equal to the reference value, the processor 407 may request service information of the destination.
  • the first server 8950 may provide advance information of a service to the vehicle user interface device 400 (S225).
  • the processor 407 may display the dictionary information of the service on the displays 411, 412, and 413 (S230). For example, the processor 407 may stop the content the user is watching and display dictionary information of the service. For example, the processor 407 may display the content being viewed by the user in the first area of the displays 411, 412, and 413, and display the dictionary information of the service in the second area.
  • the processor 407 may receive a user input based on the dictionary information (S235).
  • the processor 407 may transmit user data based on a user input to the first server 8850 through the communication device 300 (S240).
  • the vehicle 10 arrives at the destination, and the first server 8850 may provide a service.
  • the first server 8850 may proceed with payment for the service (S245).
  • the payment system 700 of the cabin system 100 may generate, in advance, billing data for a service provided using the first server 8850 based on user input data.
  • the first server 8950 may perform settlement based on billing data.
  • the first server 8950 may provide post-information about the service to the vehicle user interface device 400 (S250).
  • the processor 407 may receive the after information through the communication device 300 and display the after information about the service (S255).
  • 90A-90B illustrate service information provided according to a destination according to an embodiment of the present invention.
  • the first point 8942 or the second point 8943 may be a hospital.
  • the hospital may be a first point (8942) or a second point (8943).
  • Preliminary information on the service provided by the first point 8942 or the second point 8943 may include at least one of hospital reception status information, waiting sequence information, and medical staff information.
  • the user data may include at least one of patient medical data for reception, pre-drug medication data, questionnaire data, body temperature data, pulse data, and blood pressure data.
  • the cabin system 100 may further include a health care sensor.
  • the health care sensor may generate information about at least one of a user's body temperature, pulse rate, and blood pressure.
  • the processor 407 may transmit information about at least one of a user's body temperature, pulse rate, and blood pressure generated by the health care sensor to the first server 8950.
  • the first branch 8942 or the second branch 8943 may be a place for purchasing a product such as a department store, a mart, a grocery store.
  • the product purchase place may be the first point 8942 or the second point 8943.
  • the dictionary information on the service provided by the first point 8942 or the second point 8843 may include at least one of new product information, seasonal fruit information, popular product information, and sale information.
  • the user data may include at least one of user's body data, SNS data, interest product data, and membership history data.
  • the post information on the service provided by the first point 8942 or the second point 8942 may include at least one of purchase goods related information and delivery service information.
  • the first point 8942 or the second point 8943 may be an airport. Depending on the situation, the airport may be a first point (8942) or a second point (8943). Preliminary information on the service provided by the first point (8942) or the second point (8943) is at least any one of terminal information, airline information, delay information, airport usage information and pre-check in information It may include one.
  • the user data may include at least one of a reservation ticket data, passport data, user biometric data, and luggage data.
  • the post information about the service provided by the first point 8942 or the second point 8942 may include at least one of usage satisfaction survey information and jet lag resolution information.
  • the first point 8942 or the second point 8943 may be a hotel. Depending on the situation, the hotel may be a first point (8942) or a second point (8943).
  • Preliminary information on the service provided by the first point 8942 or the second point 8943 includes pre-check in information, available room information, concierge service information, tour information, and linkage. It may include at least one of service information and service guide information for each accommodation type.
  • the user data may include at least one of membership history data, passport data, user biometric data, user status data, luggage information, preference environment data, and passenger data.
  • the post information about the service provided by the first point 8942 or the second point 8942 may include at least one of the use satisfaction survey information and the membership update information.
  • the first point 8942 or the second point 8943 may be a restaurant such as a drive through cafe or restaurant. Depending on the situation, the restaurant may be the first point (8942) or second point (8943).
  • Preliminary information on the service provided by the first point 8942 or the second point 8943 may include at least one of menu information, preparation status information, vehicle entry congestion information, and estimated waiting time information.
  • the user data may include at least one of selection menu data, movement route data, use schedule chain store data, and payment data.
  • the post information about the service provided by the first point 8942 or the second point 8942 may include usage satisfaction survey information.
  • the first point 8942 or the second point 8943 may be an office. Depending on the situation, the office may be a first point (8942) or a second point (8943).
  • the dictionary information about the service provided by the first point 8942 or the second point 8843 may include at least one of schedule information, company-related news information, and company mail system access information.
  • the user data may include at least one of access authority proof data and biometric authentication data.
  • Post information about the service provided by the first point 8942 or the second point 8942 may include schedule information the next day.
  • the first point 8942 or the second point 8943 may be a school. Depending on the situation, the school may be the first point 8942 or the second point 8943.
  • Preliminary information on the service provided by the first point (8942) or the second point (8943), at least one of prior learning information, class timetable information, preparations information, home register information, announcement information, and special activity information Can include.
  • User data may include identification data.
  • the post information about the service provided by the first point 8942 or the second point 8942 may include at least one of home record information, announcement information, learning summary information, special activity information, and supplementary class information. Can be.
  • the first point 8942 or the second point 8943 may be a sports center. Depending on the situation, the sports center may be a first point (8942) or a second point (8943).
  • the preliminary information on the service provided by the first point 8942 or the second point 8943 may include at least one of provided exercise item information, instructor information, and recommended exercise information for each body type.
  • the user data may include at least one of body data, exercise data of interest, and SNS data.
  • the post information about the service provided by the first point 8942 or the second point 8942 may include at least one of eating habit related information and supplementary exercise information.
  • the first point 8942 or the second point 8943 may be a theater such as a movie theater or a performance hall. Depending on the situation, the theater may be a first point (8942) or a second point (8943). Preliminary information about the service provided by the first point (8942) or the second point (8943) may include at least one of theater snack sales menu information, theater location guide information, performance-related advertisement information and recommended performance list information. Can be.
  • the performance may be a concept including a movie, a theater performance, a music performance, a musical performance, or the like.
  • the user data may include at least one of advance data, interest performance data, viewing history data, and passenger data.
  • the post information on the service provided by the first point 8942 or the second point 8942 may include at least one of the scheduled performance information, the reservation information, and the performance rating information.
  • the first point 8942 or the second point 8943 may be a service center. Depending on the situation, the service center may be a first point (8942) or a second point (8943).
  • the dictionary information about the service provided by the first point 8942 or the second point 8943 may include at least one of service article information and symptom-specific action information.
  • the user data may include at least one of customer data, service request product data, and symptom data.
  • the post information about the service provided by the first point 8942 or the second point 8942 may include at least one of usage satisfaction survey information and revisit schedule information.
  • 91A-91C illustrate information provided in a vehicular user interface device according to an embodiment of the invention.
  • the processor 407 may acquire advance information 2723 of the service provided by the first server 8850. It may be displayed on the displays 411, 412, and 413.
  • the dictionary information 2751 has been described with reference to FIGS. 90A to 90B.
  • the processor 407 may request a user input 2752 in response to the dictionary information 2751.
  • the processor 407 may receive a user input through the input device 200 and generate user data based on the user input. User data has been described with reference to FIGS. 90A through 90B.
  • the processor 407 may display the driving speed information 2701 of the vehicle 10 in one area of the displays 411, 412, and 413.
  • the processor 407 may display the estimated time of arrival information 2762 up to the first point 8942 in one region of the displays 411, 412, and 413.
  • the processor 407 at least one signal provided to the vehicle for adjusting the traveling speed so that the vehicle 10 can arrive at the first point (8942) in accordance with the service reservation time of the first point (8942). It can be provided to an electronic device (for example, ECU).
  • ECU electronic device
  • the processor 407 may postpone the service provided by the first server 8850.
  • Information 2753 may be displayed on displays 411, 412, 413.
  • the post information 2753 is as described with reference to FIGS. 90A to 90B.
  • the processor 407 may display the dictionary information 2754 of the service provided by the second server 8960 on the displays 411, 412, and 413.
  • the dictionary information 2754 is as described with reference to FIGS. 90A to 90B.
  • the processor 407 may display the post information 2755 of the first server 8950 and the dictionary information 2754 of the second server 8560 on the displays 411, 412, and 413.
  • the processor 407 may display the post-information 2753 of the first server 8950 displayed on the displays 411, 412, and 413 according to a predetermined condition.
  • the display of dictionary information 2754 can be switched.
  • the present invention described above can be embodied as computer readable codes on a medium on which a program is recorded.
  • the computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet).
  • the computer may also include a processor or a controller. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 적어도 하나의 서버가, 개인용 이동 장치의 이동 서비스 요청 신호를 수신하는 단계; 적어도 하나의 서버가, 개인용 이동 장치에, 상기 공유형 차량의 하차 예정 지점 및 상기 최종 목적지에 대한 정보를 전송하는 단계; 및 적어도 하나의 서버가, 상기 개인용 이동 장치에, 상기 하차 예정 지점을 향해 이동하도록 신호를 전송하는 단계;를 포함하는 사용자 수송 방법에 관한 것이다.

Description

사용자 수송 방법 및 개인용 이동 장치
본 발명은 사용자 수송 방법 및 개인용 이동 장치에 관한 것이다.
자율 주행 차량은, 운전자의 운전 조작 없이 스스로 운행이 가능한 차량을 말한다. 이미 많은 업체들이 자율 주행 차량 사업에 진출하여, 연구 개발에 몰두하고 있다. 최근에는 특정 개인이 혼자 이용하는 자율 주행 차량뿐만 아니라 여러 사람이 함께 이용하는 공유형(share) 자율 주행 차량에 대한 개념이 산업계에 도입되고 있다.
자율 주행 차량이 도입된다고 하여도, 최초 출발지에서 최종 목적지까지 자율 주행 차량으로 이동할 수 없는 경우도 있다. 이러한 경우 도어 투 도어(door to door) 서비스까지는 제공하지 못하는 문제가 있다.
본 발명은 상기한 문제점을 해결하기 위하여, 도어 투 도어 수송이 가능한 사용자 수송 방법을 제공하는데 목적이 있다.
또한, 도어 투 도어 수송을 가능하게 하기 위한 개인용 이동 장치를 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 사용자 수송 방법은 공유형 차량과 개인용 이동 장치를 연계하여 이용할 수 있다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 차량이 주행될 수 없는 구간에서는 개인용 이동 장치를 이용하여 사용자를 수송할 수 있어 최초 출발 지점부터 최종 목적 지점까지 사용자를 수송할 수 있는 효과가 있다.
둘째, 사용자의 승차 예정 장소에 시간에 맞추어 공유형 차량을 제공할 수 있고, 하차 예정 장소에 시간에 맞추어 개인용 이동 장치를 제공할 수 있어, 최초 출발 지점부터 최종 목적 지점까지 최단 시간에 이동할 수 있는 효과가 있다.
셋째, 공유형 차량 서버와 개인용 이동 장치 서버간 정보를 공유함으로써, 사용자의 인증등의 절차를 한번에 수행할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 3은 본 발명의 실시에에 따른 차량용 캐빈 시스템을 설명하는데 참조되는 블럭도이다.
도 4a 내지 도 4c는 본 발명의 실시예에 따른 입력 장치를 설명하는데 참조되는 도면이다.
도 5는 본 발명의 실시예에 따라 통신 장치와 이동 단말기의 통신 동작을 설명하는데 참조되는 도면이다.
도 6은 본 발명의 실시예에 따른 디스플레이 시스템을 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 카고 시스템을 설명하는데 참조되는 도면이다.
도 8은 본 발명의 실시예에 다른 시트 시스템을 설명하는데 참조되는 도면이다.
도 9는 본 발명의 실시예에 따른 페이먼트 시스템을 설명하는데 참조되는 도면이다.
도 10은 본 발명의 실시예에 따라 사용자의 이용 시나리오를 설명하는데 참조되는 도면이다.
도 11 내지 도 36은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 37은 본 발명의 실시예에 따른 페이먼트 시스템의 제어 블럭도이다.
도 38은 본 발명의 실시예에 따른 페이먼트 시스템의 동작을 설명하는데 참조되는 플로우 차트이다.
도 39는 본 발명의 실시예에 따른 페이먼트 시스템의 동작을 설명하는데 참조되는 플로우 차트이다.
도 40은 본 발명의 실시예에 따른 영상 데이터 획득 시나리오를 설명하는데 참조되는 도면이다.
도 41은 본 발명의 실시예에 따른 영상 데이터 획득 시나리오를 설명하는데 참조되는 도면이다.
도 42 내지 도 23은 본 발명의 실시예에 따른 상품 선택 모션 및 상품 개봉 모션을 설명하는데 참조되는 도면이다.
도 44는 본 발명의 실시예에 따라 정보를 표시하는 동작을 설명하는데 참조되는 도면이다.
도 45는 본 발명의 실시예에 따라 이동 단말기에 정보를 제공하는 동작을 설명하는데 참조되는 도면이다.
도 46은 본 발명의 실시예에 결제를 진행하는 동작을 설명하는데 참조되는 도면이다.
도 47은 본 발명의 실시예에 따른 카고 시스템의 제어 블럭도이다.
도 48는 본 발명의 실시예에 따른 카고 시스템의 동작을 설명하는데 참조되는 플로우 차트이다.
도 49은 본 발명의 실시예에 따른 캐빈을 간략하게 그린 도면이다.
도 50는 본 발명의 실시예에 따른 박스를 예시한다.
도 51 내지 도 52은 본 발명의 실시예에 따른 무빙 메카니즘을 설명하는데 참조되는 도면이다.
도 53은 본 발명의 실시예에 따라 사용자 입력에 따라 상품이 노출되는 동작을 설명하는데 참조되는 도면이다.
도 54은 본 발명의 실시예에 따라 복수의 박스 중 선택된 박스만 오픈되는 동작을 설명하는데 참조되는 도면이다.
도 55은 본 발명의 실시예에 따른 디스플레이 시스템의 제어 블럭도이다.
도 56는 본 발명의 실시예에 따른 사용자의 시팅 포지션을 예시한다.
도 57은 본 발명의 실시예에 따른 디스플레이 시청 각도를 조절하기 위한 사용자 입력을 예시한다.
도 58 내지 도 59는 본 발명의 실시예에 따른 제1 디스플레이의 물리적인 시청 각도 조절 동작을 예시한다.
도 60 내지 도 61은 본 발명의 실시예에 따른 제2 디스플레이의 물리적인 시청 각도 조절 동작을 예시한다.
도 62 내지 도 63는 본 발명의 실시예에 따른 제3 디스플레이의 물리적인 시청 각도 조절 동작을 예시한다.
도 64은 본 발명의 실시예에 따른 디스플레이의 표시 영역의 위치 변경에 따른 시청 각도 조절 동작을 예시한다.
도 65은 본 발명의 실시예에 따른 터치 입력부의 틸팅 각도 조절 동작을 예시한다.
도 66는 본 발명의 실시에에 따른 조그 다이얼 장치의 상승과 하강 조절 동작을 예시한다.
도 67은 본 발명의 실시예에 따른 탑승자 수에 따른 디스플레이의 표시 영역 구분 동작을 예시한다.
도 68 내지 도 69는 본 발명의 실시예에 따른 차량용 멀미 저감 시스템을 설명하는데 참조되는 도면이다. 도 68은 제1 디스플레이에 대해 예시하고, 도 69는 제3 디스플레이에 대해 예시한다.
도 70a 내지 도 70c는 본 발명의 실시예에 따른 광 출력 영역을 설명하는데 참조되는 도면이다.
도 71a 내지 도 71b는 본 발명의 실시예에 따른 디스플레이 및 광 출력 영역을 설명하는데 참조되는 도면이다.
도 72 내지 74는 본 발명의 실시예에 따른 광 출력 영역의 광 출력 패턴의 변경을 설명하는데 참조되는 도면이다.
도 75는 본 발명의 실시예에 따라 멀미를 저감시키는 그래픽 객체를 출력하는 동작을 설명하는데 참조되는 도면이다.
도 76은 본 발명의 실시예에 따라 화상 회의 중 멀미를 저감시키는 동작을 설명하는데 참조되는 도면이다.
도 77은 본 발명의 실시예에 따라 이동 단말기를 통해 컨텐츠를 시청할 때, 멀미를 저감시키는 동작을 설명하는데 참조되는 도면이다.
도 78은 본 발명의 실시예에 따라 멀미를 저감 시키기 위한 시트의 자세 조정 동작을 설명하는데 참조되는 도면이다.
도 79는 본 발명의 실시예에 따른 개인용 이동 장치의 외관을 예시한다.
도 80은 본 발명의 실시예에 따른 개인용 이동 장치의 제어 블럭도를 예시한다.
도 81은 본 발명의 실시예에 따른 공유형 차량 및 개인용 이동 장치를 예시한다.
도 82a 내지 도 82b는 본 발명의 실시예에 따른 사용자 수송 시스템을 설명하는데 참조되는 도면이다.
도 83은 본 발명의 실시예에 따른 사용자 수송 시스템의 플로우 차트를 예시한다.
도 84는 본 발명의 실시예에 따른 사용자 수송 시스템의 플로우 차트를 예시한다.
도 85는 본 발명의 실시예에 따라 경로에 따른 공유형 차량과 개인용 이동 장치의 이용을 설명하는데 참조되는 도면이다.
도 86은 본 발명의 실시예에 따라 사용자의 이동 단말기에 의해 제공되는 정보를 설명하는데 참조되는 도면이다.
도 87은 본 발명의 실시예에 따라 공유 차량 시스템과 개인용 이동 장치 시스템과의 정보 공유를 설명하는데 참조되는 도면이다.
도 88은 본 발명의 실시예에 따른 목적지 서비스 정보 제공 시스템을 설명하는데 참조되는 도면이다.
도 89는 본 발명의 실시예에 따른 목적지 서비스 정보 제공 시스템의 플로우 차트를 예시한다.
도 90a 내지 도 90b는 본 발명의 실시예에 따른 목적지에 따라 제공되는 서비스 정보를 예시한다.
도 91a 내지 도 91c는 본 발명의 실시예에 따라 차량용 사용자 인터페이스 장치에서 제공되는 정보를 예시한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 이하에서는, 차량(10)으로 운전자의 주행 조작 없이 주행하는 자율 주행 자동차를 예를들어 기술한다. 자율 주행 자동차는, 사용자 입력에 기초하여, 자율 주행 모드 또는 수동 주행 모드로 상호 전환될 수 있다.
차량(10)은, 파워 트레인을 제어하는 파워 트레인 구동부, 샤시를 제어하는 샤시 구동부, 도어를 제어하는 도어 구동부, 각종 안전 장치를 제어하는 안전 장치 구동부, 각종 램프를 제어하는 램프 구동부 및 공조 장치를 제어하는 공조 구동부를 포함할 수 있다. 차량(10)에 포함되는 각종 구동부는, 전자 장치로 설명될 수 있다. 실시예에 따라, 차량(10)은, 본 명세서에서 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
차량(10)은, 차량(10) 외부의 오브젝트를 검출하는 적어도 하나의 오브젝트 검출 장치를 포함할 수 있다. 오브젝트 검출 장치는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다. 차량(10)에 포함되는 적어도 하나의 오브젝트 검출 장치는, 전자 장치로 설명될 수 있다.
차량(10)은, 차량(10) 외부에 위치하는 디바이스와 신호를 교환하기 위한 적어도 하나의 통신 장치를 포함할 수 있다. 통신 장치는, 인프라(예를 들면, 서버) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 차량(10)에 포함되는 적어도 하나의 통신 장치는 전자 장치로 설명될 수 있다.
차량(10)은, 내부 통신 시스템을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
차량(10)은, 캐빈 시스템(100)을 포함할 수 있다. 캐빈 시스템(100)은, 도 2 내지 도 3을 참조하여 설명한다.
도 2는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 3은 본 발명의 실시에에 따른 차량용 캐빈 시스템을 설명하는데 참조되는 블럭도이다.
도 4a 내지 도 4c는 본 발명의 실시예에 따른 입력 장치를 설명하는데 참조되는 도면이다.
도 5는 본 발명의 실시예에 따라 통신 장치와 이동 단말기의 통신 동작을 설명하는데 참조되는 도면이다.
도 6은 본 발명의 실시예에 따른 디스플레이 시스템을 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 카고 시스템을 설명하는데 참조되는 도면이다.
도 8은 본 발명의 실시예에 다른 시트 시스템을 설명하는데 참조되는 도면이다.
도 9는 본 발명의 실시예에 따른 페이먼트 시스템을 설명하는데 참조되는 도면이다.
도 2 내지 도 9를 참조하면, 차량용 캐빈 시스템(100)(이하, 캐빈 시스템)은 차량(10)을 이용하는 사용자를 위한 편의 시스템으로 정의될 수 있다. 캐빈 시스템(100)은, 디스플레이 시스템(400), 카고 시스템(500), 시트 시스템(600) 및 페이 먼트 시스템(700)을 포함하는 최상위 시스템으로 설명될 수 있다. 캐빈 시스템(100)은, 메인 컨트롤러(170), 메모리(175), 인터페이스부(180), 전원 공급부(190), 입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(490), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700)을 포함할 수 있다. 실시예에 따라, 캐빈 시스템(100)은, 본 명세서에서 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
메인 컨트롤러(170)는, 입력 장치(200), 통신 장치(300), 디스플레이 시스템(400), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700)과 전기적으로 연결되어 신호를 교환할 수 있다. 메인 컨트롤러(170)는, 입력 장치(200), 통신 장치(300), 디스플레이 시스템(400), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700)을 제어할 수 있다. 메인 컨트롤러(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
메인 컨트롤러(170)는, 적어도 하나의 서브 컨트롤러로 구성될 수 있다. 실시예에 따라, 메인 컨트롤러(170)는, 복수의 서브 컨트롤러를 포함할 수 있다. 복수의 서브 컨트롤러는 각각이, 그루핑된 캐빈 시스템(100)에 포함된 장치 및 시스템을 개별적으로 제어할 수 있다. 캐빈 시스템(100)에 포함된 장치 및 시스템은, 기능별로 그루핑되거나, 착좌 가능한 시트를 기준으로 그루핑될 수 있다.
메인 컨트롤러(171)는, 적어도 하나의 프로세서(171)를 포함할 수 있다. 도 3에는 메인 컨트롤러(171)가 하나의 프로세서(171)를 포함하는 것으로 예시되나, 메인 컨트롤러(171)는, 복수의 프로세서를 포함할 수도 있다. 프로세서(171)는, 상술한 서브 컨트롤러 중 어느 하나로 분류될 수도 있다.
프로세서(171)는, 통신 장치(300)를 통해, 제1 사용자에 대한 제1 정보 및 제2 사용자에 대한 제2 정보를 획득할 수 있다. 제1 사용자의 제1 이동 단말기는, 캐빈 시스템(100)에 제1 정보를 전송할 수 있다. 제2 사용자의 제2 이동 단말기는, 캐빈 시스템(100)에 제2 정보를 전송할 수 있다. 통신 장치(300)는, 제1 정보 및 제2 정보를 수신하여 프로세서(171)에 제공할 수 있다.
프로세서(171)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나에서 수신되는 영상 데이터에 기초하여, 제1 사용자 및 제2 사용자 각각을 특정할 수 있다. 프로세서(171)는, 영상 데이터에 영상 처리 알고리즘을 적용하여 제1 사용자 및 제2 사용자를 특정할 수 있다. 예를 들면, 프로세서(171)는, 제1 정보 및 제2 정보와 영상 데이터를 비교하여 제1 사용자 및 제2 사용자를 특정할 수 있다. 예를 들면, 제1 정보는, 제1 사용자의 경로 정보, 신체 정보, 동승자 정보, 짐 정보, 위치 정보, 선호하는 컨텐츠 정보, 선호하는 음식 정보, 장애 여부 정보 및 이용 이력 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 제2 정보는, 제2 사용자의 경로 정보, 신체 정보, 동승자 정보, 짐 정보, 위치 정보, 선호하는 컨텐츠 정보, 선호하는 음식 정보, 장애 여부 정보 및 이용 이력 정보 중 적어도 어느 하나를 포함할 수 있다.
프로세서(171)는, 입력 장치(200)에 의해 생성되는 전기적 신호에 기초하여, 사용자에게 컨텐츠가 제공되도록 디스플레이 및 스피커 중 적어도 어느 하나에 제어 신호를 제공할 수 있다.
프로세서(171)는, 제1 정보에 따라 복수의 시트 중 제1 사용자의 제1 탑승 시트를 결정할 수 있다. 프로세서(171)는, 제1 정보에 따라 제1 탑승 시트의 자세를 결정할 수 있다. 프로세서(171)는, 제2 정보에 따라 복수의 시트 중 제2 사용자의 제2 탑승 시트를 결정할 수 있다. 프로세서(171)는, 제2 정보에 따라 제2 탑승 시트의 자세를 결정할 수 있다.
프로세서(171)는, 통신 장치(300), 내부 카메라(251), 외부 카메라(252), 입력 장치(200), 디스플레이 시스템(400)의 디스플레이, 음향 출력부(490)의 스피커, 카고 시스템(500), 시트 시스템(600)의 복수의 시트 중 적어도 어느 하나로부터 수신되는 전기적 신호에 기초하여, 서비스 요금을 결정할 수 있다. 프로세서(171)는, 결정된 서비스 요금이 과금되도록 페이먼트 시스템(700)에 신호를 제공할 수 있다.
메인 컨트롤러(170)는, 인공지능 에이전트(artificial intelligence agent)(172)를 포함할 수 있다. 인공지능 에이전트(172)는, 입력 장치(200)를 통해 획득된 데이터를 기초로 기계 학습(machine learning)을 수행할 수 있다. 인공지능 에이전트(172)는, 기계 학습된 결과에 기초하여, 디스플레이 시스템(400), 음향 출력부(490), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700) 중 적어도 어느 하나를 제어할 수 있다.
한편, 메인 컨트롤러(170)는, 차량용 전자 장치로 이해될 수 있다. 전자 장치(170)는, 인터페이스부 및 프로세서(171)를 포함할 수 있다. 전자 장치(170)의 인터페이스부는, 외부 디바이스와 신호를 교환하는 통신 장치(300), 캐빈 내의 영상을 촬영하는 적어도 하나의 내부 카메라(251), 차량 외부 영상을 촬영하는 적어도 하나의 외부 카메라(252), 사용자 입력을 전기적 신호로 전환하는 입력 장치(200), 시각적 컨텐츠를 출력하는 적어도 하나의 디스플레이, 청각적 컨텐츠를 출력하는 적어도 하나의 스피커 및 복수의 사용자가 각각 d좌할 수 있는 복수의 시트 중 적어도 어느 하나와 신호를 교환할 수 있다. 전자 장치(170)의 프로세서(171)는, 상기 통신 장치를 통해, 제1 사용자에 대한 제1 정보 및 제2 사용자에 대한 제2 정보를 획득하고, 상기 내부 카메라 및 외부 카메라 중 적어도 어느 하나로부터 수신되는 영상 데이터에 기초하여, 상기 제1 사용자 및 상기 제2 사용자 각각을 특정하고, 상기 입력 장치에 의해 생성되는 전기적 신호에 기초하여 사용자에게 컨텐츠가 제공되도록 상기 디스플레이 및 상기 스피커 중 적어도 어느 하나에 제어 신호를 제공하고, 상기 제1 정보에 따라 상기 복수의 시트 중 상기 제1 사용자의 제1 탑승 시트를 결정하고, 상기 제2 정보에 따라 상기 복수의 시트 중 상기 제2 사용자의 제2 탑승 시트를 결정하고, 상기 제1 정보에 따라 상기 제1 탑승 시트의 자세를 결정하고, 상기 제2 정보에 따라 상기 제2 탑승 시트의 자세를 설정할 수 있다.
메모리(175)는, 메인 컨트롤러(170)와 전기적으로 연결된다. 메모리(175)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(175)는, 메인 컨트롤러(170)에서 처리된 데이터를 저장할 수 있다. 메모리(175)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(175)는 메인 컨트롤러(170)의 처리 또는 제어를 위한 프로그램 등, 캐빈 시스템(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(175)는, 메인 컨트롤러(170)와 일체형으로 구현될 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(180)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
전원 공급부(190)는, 캐빈 시스템(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 캐빈 시스템(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(190)는, 메인 컨트롤러(170)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 예를 들면, 전원 공급부(190)는, SMPS(switched-mode power supply)로 구현될 수 있다.
캐빈 시스템(100)은, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 메인 컨트롤러(170), 메모리(175), 인터페이스부(180) 및 전원 공급부(190)는, 적어도 하나의 인쇄 회로 기판에 실장될 수 있다.
입력 장치(200)는, 사용자 입력을 수신할 수 있다. 입력 장치(200)는, 사용자 입력을 전기적 신호로 전환할 수 있다. 입력 장치(200)에 의해 전환된 전기적 신호는 제어 신호로 전환되어 디스플레이 시스템(400), 음향 출력부(490), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700) 중 적어도 어느 하나에 제공될 수 있다. 메인 컨트롤러(170) 또는 캐빈 시스템(100)에 포함되는 적어도 하나의 프로세서는 입력 장치(200)로부터 수신되는 전기적 신호에 기초한 제어 신호를 생성할 수 있다.
입력 장치(200)는, 터치 입력부(210), 제스쳐 입력부(220), 기계식 입력부(230) 및 음성 입력부(240) 중 적어도 어느 하나를 포함할 수 있다.
도 4a에 예시된 바와 같이, 터치 입력부(210)는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 터치 입력부(210)는, 사용자의 터치 입력을 감지하기 위해 적어도 하나의 터치 센서(211)를 포함할 수 있다. 실시예에 따라, 터치 입력부(210)는 디스플레이 시스템(400)에 포함되는 적어도 하나의 디스플레이 와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 캐빈 시스템(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.
도 4a에 예시된 바와 같이, 제스쳐 입력부(220)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 제스쳐 입력부(220)는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서(221) 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 제스쳐 입력부(220)는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부(220)는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다. 제스쳐 입력부(220)는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다.
도 4a에 예시된 바와 같이, 기계식 입력부(230)는, 기계식 장치(231)를 통한 사용자의 물리적인 입력(예를 들면, 누름 또는 회전)을 전기적 신호로 전환할 수 있다. 기계식 입력부(230)는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다.
한편, 제스쳐 입력부(220)와 기계식 입력부(230)는 일체형으로 형성될 수 있다. 예를 들면, 입력 장치(200)는, 제스쳐 센서가 포함되고, 주변 구조물(예를 들면, 시트, 암레스트 및 도어 중 적어도 어느 하나)의 일부분에서 출납 가능하게 형성된 조그 다이얼 장치를 포함할 수 있다. 조그 다이얼 장치가 주변 구조물과 평평한 상태를 이룬 경우, 조그 다이얼 장치는 제스쳐 입력부(220)로 기능할 수 있다. 조그 다이얼 장치가 주변 구조물에 비해 돌출된 상태의 경우, 조그 다이얼 장치는 기계식 입력부(230)로 기능할 수 있다.
도 4b에 예시된 바와 같이, 음성 입력부(240)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 음성 입력부(240)는, 적어도 하나의 마이크로 폰(241)을 포함할 수 있다. 음성 입력부(240)는, 빔 포밍 마이크(Beam foaming MIC)를 포함할 수 있다.
영상 장치(250)는, 적어도 하나의 카메라를 포함할 수 있다. 영상 장치(250)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나를 포함할 수 있다. 내부 카메라(251)는, 캐빈 내의 영상을 촬영할 수 있다. 외부 카메라(252)는, 차량 외부 영상을 촬영할 수 있다.
도 4c에 예시된 바와 같이, 내부 카메라(251)는, 캐빈 내의 영상을 획득할 수 있다. 영상 장치(250)는, 적어도 하나의 내부 카메라(251)를 포함할 수 있다. 영상 장치(250)는, 탑승 가능 인원에 대응되는 갯수의 카메라(251)를 포함하는 것이 바람직하다. 영상 장치(250)는, 내부 카메라(251)에 의해 획득된 영상을 제공할 수 있다. 메인 컨트롤러(170) 또는 캐빈 시스템(100)에 포함되는 적어도 하나의 프로세서는, 내부 카메라(251)에 의해 획득된 영상에 기초하여 사용자의 모션을 검출하고, 검출된 모션에 기초하여 신호를 생성하여, 디스플레이 시스템(400), 음향 출력부(490), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700) 중 적어도 어느 하나에 제공할 수 있다.
외부 카메라(252)는, 차량 외부 영상을 획득할 수 있다. 영상 장치(250)는, 적어도 하나의 내부 카메라(252)를 포함할 수 있다. 영상 장치(250)는, 탑승 도어에 대응되는 갯수의 카메라(252)를 포함하는 것이 바람직하다. 영상 장치(250)는, 외부 카메라(252)에 의해 획득된 영상을 제공할 수 있다. 메인 컨트롤러(170) 또는 캐빈 시스템(100)에 포함되는 적어도 하나의 프로세서는, 외부 카메라(252)에 의해 획득된 영상에 기초하여 사용자 정보를 획득할 수 있다. 메인 컨트롤러(170) 또는 캐빈 시스템(100)에 포함되는 적어도 하나의 프로세서는, 사용자 정보에 기초하여, 사용자를 인증하거나, 사용자의 신체 정보(예를 들면, 신장 정보, 체중 정보 등), 사용자의 동승자 정보, 사용자의 짐 정보 등을 획득할 수 있다.
도 3은, 입력 장치(200)가 메인 컨트롤러(170)에 직접 연결된 것으로 예시하나, 입력 장치(200)는, 인터페이스부(180)를 매개로 메인 컨트롤러(170)에 연결될 수도 있다.
통신 장치(300)는, 외부 디바이스와 무선으로 신호를 교환할 수 있다. 통신 장치(300)는, 네트워크 망을 통해 외부 디바이스와 신호를 교환하거나, 직접 외부 디바이스와 신호를 교환할 수 있다. 외부 디바이스는, 서버, 이동 단말기 및 타 차량 중 적어도 어느 하나를 포함할 수 있다. 도 5에 예시된 바와 같이, 통신 장치(300)는, 적어도 하나의 이동 단말기(390)와 신호를 교환할 수 있다.
통신 장치(300)는, 통신을 수행하기 위해 안테나, 적어도 하나의 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 통신 장치(300)는, 복수의 통신 프로토콜을 이용할 수도 있다. 통신 장치(300)는, 이동 단말기와의 거리에 따라 통신 프로토콜을 전환할 수 있다.
도 3은, 통신 장치(300)가 메인 컨트롤러(170)에 직접 연결된 것으로 예시하나, 통신 장치(300)는, 인터페이스부(180)를 매개로 메인 컨트롤러(170)에 연결될 수도 있다.
도 2 및 도 6에 예시된 바와 같이, 디스플레이 시스템(400)은, 그래픽 객체를 표시할 수 있다. 디스플레이 시스템(400)은, 제1 디스플레이 장치(410), 및 제2 디스플레이 장치(420)를 포함할 수 있다.
제1 디스플레이 장치(410)는, 시각적 컨텐츠를 출력하는 적어도 하나의 디스플레이(411)를 포함할 수 있다. 제1 디스플레이 장치(410)에 포함되는 디스플레이(411)는, 평면 디스플레이. 곡면 디스플레이, 롤러블 디스플레이 및 플렉서블 디스플레이 중 적어도 어느 하나로 구현될 수 있다.
예를 들면, 제1 디스플레이 장치(410)는, 시트 후방에 위치하고, 캐빈 내로 출납 가능하게 형성된 제1 디스플레이(411) 및 상기 제1 디스플레이(411)를 이동시키기 위한 제1 메카니즘를 포함할 수 있다. 제1 디스플레이(411)는, 시트 메인 프레임에 형성된 슬롯에 출납 가능하게 배치될 수 있다. 실시예에 따라, 제1 디스플레이 장치(410)는, 플렉서블 영역 조절 메카니즘을 더 포함할 수 있다. 제1 디스플레이는, 플렉서블하게 형성될 수 있고, 사용자의 위치에 따라, 제1 디스플레이의 플렉서블 영역이 조절될 수 있다.
예를 들면, 제1 디스플레이 장치(410)는, 캐빈내 천장에 위치하고, 롤러블(rollable)하게 형성된 제2 디스플레이 및 상기 제2 디스플레이를 감거나 풀기 위한 제2 메카니즘을 포함할 수 있다. 제2 디스플레이는, 양면에 화면 출력이 가능하게 형성될 수 있다.
예를 들면, 제1 디스플레이 장치(410)는, 캐빈내 천장에 위치하고, 플렉서블(flexible)하게 형성된 제3 디스플레이 및 상기 제3 디스플레이를 휘거나 펴기위한 제3 메카니즘을 포함할 수 있다.
실시예에 따라, 디스플레이 시스템(400)은, 제1 디스플레이 장치(410) 및 제2 디스플레이 장치(420) 중 적어도 어느 하나에 제어 신호를 제공하는 적어도 하나의 프로세서를 더 포함할 수 있다. 디스플레이 시스템(400)에 포함되는 프로세서는, 메인 컨트롤러(170), 입력 장치(200), 영상 장치(250) 및 통신 장치(300) 중 적어도 어느 하나로부터 수신되는 신호에 기초하여 제어 신호를 생성할 수 있다.
제1 디스플레이 장치(410)에 포함되는 디스플레이의 표시 영역은, 제1 영역(411a) 및 제2 영역(411b)으로 구분될 수 있다. 제1 영역(411a)은, 컨텐츠를 표시 영역으로 정의될 수 있다. 예를 들면, 제 1영역(411)은, 엔터테인먼트 컨텐츠(예를 들면, 영화, 스포츠, 쇼핑, 음악 등), 화상 회의, 음식 메뉴 및 증강 현실 화면에 대응하는 그래픽 객체 중 적어도 어느 하나를 표시할 수 있다. 제1 영역(411a)은, 차량(10)의 주행 상황 정보에 대응하는 그래픽 객체를 표시할 수 있다. 주행 상황 정보는, 주행 상황 정보는, 차량 외부의 오브젝트 정보, 내비게이션 정보 및 차량 상태 정보 중 적어도 어느 하나를 포함할 수 있다. 차량 외부의 오브젝트 정보는, 오브젝트의 존재 유무에 대한 정보, 오브젝트의 위치 정보, 차량(100)과 오브젝트와의 거리 정보 및 차량(100)과 오브젝트와의 상대 속도 정보를 포함할 수 있다. 내비게이션 정보는, 맵(map) 정보, 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 경로 상의 다양한 오브젝트에 대한 정보, 차선 정보 및 차량의 현재 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다. 제2 영역(411b)은, 사용자 인터페이스 영역으로 정의될 수 있다. 예를 들면, 제2 영역(411b)은, 인공 지능 에이전트 화면을 출력할 수 있다. 실시예에 따라, 제2 영역(411b)은, 시트 프레임으로 구분되는 영역에 위치할 수 있다. 이경우, 사용자는, 복수의 시트 사이로 제2 영역(411b)에 표시되는 컨텐츠를 바라볼 수 있다.
실시예에 따라, 제1 디스플레이 장치(410)는, 홀로그램 컨텐츠를 제공할 수 있다. 예를 들면, 제1 디스플레이 장치(410)는, 복수의 사용자별로 홀로그램 컨텐츠를 제공하여 컨텐츠를 요청한 사용자만 해당 컨텐츠를 시청하게 할 수 있다.
제2 디스플레이 장치(420)는, 적어도 하나의 디스플레이(421)을 포함할 수 있다. 제2 디스플레이 장치(420)는, 개개의 탑승자만 디스플레이 내용을 확인할 수 있는 위치에 디스플레이(421)을 제공할 수 있다. 예를 들면, 디스플레이(421)은, 시트의 암 레스트에 배치될 수 있다. 제2 디스플레이 장치(420)는, 사용자의 개인 정보에 대응되는 그래픽 객체를 표시할 수 있다. 제2 디스플레이 장치(420)는, 탑승 가능 인원에 대응되는 갯수의 디스플레이(421)을 포함할 수 있다. 제2 디스플레이 장치(420)는, 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 제2 디스플레이 장치(420)는, 시트 조정 또는 실내 온도 조정의 사용자 입력을 수신하기 위한 그래픽 객체를 표시할 수 있다.
도 3은, 디스플레이 시스템(400)이 메인 컨트롤러(170)에 직접 연결된 것으로 예시하나, 디스플레이 시스템(400)은, 인터페이스부(180)를 매개로 메인 컨트롤러(170)에 연결될 수도 있다.
음향 출력부(490)는, 전기적 신호를 오디오 신호로 전환할 수 있다. 음향 출력부(490)는, 청각적 컨텐츠를 출력하는 적어도 하나의 스피커를 포함할 수 있다. 예를 들면, 음향 출력부(490)는, 탑승 가능한 시트별로 구비된 복수의 스피커를 포함할 수 있다.
도 7에 예시된 바와 같이, 카고 시스템(500)은, 사용자의 요청에 따라 상품을 사용자에게 제공할 수 있다. 카고 시스템(500)은, 입력 장치(200) 또는 통신 장치(300)에 의해 생성되는 전기적 신호에 기초하여 동작될 수 있다. 카고 시스템(500)은, 카고 박스를 포함할 수 있다. 카고 박스는, 상품들이 적재된 상태로 시트 하단의 일 부분에 은닉될 수 있다. 사용자 입력에 기초한 전기적 신호가 수신되는 경우, 카고 박스는, 캐빈으로 노출될 수 있다. 사용자는 노출된 카고 박스에 적재된 물품 중 필요한 상품을 선택할 수 있다. 카고 시스템(500)은, 사용자 입력에 따른 카고 박스의 노출을 위해, 슬라이딩 무빙 메카니즘, 상품 팝업 메카니즘을 포함할 수 있다. 카고 시스템은(500)은, 다양한 종류의 상품을 제공하기 위해 복수의 카고 박스를 포함할 수 있다. 카고 박스에는, 상품별로 제공 여부를 판단하기 위한 무게 센서가 내장될 수 있다.
도 3은, 카고 시스템(500)이 메인 컨트롤러(170)에 직접 연결된 것으로 예시하나, 카고 시스템(500)은, 인터페이스부(180)를 매개로 메인 컨트롤러(170)에 연결될 수도 있다.
도 8에 예시된 바와 같이, 시트 시스템(600)은, 사용자에 맞춤형 시트를 사용자에게 제공할 수 있다. 시트 시스템(600)은, 입력 장치(200) 또는 통신 장치(300)에 의해 생성되는 전기적 신호에 기초하여 동작될 수 있다. 시트 시스템(600)은, 획득된 사용자 신체 데이터에 기초하여, 시트의 적어도 하나의 요소를 조정할 수 있다. 시트 시스템(600)은 사용자의 착좌 여부를 판단하기 위한 사용자 감지 센서(예를 들면, 압력 센서)를 포함할 수 있다.
시트 시스템(600)은, 복수의 사용자가 각각 착좌할 수 있는 복수의 시트를 포함할 수 있다. 복수의 시트 중 어느 하나는 적어도 다른 하나와 마주보게 배치될 수 있다. 캐빈 내부의 적어도 두명의 사용자는 서로 마주보고 앉을 수 있다.
도 3은, 시트 시스템(600)이 메인 컨트롤러(170)에 직접 연결된 것으로 예시하나, 시트 시스템(600)은, 인터페이스부(180)를 매개로 메인 컨트롤러(170)에 연결될 수도 있다.
도 9에 예시된 바와 같이, 페이먼트 시스템(700)은, 결제 서비스를 사용자에게 제공할 수 있다. 페이먼트 시스템(700)은, 입력 장치(200) 또는 통신 장치(300)에 의해 생성되는 전기적 신호에 기초하여 동작될 수 있다. 페이먼트 시스템(700)은, 사용자가 이용한 적어도 하나의 서비스에 대한 가격을 산정하고, 산정된 가격이 지불되도록 요청할 수 있다.
도 3은, 페이먼트 시스템(700)이 메인 컨트롤러(170)에 직접 연결된 것으로 예시하나, 페이먼트 시스템(700)은, 인터페이스부(180)를 매개로 메인 컨트롤러(170)에 연결될 수도 있다.
한편, 실시예에 따라, 캐빈 시스템(100)은, 이동 단말기(390)를 구성 요소로 더 포함할 수 있다.
도 10은 본 발명의 실시예에 따라 사용자의 이용 시나리오를 설명하는데 참조되는 도면이다.
제1 시나리오(S111)는, 사용자의 목적지 예측 시나리오이다. 이동 단말기(390)는 캐빈 시스템(100)과 연동 가능한 애플리케이션을 설치할 수 있다. 이동 단말기(390)는, 애플리케이션을 통해, 사용자의 컨텍스트추얼 정보(user's contextual information)를 기초로, 사용자의 목적지를 예측할 수 있다. 이동 단말기(390)는, 애플리케이션을 통해, 캐빈 내의 빈자리 정보를 제공할 수 있다.
제2 시나리오(S112)는, 캐빈 인테리어 레이아웃 준비 시나리오이다. 캐빈 시스템(100)은, 차량(100) 외부에 위치하는 사용자에 대한 데이터를 획득하기 위한 스캐닝 장치를 더 포함할 수 있다. 스캐닝 장치는, 사용자를 스캐닝하여, 사용자의 신체 데이터 및 수하물 데이터를 획득할 수 있다. 사용자의 신체 데이터 및 수하물 데이터는, 레이아웃을 설정하는데 이용될 수 있다. 사용자의 신체 데이터는, 사용자 인증에 이용될 수 있다. 스캐닝 장치는, 적어도 하나의 이미지 센서를 포함할 수 있다. 이미지 센서는, 가시광 대역 또는 적외선 대역의 광을 이용하여 사용자 이미지를 획득할 수 있다.
시트 시스템(600)은, 사용자의 신체 데이터 및 수하믈 데이터 중 적어도 어느 하나에 기초하여, 캐빈 내 레이아웃을 설정할 수 있다. 예를 들면, 시트 시스템(600)은, 수하물 적재 공간 또는 카시트 설치 공간을 마련할 수 있다.
제3 시나리오(S113)는, 사용자 환영 시나리오이다. 캐빈 시스템(100)은, 적어도 하나의 가이드 라이트를 더 포함할 수 있다. 가이드 라이트는, 캐빈 내 바닥에 배치될 수 있다. 캐빈 시스템(100)은, 사용자의 탑승이 감지되는 경우, 복수의 시트 중 기 설정된 시트에 사용자가 착석하도록 가이드 라이트를 출력할 수 있다. 예를 들면, 메인 컨트롤러(170)는, 오픈된 도어에서부터 기 설정된 사용자 시트까지 시간에 따른 복수의 광원에 대한 순차 점등을 통해, 무빙 라이트를 구현할 수 있다.
제4 시나리오(S114)는, 시트 조절 서비스 시나리오이다. 시트 시스템(600)은, 획득된 신체 정보에 기초하여, 사용자와 매칭되는 시트의 적어도 하나의 요소를 조절할 수 있다.
제5 시나리오(S115)는, 개인 컨텐츠 제공 시나리오이다. 디스플레이 시스템(400)은, 입력 장치(200) 또는 통신 장치(300)를 통해, 사용자 개인 데이터를 수신할 수 있다. 디스플레이 시스템(400)은, 사용자 개인 데이터에 대응되는 컨텐츠를 제공할 수 있다.
제6 시나리오(S116)는, 상품 제공 시나리오이다. 카고 시스템(500)은, 입력 장치(200) 또는 통신 장치(300)를 통해, 사용자 데이터를 수신할 수 있다. 사용자 데이터는, 사용자의 선호도 데이터 및 사용자의 목적지 데이터 등을 포함할 수 있다. 카고 시스템(500)은, 사용자 데이터에 기초하여, 상품을 제공할 수 있다.
제7 시나리오(S117)는, 페이먼트 시나리오이다. 페이먼트 시스템(700)은, 입력 장치(200), 통신 장치(300) 및 카고 시스템(500) 중 적어도 어느 하나로부터 가격 산정을 위한 데이터를 수신할 수 있다. 페이먼트 시스템(700)은, 수신된 데이터에 기초하여, 사용자의 차량 이용 가격을 산정할 수 있다. 페이먼트 시스템(700)은, 산정된 가격으로 사용자(예를 들면, 사용자의 이동 단말기)에 요금 지불을 요청할 수 있다.
제8 시나리오(S118)는, 사용자의 디스플레이 시스템 제어 시나리오이다. 입력 장치(200)는, 적어도 어느 하나의 형태로 이루어진 사용자 입력을 수신하여, 전기적 신호로 전환할 수 있다. 디스플레이 시스템(400)은, 전기적 신호에 기초하여, 표시되는 컨텐츠를 제어할 수 있다.
제9 시나리오(S119)는, 복수의 사용자를 위한 멀티 채널 인공지능(artificial intelligence, AI) 에이전트 시나리오이다. 인공 지능 에이전트(172)는, 복수의 사용자 별로 사용자 입력을 구분할 수 있다. 인공 지능 에이전트(172)는, 복수의 사용자 개별 사용자 입력이 전환된 전기적 신호에 기초하여, 디스플레이 시스템(400), 음향 출력부(490), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700) 중 적어도 어느 하나를 제어할 수 있다.
제10 시나리오(S120)는, 복수의 사용자를 대상으로 하는 멀티미디어 컨텐츠 제공 시나리오이다. 디스플레이 시스템(400)은, 모든 사용자가 함께 시청할 수 있는 컨텐츠를 제공할 수 있다. 이경우, 음향 출력부(490)는, 시트별로 구비된 스피커를 통해, 동일한 사운드를 복수의 사용자 개별적으로 제공할 수 있다. 디스플레이 시스템(400)은, 복수의 사용자가 개별적으로 시청할 수 있는 컨텐츠를 제공할 수 있다. 이경우, 음향 출력부(490)는, 시트별로 구비된 스피커를 통해, 개별적 사운드를 제공할 수 있다.
제11 시나리오(S121)는, 사용자 안전 확보 시나리오이다. 사용자에게 위협이되는 차량 주변 오브젝트 정보를 획득하는 경우, 메인 컨트롤러(170)는, 디스플레이 시스템(400) 및 음향 출력부(490) 중 적어도 어느 하나를 통해, 차량 주변 오브젝트에 대한 알람이 출력되도록 제어할 수 있다.
제12 시나리오(S122)는, 사용자의 소지품 분실 예방 시나리오이다. 메인 컨트롤러(170)는, 입력 장치(200)를 통해, 사용자의 소지품에 대한 데이터를 획득할 수 있다. 메인 컨트롤러(170)는, 입력 장치(200)를 통해, 사용자의 움직임 데이터를 획득할 수 있다. 메인 컨트롤러(170)는, 소지품에 대한 데이터 및 움직임 데이터에 기초하여, 사용자가 소지품을 두고 하차 하는지 여부를 판단할 수 있다. 메인 컨트롤러(170)는, 디스플레이 시스템(400) 및 음향 출력부(490) 중 적어도 어느 하나에 기초하여, 소지품에 관한 알람이 출력되도록 제어할 수 있다.
제13 시나리오(S123)는, 하차 리포트 시나리오이다. 메인 컨트롤러(170)는, 입력 장치(200)를 통해, 사용자의 하차 데이터를 수신할 수 있다. 사용자 하차 이후, 메인 컨트롤러(170)는, 통신 장치(300)를 통해, 사용자의 이동 단말기에 하차에 따른 리포트 데이터를 제공할 수 있다. 리포트 데이터는, 차량(10) 전체 이용 요금 데이터를 포함할 수 있다.
도 11은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 11을 참조하면, 프로세서(171)는, 내부 카메라(251)로부터 캐빈 내부의 영상 데이터를 획득할 수 있다. 프로세서(171)는, 캐빈 내부의 영상 데이터에 기초하여, 캐빈 내부의 탑승 인원 정보를 생성할 수 있다. 프로세서(171)는, 통신 장치(300)를 통해, 이동 단말기(390)에 탑승 인원 정보를 제공할 수 있다. 이동 단말기(390)는, 탑승 인원 정보를 표시할 수 있다. 사용자는, 캐빈 시스템(100) 이용 예약시, 표시된 탑승 인원 정보를 확인하고, 동승자의 존재 여부를 고려하여 탑승 여부를 결정할 수 있다.
도 12은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 12를 참조하면, 프로세서(171)는, 제1 정보 및 제2 정보에 따라, 복수의 시트의 레이 아웃을 설정할 수 있다. 복수의 시트는 모듈형으로 형성될 수 있다. 복수의 시트는 각각 변형이 가능하게 형성될 수 있다. 복수의 시트는 각각 이동 가능하게 형성될 수 있다. 시트 시스템(600)은, 적어도 하나의 구동 장치를 포함할 수 있다. 구동 장치는, 복수의 시트 각각의 변형 또는 이동에 구동력을 제공할 수 있다.
지시 부호 1210에 예시된 바와 같이, 프로세서(171)는, 사용자의 짐(1213) 정보에 기초하여, 복수의 시트 중 적어도 하나(1211)를 변형 시키거나 이동 시켜 캐빈 내부에 짐을 보관할 수 있는 공간(1212)을 확보하기 위한 제어 신호를 제공할 수 있다. 지시 부호 1220에 예시된 바와 같이, 프로세서(171)는, 사용자의 카시트(1222) 사용 정보에 기초하여, 복수의 시트 중 적어도 어느 하나(1221)를 변형시켜 캐빈 내부에 카시트를 고정할 수 있는 장소를 확보하기 위한 제어 신호를 제공할 수 있다. 한편, 사용자의 카시트 사용 정보는, 제1 정보 또는 제2 정보에 포함될 수 있다. 지시 부호 1230에 예시된 바와 같이, 프로세서(171)는, 비지니스 시트(예를 들면, 프라이빗 시트) 요청 정보에 기초하여, 복수의 시트 중 적어도 어느 하나(1232, 1233)를 이동 시키거나 변형시켜 비지니스 시트를 제공할 수 있다. 이때, 프로세서(171)는, 비니지스 시트의 공간을 캐빈 내부의 다른 공간과 구분하기 위해 벽(1234)을 제공하기 위한 제어 신호를 제공할 수 있다. 한편, 비지니시 시트 요청 정보는, 제1 정보 또는 제2 정보에 포함될 수 있다.
도 13은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 13을 참조하면, 캐빈 시스템(100)은, 가이드 라이팅(1312, 1322)을 더 포함할 수 있다. 가이드 라이팅(1312, 1322)은, 캐빈 내부의 바닥, 천장, 도어 및 시트 중 적어도 어느 하나에 배치될 수 있다. 프로세서(171)는, 제1 사용자의 탑승을 감지할 수 있다. 프로세서(171)는, 내부 카메라(251) 및 외부 카메라(252)로부터 수신된 영상 데이터에 기초하여, 제1 사용자의 탑승을 감지할 수 있다. 지시부호 1310에 예시된 바와 같이, 프로세서(171)는, 제1 사용자의 탑승이 감지되는 경우, 도어에서부터 제1 탑승 시트까지 가이드 광이 출력되도록 가이드 라이팅(1312)에 제어 신호를 제공할 수 있다. 실시예에 따라, 가이드 라이팅(1312)은, 도어에서부터 제1 시트(1311)까지 복수의 광원을 포함할 수 있다. 프로세서(171)는 복수의 광원이 순차적으로 점등되도록 가이드 라이팅(1312)을 제어하여, 애니매니션 효과를 부여할 수도 있다.
지시부호 1320에 예시된 바와 같이, 프로세서(171)는, 제1 사용자의 탑승이 감지되는 경우, 제1 시트(1321) 주변에 배치된 광원이 점등되도록 가이드 라이팅(1322)을 제어할 수도 있다.
도 14은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 14를 참조하면, 프로세서(171)는, 제1 정보에 대응되는 제1 컨텐츠가 출력되도록 디스플레이 및 스피커 중 적어도 어느 하나에 제어 신호를 제공할 수 있다. 예를 들면, 제1 사용자가 하이라이트 출력을 요청(1410)하는 경우, 프로세서(171)는, 제1 사용자 정보에 기초하여, 제1 사용자가 선호하는 팀의 하이라이트 영상을 적어도 하나의 디스플레이(411)에 표시할 수 있다. 제1 사용자의 선호 팀은 제1 정보에 포함될 수 있다.
캐빈 내부에 복수의 사용자가 있는 경우, 프로세서(171)는, 디스플레이(411)의 표시 영역을 구분할 수 있다. 프로세서(171)는, 디스플레이(411)의 표시 영역을 제1 영역 및 제2 영역으로 구분할 수 있다. 프로세서(171)는, 디스플레이(411)의 제1 영역(1421)에는 제1 정보에 대응하는 제1 컨텐츠가 표시되도록 제어할 수 있다. 프로세서(171)는, 디스플레이(411)의 제2 영역(1422)에는 제2 정보에 대응하는 제2 컨텐츠가 표시되도록 제어할 수 있다. 만약, 제2 컨텐츠가 제1 컨텐츠가 같은 경우, 프로세서(171)는, 디스플레이(411) 전체 영역에 제1 컨텐츠를 표시할 수 있다.
한편, 프로세서(141)는, 디폴트로 디스플레이(411)를 복수의 영역으로 구분할 수 있다. 프로세서(141)는, 디스플레이(411)를 컨텐츠 표시 영역(1420) 및 사용자 인터페이스 영역(1430)으로 구분할 수 있다. 프로세서(171)는, 컨텐츠 표시 영역(1420)에 상술한 사용자 요청 컨텐츠를 표시할 수 있다. 컨텐츠 표시 영역(1420)은, 제1 영역(1421) 및 제2 영역(1422)로 구분될 수 있다. 사용자 인터페이스 영역(1430)은, 사용자 요청에 반응하는 표시 영역일 수 있다. 프로세서(171)는, 사용자 인터페이스 영역(1430)에 사용자 인터페이스 화면을 출력할 수 있다. 프로세서(171)는, 사용자 인터페이스 영역(1430)에 인공지능 에이전트 화면을 출력할 수 있다. 예를 들면, 입력 장치(200)가 사용자 입력을 수신하는 경우, 프로세서(171)는, 사용자 입력이 수신되었다는 의미로, 사용자 인터페이스 영역(1430)에 표시되는 제1 그래픽 객체를 제2 그래픽 객체로 변경할 수 있다. 제1 그래픽 객체 및 제2 그래픽 객체는 애니메이션으로 구현될 수 있다.
도 15은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 15를 참조하면, 프로세서(171)는, 통신 장치(300), 내부 카메라(251) 및 입력 장치(300) 중 적어도 어느 하나로부터 수신되는 전기적 신호에 기초하여 상품을 선택할 수 있다. 예를 들면, 사용자의 상품 선택 의사는, 이동 단말기(390)와 통신 장치(300), 내부 카메라(251) 및 입력 장치(300) 중 적어도 어느 하나를 통해 전기적 신호로 전환될 수 있다. 프로세서(171)는, 사용자의 의사가 전환된 전기적 신호에 기초하여 사용자가 필요로하는 상품을 선택할 수 있다. 프로세서(171)는, 선택된 상품이 제공되도록 카고 시스템에 신호를 제공할 수 있다. 카고 시스템(171)은, 선택된 상품이 내재된 카고 박스를 오픈시켜, 상품을 제공할 수 있다.
입력 장치(200)는, 사용자 입력을 수신하여 제1 전기적 신호로 전환 할 수 있다. 터치 입력부(210)에 포함된 터치 센서는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 제스쳐 입력부(220)에 포함된 제스쳐 센서(221)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 기계식 입력부(230)에 포함된 조그 다이얼(231)은, 사용자의 기계적 입력을 전기적 신호로 전환할 수 있다. 음성 입력부(240)에 포함된 마이크(241)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다.
디스플레이 시스템(400)은, 적어도 하나의 디스플레이에, 입력 장치(200)에 의해 전환된 전기적 신호에 기초하여, 상품 메뉴를 표시할 수 있다. 디스플레이에 상품 메뉴가 표시된 상태에서, 입력 장치(200)는, 상품을 선택하는 사용자 입력을 수신할 수 있다. 입력 장치(200)는, 제1 상품을 선택하는 사용자 입력을 제2 전기적 신호로 전환할 수 있다.
카고 시스템(500)는, 제2 전기적 신호에 기초하여, 박스를 캐빈 내부로 이동 시키도록 슬라이딩 메카니즘을 제어할 수 있다. 카고 시스템(500)는, 제2 전기적 신호에 기초하여, 제1 상품이 캐빈 내부로 노출될 수 있도록 리프팅 메카니즘을 제어할 수 있다.
한편, 카고 버튼(549)은 사용자 입력을 전기적 신호로 전환할 수 있다. 카고 시스템(500)는, 전기적 신호에 기초하여, 박스를 캐빈 내부로 이동 시키도록 슬라이딩 메카니즘을 제어할 수 있다. 카고 시스템(500)는, 전기적 신호에 기초하여, 복수의 상품이 캐빈 내로 노출될 수 있도록 리프팅 메카니즘을 제어할 수 있다.
한편, 슬라이딩 메카니즘은, 프로세서(171)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 슬라이딩 메카니즘은, 카고 박스를 슬라이딩시킬 수 있다. 슬라이딩 메카니즘은, 시트 내부의 은닉 공간에서부터 캐빈으로 카고 박스를 슬라이딩 시킬 수 있다. 슬라이딩 메카니즘은, 구동부, 동력 전환부 및 구동력 전달부를 포함할 수 있다. 구동부는 전기 에너지를 운동 에너지로 전환할 수 있다. 구동부는, 구동력을 생성할 수 있다. 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 카고 박스를 움직이기에 적합한 동력으로 전환할 수 있다. 예를 들면, 동력 전환부는, 회전 운동의 동력을 직선 운동의 동력으로 전환할 수 있다. 구동력 전달부는, 전환된 동력을 카고 박스에 제공할 수 있다. 슬라이딩 메카니즘은, 레일를 더 포함할 수 있다. 카고 박스는, 구동력 전달부에 의해 전달되는 동력에 기초하여, 레일을 매개로 슬라이딩 운동할 수 있다.
한편, 리프팅 메카니즘은, 프로세서(171)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 리프팅 메카니즘은, 카고 박스에 배치되는 선반을 리프팅시킬 수 있다. 리프팅 메카니즘은, 구동부, 동력 전환부, 구동력 전달부를 포함할 수 있다. 구동부는 전기 에너지를 운동 에너지로 전환할 수 있다. 구동부는, 구동력을 생성할 수 있다. 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 선반을 움직이기에 적합한 동력으로 전환할 수 있다. 예를 들면, 동력 전환부는, 회전 운동의 동력을 직선 운동의 동력으로 전환할 수 있다. 구동력 전달부는, 전환된 동력을 선반에 제공할 수 있다. 선반은, 구동력 전달부에 의해 전달되는 동력에 기초하여, 리프팅 운동할 수 있다.
도 16은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 16을 참조하면, 입력 장치(200)는, 조그 다이얼 장치(1610)를 더 포함할 수 있다. 조그 다이얼 장치(1610)는, 적어도 일부분에, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있는 제스쳐 센서가 포함될 수 있다. 조그 다이얼 장치(1610)는, 시트, 암레스트 및 도어 중 적어도 어느 하나로부터 출납 가능하게 형성될 수 있다.
조그 다이얼 장치(1610)는, 암레스트로부터 돌출된 상태(1610a)에서는 기계적 입력을 수신할 수 있다. 이경우, 조그 다이얼 장치(1610)는, 기계식 입력부(230)로 기능할 수 있다. 조그 다이얼 장치(1610)가 암레스트에 몰입된 상태(1610b)에서는, 제스쳐 입력을 수신할 수 있다. 이경우, 조그 다이얼 장치(1610)는, 제스쳐 입력부(220)로 기능할 수 있다.
입력 장치(300)는, 승강(상승 및 하강) 메카니즘을 더 포함할 수 있다. 승강 메카니즘은, 프로세서(171)의 제어 신호에 기초하여 동작될 수 있다. 승강 메카니즘은, 구동부, 동력 전환부, 동력 전달부를 포함할 수 있다. 구동부는, 구동력을 생성할 수 있다. 예를 들면, 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 조그 다이얼 장치의 이동에 적합한 동력으로 전환할 수 있다. 동력 전달부는, 전환된 동력을 조그 다이얼 장치에 전달할 수 있다.
프로세서(171)는, 시팅 포지션에 대응하여 조그 다이얼 장치가 상승하거나 하강하도록 조절하는 제어 신호를 제공할 수 있다. 프로세서(171)는, 제1 시팅 포지션 데이터를 획득하는 경우, 조그 다이얼 장치가 주변 구조물(예를 들면, 시트, 암레스트, 도어)과 평평한 상태를 이루도록 제어 신호를 승강 메카니즘에 제공할 수 있다. 승강 메카니즘은 조그 다이얼 장치를 상승시킬 수 있다. 이경우, 조그 다이얼 장치의 상태는 제1 상태(1610a)가 될 수 있다. 제1 상태(1610a)에서 조그 다이얼 장치는, 기계식 입력부(230)로 기능할 수 있다. 프로세서(171)는, 제2 시팅 포지션 데이터를 획득하는 경우, 조그 다이얼 장치가 주변 구조물에 비해 돌출되도록 제어 신호를 승강 메카니즘에 제공할 수 있다. 승강 메카니즘은 조그 다이얼 장치를 하강 시킬 수 있다. 이경우, 조그 다이얼 장치의 상태는 제2 상태(1610b)가 될 수 있다. 제2 상태(1610b)에서 조그 다이얼 장치는, 제스쳐 입력부(220)로 기능할 수 있다.
한편, 프로세서(171)는, 시팅 포지션이 낮아지는 경우(예를 들면, 제1 시팅 포지션에서 제2 시팅 포지션으로 변경되는 경우), 조그 다이얼 장치의 윗면에 표시된 조작 가이드 이미지를 조그 다이얼 장치 옆면에 표시하기 위한 제어 신호를 제공할 수 있다.
한편, 사용자의 시팅 포지션은 제1 시팅 포지션 및 제2 시팅 포지션으로 구분될 수 있다. 제1 시팅 포지션은 시트에 앉은 자세로 정의될 수 있고, 제2 시팅 포지션은 시트에 누운 자세로 정의될 수 있다. 제1 시팅 포지션은 제2 시팅 포지션보다 상대적으로 높은 자세로 설명될 수 있고, 제2 시팅 포지션은, 제1 시팅 포지션보다 상대적으로 낮은 자세로 설명될 수 있다.
도 17은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 17을 참조하면, 프로세서(171)는, 제1 정보에 기초하여 장애인용 인터페이스를 제공할 수 있다. 지시부호 1710에 예시된 바와 같이, 프로세서(171)는, 조그 다이얼 장치의 일면에 시각 장애인용 햅틱 인터페이스를 구현할 수 있다. 예를 들면, 프로세서(171)는, 조그 다이얼 장치의 일면에 조작 가이드 표시를 입체적으로 구현할 수 있다.
지시부호 1720에 예시된 바와 같이, 캐빈 시스템(100)은 턴테이블(1721)을 포함할 수 있다. 프로세서(171)는, 영상 장치(250)를 통해, 휠체어에 대한 정보를 획득할 수 있다. 프로세서(171)는, 휠체어가 턴테이블(1721)위에 위치하는 것으로 판단되는 경우, 휠체어를 탄 사용자의 탑승 시트의 방향으로, 턴테이블(1721)을 회전시킬 수 있다.
도 18은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 18을 참조하면, 입력 장치(200)는, 적어도 하나의 빔 포밍 마이크(Beam foaming MIC)(1801, 1802, 1803, 1804)를 포함할 수 있다. 프로세서(171)는, 빔 포밍 마이크(1801, 1802, 1803, 1804)를 통해 입력되는 음성을 제1 사용자의 음성 및 제2 사용자의 음성으로 구분할 수 있다. 예를 들면, 입력 장치(200)는, 복수의 시트 각각의 주변에 배치되는 복수의 빔 포밍 마이크(1801, 1802, 1803, 1804)를 포함할 수 있다. 복수의 빔 포밍 마이크(1801, 1802, 1803, 1804)의 개수는 복수의 시트의 개수에 대응될 수 있다. 예를 들면, 입력 장치(200)는, 하나의 빔 포밍 마이크를 포함할 수 있다.
도 18에 예시된 바와 같이, 제1 빔 포밍 마이크(1801)는, 제1 사용자(1810)의 제1 음성(1811)을 수신할 수 있다. 제1 빔 포밍 마이크(1801)는, 제2 사용자(1820)의 제2 음성(1821)을 수신할 수 있다. 제1 빔 포밍 마이크(1801)는, 제3 사용자(1830)의 제1 음성(1831)을 수신할 수 있다. 프로세서(171)는, 빔 포밍 마이크에 포함되는 2개의 마이크에 기초하여 판단된 발화자의 위치에 기초하여, 제1 사용자(1810), 제2 사용자(1820) 및 제3 사용자(1830)를 구분할 수 있다. 프로세서(171)는, 제1 사용자(1810), 제2 사용자(1820) 및 제3 사용자(1830) 각각의 위치에 기초하여, 제1 음성(1811), 제2 음성(1821) 및 제3 음성(1831) 각각을 구분할 수 있다. 프로세서(171)는, 구분된 복수 사용자의 음성 입력에 기초하여 제어 신호를 생성할 수 있다.
도 19은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 19를 참조하면, 입력 장치(200)는, 제1 사용자(1810)의 제1 입력 및 제2 사용자(1820)의 제2 입력을 각각 수신할 수 있다. 제1 입력 및 제2 입력은 컨텐츠 출력을 요청하는 입력일 수 있다.
제1 입력 및 제2 입력이 각각 다른 컨텐츠에 대응될 수 있다. 제1 입력은 제1 컨텐츠의 출력을 요청하는 입력이고, 제2 입력은 제2 컨텐츠의 출력을 요청하는 입력일 수 있다. 이경우, 프로세서(171)는, 디스플레이(411)의 표시 영역을 제1 영역(1910) 및 제2 영역(1920)으로 분할 수 있다. 프로세서(171)는, 제1 영역에 제1 입력에 대응되는 제1 컨텐츠를 표시하고 제2 영역에 제2 입력에 대응되는 제2 컨텐츠를 표시할 수 있다.
제1 입력 및 제2 입력이 모두 제1 컨텐츠에 대응될 수 있다. 제1 입력 및 제2 입력은 제1 컨텐츠의 출력을 요청하는 입력일 수 있다. 이경우, 프로세서(171)는, 디스플레이(411)의 전체 표시 영역에 제1 컨텐츠를 표시할 수 있다.
도 20은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 20을 참조하면, 프로세서(171)는, 캐빈 내부의 영상에서 제1 사용자의 소지품(2010)을 검출할 수 있다. 프로세서(171)는, 실내 카메라(251)로부터 영상 데이터를 수신할 수 있다. 프로세서(171)는 영상 데이터에 기초하여, 제1 사용자의 소지품(2010)을 검출할 수 있다. 예를 들면, 프로세서(171)는, 소지품(2010)에 따른 부피 증가를 검출하여, 소지품을 검출할 수 있다.
프로세서(171)는, 캐빈 내부의 영상에 기초하여, 제1 사용자가 소지품을 두고 하차하는지 여부를 판단할 수 있다. 프로세서(171)는, 실내 카메라(251)로부터의 영상 데이터에 기초하여, 시트 또는 바닥에 놓여진 소지품(2010) 및 제1 사용자의 하차 모션을 검출할 수 있다. 제1 사용자가 소지품(2010)을 두고 하차하는 것으로 판단되는 경우, 프로세서(171)는, 디스플레이 시스템(400)의 디스플레이 및 음향 출력부(490)의 스피커 중 적어도 어느 하나를 통해 알람(2020, 2030)을 출력할 수 있다.
도 21은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 21을 참조하면, 차량(10)은, 외부의 사용자의 웨이브(wave) 모션에 따라 동작될 수 있다. 지시부호 2110에 예시된 바와 같이, 차량(10)은, 오브젝트 검출 장치에 포함된 카메라를 통해, 사용자의 웨이브 모션(2111)을 검출할 수 있다. 이경우, 차량(10)은, 광출력 장치를 통해, 사용자 방향으로 노면에 제1 광(2101)을 출력할 수 있다. 여기서, 제1 광(2101)은, 차량(10)이 사용자에게 접근함을 주변 타차량이나 보행자에게 알리기 위한 광으로 이해될 수 있다. 지시부호 2120에 예시된 바와 같이, 차량(10)은, 광출력 장치를 통해, 사용자 주변에 제2 광(2121)을 출력할 수 있다. 여기서, 제2 광(2121)은, 사용자에게 탑승 위치를 알리는 광으로 이해될 수 있다. 지시부호 2130에 예시된 바와 같이, 차량(10)은, 사용자의 이동 단말기(390)에 탑승 위치 정보를 전송할 수 있다. 이동 단말기(390)는, 탑승 위치 정보를 증강 현실로 표시할 수 있다. 이와 같은 과정을 통해, 사용자는 별도의 예약이 없이도, 차량(10)을 이용할 수 있다.
도 22은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 22를 참조하면, 외부 카메라(252)는, 사용자를 촬영할 수 있다. 프로세서(252)는, 외부 카메라(252)에 의해 획득된 영상 데이터에 기초하여, 사용자의 정보를 획득할 수 있다. 예를 들면, 프로세서(252)는, 외부 카메라(252)의 영상 데이터에 기초하여, 사용자의 신체 정보, 짐 정보 및 동승자 정보를 획득할 수 있다. 프로세서(252)는, 외부 카메라(252)의 영상 데이터에 기초하여 사용자를 특정할 수 있다.
캐빈 시스템(100)은, 외부 디스플레이(2210)를 더 포함할 수 있다. 외부 디스플레이(2210)는, 디스플레이 시스템(400)의 하위 구성으로 분류될 수도 있다. 외부 디스플레이(2210)는, 도어 바깥쪽 일 부분에 배치될 수 있다. 프로세서(171)는, 외부 디스플레이(2210)를 통해, 사용자 탑승전 화면을 제공할 수 있다. 예를 들면, 프로세서(171)는, 사용자 정보를 확인하는 화면 또는 사용자 인식 완료 화면을 외부 디스플레이(2210)에 표시할 수 있다.
도 23은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 23을 참조하면, 캐빈 시스템(100)은 사용자에 다양한 탑승 모드를 제공할 수 있다. 프로세서(171)는, 사용자 입력에 기초하여 선택된 모드를 사용자에게 제공할 수 있다. 모드 선택은 이동 단말기(390)를 통해 차량(10) 탑승전에 이루어질 수 있다. 또는 모드 선택은 사용자가 캐빈 실내에서 입력 장치(200)를 통해 이루어질 수 있다.
캐빈 시스템(100)은, 광 출력 장치를 더 포함할 수 있다. 광 출력 장치는, 복수의 시트 각각에 대응되게 배치된 복수의 광원을 포함할 수 있다. 예를 들면, 프로세서(171)는, 수면 모드 선택 입력에 따라 수면 모드(2310)를 제공할 수 있다. 수면 모드가 선택되는 경우, 프로세서(171)는, 사용자를 향해 광이 출력되지 않도록 광 출력 장치를 제어할 수 있다. 예를 들면, 프로세서(171)는, 독서 모드 선택 입력에 따라 독서 모드(2320)를 제공할 수 있다. 독서 모드가 선택되는 경우, 프로세서(171)는, 사용자를 향해 광이 출력되도록 광출력 장치를 제어할 수 있다.
예를 들면, 프로세서(171)는, 멀티 미디어 모드 선택 입력에 따라 멀티 미디어 모드(2330)를 제공할 수 있다. 멀티 미디어 모드가 선택된 경우, 프로세서(171)는, 사용자에게 멀티미디어 컨텐츠를 제공할 수 있다. 예를 들면, 프로세서(171)는, 드라마, 영화 및 TV 프로그램, 뮤직 비디오 중 적어도 어느 하나를 제공할 수 있다. 이경우, 프로세서(171)는, 사용자의 이동 시간에 대응되는 러닝 타임 시간을 가지는 컨텐츠를 제공할 수 있다. 실시예에 따라, 프로세서(171)는, 게임 컨텐츠를 제공할 수도 있다. 프로세서(171)는, 복수의 사용자가 하나의 게임을 이용할 수 있도록 복수의 사용자에게 각각 게임 인터페이스를 제공할 수 있다.
도 24은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 24를 참조하면, 캐빈 시스템(100)은, 광 출력 영역(2410)을 더 포함할 수 있다. 광 출력 영역(2410)은 디스플레이 시스템(400)의 디스플레이(413) 주변에 배치될 수 있다. 광 출력 영역(2410)는 디스플레이(413) 테두리 중 양측에 배치될 수 있다. 프로세서(171)는, 디스플레이 시스템(400)의 디스플레이(413) 양측에 배치된 광 출력 영역(2410)의 광 출력 패턴을 제어할 수 있다. 프로세서(171)는, 광 출력 영역(2410)의 부분 별로 출력되는 광의 색이 변경되도록 제어할 수 있다.
프로세서(171)는, 인터페이스부(180)를 통해 차량(10)에 장착된 적어도 하나의 전자 장치로부터 차량(10)의 주행 속도 데이터를 수신할 수 있다. 프로세서(171)는, 주행 속도 데이터에 기초하여, 광 출력 영역(2410)의 광 출력 패턴을 제어할 수 있다. 예를 들면, 프로세서(171)는, 주행 속도 데이터에 기초하여, 광출력 장치(2410)의 부분 별로 출력되는 광의 색이 변경되는 속도를 제어할 수 있다. 이와 같은 제어를 통해, 디스플레이(413)에서 출력되는 컨텐츠를 시청하는 사용자가 차량(10)의 움직임을 인지할 수 있게 되어 멀미를 느끼지 않게 된다.
도 25은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 25를 참조하면, 프로세서(171)는, 디스플레이 시스템(400)의 디스플레이(412)에 주행 중인 지형과 관련된 정보를 표시할 수 있다. 프로세서(171)는, 디스플레이 시스템(400)의 디스플레이(412)에 표시되는 컨텐츠를 주행 중인 지형과 연동시켜 표시할 수 있다. 예를 들면, 프로세서(171)는, 인터페이스부(180)를 통해, 차량(10)에 장착된 적어도 하나의 전자 장치로부터 차량(10) 이 범프(bump)를 지나는지 여부에 대한 데이터를 수신할 수 있다. 프로세서(171)는, 범프에 대한 데이터에 기초하여, 컨텐츠 표시 영역의 위치를 변경할 수 있다. 이와 같은 제어를 통해, 디스플레이(413)에서 출력되는 컨텐츠를 시청하는 사용자가 차량(10)의 움직임을 인지할 수 있게 되어 멀미를 느끼지 않게 된다.
도 26은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
지시부호 2610에 예시된 바와 같이, 디스플레이 시스템(400)은, 윈도우 스크린(2613, 2614)을 더 포함할 수 있다. 윈도우 스크린은, 차량의 윈도우(2611, 2612)의 적어도 일 영역에 구비될 수 있다. 윈도우 스크린은 투명 디스플레이로 구현될 수 있다. 프로세서(171)는, 윈도우 스크린에 제어 신호를 제공할 수 있다. 윈도우 스크린(2613, 2614)은 복수의 시트 각각에 근접한 윈도우(2611, 2612)에 복수개로 구비될 수 있다. 프로세서(171)는, 복수의 사용자 각각이 요청한 컨텐츠를 복수의 윈도우 스크린(2613, 2614)에 각각 표시할 수 있다. 프로세서(171)는, 사용자가 요청한 컨텐츠를 사용자에 가장 가까운 윈도우 스크린(2613, 2614)에 표시할 수 있다. 예를 들면, 프로세서(171)는, 제1 사용자(2616)가 요청한 제1 컨텐츠를 제1 사용자(2616)에 가장 근접한 제1 윈도우 스크린(2613)에 표시할 수 있다. 또한, 프로세서(171)는, 제2 사용자(2617)가 요청한 제2 컨텐츠를 제2 사용자(2617)에 가장 근접한 제2 윈도우 스크린(2614)에 표시할 수 있다. 사용자는, 윈도우(2611, 2612) 밖을 바라보면서 윈도우 스크린(2614)에 표시된 컨텐츠를 시청할 수 있다.
지시부호 2620에 예시된 바와 같이, 윈도우 스크린(2622)은 블라인드 기능을 구현할 수 있다. 윈도우 스크린(2622)은 윈도우(2621)에 조사되는 광의 투과량을 조절할 수 있다. 프로세서(171)는, 사용자 입력에 기초하여 윈도우 스크린(2622)을 제어할 수 있다. 프로세서(171)는, 윈도우 스크린(2622)에 대한 사용자 터치 또는 제스쳐(2623)에 기초하여 블라인드 영역의 적어도 일부가 제거(2624)되도록 윈도우 스크린(2622)을 제어할 수 있다.
도 27은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 27을 참조하면, 프로세서(171)는, 사용자의 하차 정보를 획득하는 경우, 통신 장치(300)를 통해, 이동 단말기(390)에 사용자의 캐빈 시스템 이용과 관련된 데이터를 전송할 수 있다. 예를 들면, 프로세서(171)는, 사용자의 이동 경로, 사용자의 이용 기능의 종류 및 이용에 따른 요금 정보를 이동 단말기(390)에 전송할 수 있다. 이동 단말기(390)는, 캐빈 시스템 이용과 관련된 데이터를 표시할 수 있다.
도 28은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 28을 참조하면, 캐빈 시스템(100)은, 보호자 알림 기능을 제공할 수 있다. 프로세서(171)는, 통신 장치(300)를 통해, 탑승자(2810)의 상황 정보를 사용자(2820)의 단말기(2830)로 전송할 수 있다. 사용자(2820)는, 탑승자(2810)의 보호자일 수 있다.
사용자(2820)는, 탑승자(2810)를 위해, 차량(10)을 예약하고, 탑승자(2820)의 정보를 요청할 수 있다. 프로세서(171)는, 탑승자(2810)의 승차 정보, 위치 정보 및 하차 정보를 사용자(2820)의 단말기(2830)로 전송할 수 있다. 프로세서(171)는, 내부 카메라(251) 및 외부 카메라(252)에 의해 촬영된 탑승자(2810)의 영상을 사용자(2820)의 단말기(2830)로 전송할 수 있다. 단말기(2830)는, 캐빈 시스템(100)으로부터 제공받은 정보를 표시할 수 있다.
도 29은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 29를 참조하면, 캐빈 시스템(100)은 쇼핑 기능 및 호텔 예약 기능을 제공할 수 있다. 지시부호 2910에 예시된 바와 같이, 프로세서(171)는, 디스플레이 시스템(400)의 디스플레이를 통해, 쇼핑 서버에서 수신한 쇼핑 컨텐츠(2911, 2914)를 표시할 수 있다. 프로세서(171)는, 쇼핑 컨텐츠(2911, 2914)와 연관된 상품 구매 입력(2912, 2913)을 입력 장치(200)를 통해 수신할 수 있다. 프로세서(171)는, 통신 장치(300)를 통해, 사용자의 상품 구매 입력 데이터를 쇼핑 서버에 전송할 수 있다. 한편, 쇼핑 컨텐츠(2911, 2914)는, 카고 시스템(500)에서 제공되는 상품과 연관된 상품에 관한 것일 수 있다. 프로세서(171)는, 카고 시스템(500)에서 제공되는 상품과 연관된 상품에 대해 사용자의 구매 입력이 수신되는 경우, 할인된 가격 데이터가 포함된 구매 입력 데이터를 쇼핑 서버에 전송할 수 있다.
지시부호 2920에 예시된 바와 같이, 프로세서(171)는, 디스플레이 시스템(400)의 디스플레이를 통해, 호텔 서버에서 수신한 호텔 예약 컨텐츠(2921)를 표시할 수 있다. 프로세서(171)는, 호텔 예약 입력을 입력 장치(200)를 통해 수신할 수 있다. 프로세서(171)는, 통신 장치(300)를 통해, 호텔 예약 입력 데이털를 호텔 서버에 전송할 수 있다.
도 30은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 30을 참조하면, 캐빈 시스템(100)은, 외부 스크린에서의 영화 상영 기능을 제공할 수 있다. 프로세서(171)는, 차량(10)의 외부 광출력 장치에 제어 신호를 제공할 수 있다. 프로세서(171)는, 선택된 컨텐츠가 외부 광출력 장치에 의해, 외부 스크린을 향해 투사되도록 제어 신호를 제공할 수 있다.
도 31은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 31을 참조하면, 캐빈 시스템(100)은, 차량 외부 오브젝트와의 충돌 알람 기능을 제공할 수 있다. 지시 부호 3110에 예시된 바와 같이, 프로세서(171)는, 외부 오브젝트 검출 장치로부터, 차량(10) 주변 오브젝트에 대한 데이터를 수신할 수 있다. 프로세서(171)는, 입력 장치(200), 영상 장치(250), 통신 장치(300), 시트 시스템(600) 및 메모리(175) 중 적어도 어느 하나로부터, 사용자의 하차 여부에 대한 데이터를 획득할 수 있다. 프로세서(171)는, 사용자의 하차 여부에 대한 데이터가 획득되는 상태에서, 차량(10) 주변에 위험 오브젝트가 존재하는 경우, 알람(3112)을 출력할 수 있다. 이경우, 프로세서(171)는, 차량(10) 주변 영상을 출력할 수 있다.
지시 부호 3120에 예시된 바와 같이, 디스플레이 시스템(400)은 외부 디스플레이를 더 포함할 수 있다. 외부 디스플레이는 차량(10)의 외부의 일부분에 배치될 수 있다. 프로세서(171)는, 사용자의 하차 여부에 대한 데이터가 획득되는 경우, 외부 디스플레이에 알람(3112)을 출력할 수 있다. 프로세서(170)는, 인터페이스부(180)를 통해, 차량(10)에 구비된 적어도 하나의 전자 장치로부터 차량(10)의 동작에 대한 데이터를 수신할 수 있다. 프로세서(171)는, 차량(10)의 동작에 대한 데이터에 기초하여, 외부 디스플레이에 컨텐츠를 표시할 수 있다. 프로세서(171)는, 차량(10)의 정지에 대한 데이터가 획득되는 경우, 외부 디스플레이에 알람(3112)을 표시할 수 있다.
도 32은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 32를 참조하면, 캐빈 시스템(100)은, 개인용 이동 장치(3220)와 연동되는 기능을 제공할 수 있다. 프로세서(151)는, 통신 장치(300)를 통해 관리 서버와 신호를 교환할 수 있다. 프로세서(151)는, 관리 서버로부터, 이용 가능한 개인용 이동 장치(3220)에 대한 정보를 수신할 수 있다. 프로세서(151)는, 목적지 정보에 기초하여, 하차 장소로 개인용 이동 장치(3320)가 배치될 수 있도록 관리 서버에 요청할 수 있다. 프로세서(151)는, 디스플레이 시스템(400) 및 음향 출력부(490) 중 적어도 어느 하나를 통해, 이용 가능한 개인용 이동 장치(3320)에 대한 정보를 제공할 수 있다. 또는, 프로세서(151)는, 통신 장치(300) 및 이동 단말기(390)를 통해, 이용 가능한 개인용 이동 장치(3320)에 대한 정보를 제공할 수 있다. 이동 장치(3320)에 대한 정보는, 이동 장치(3320)의 위치 정보, 이용 가능 여부 정보, 잔여 에너지 정보, 이동 가능 거리 정보 중 적어도 어느 하나를 포함할 수 있다.
도 33은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 33을 참조하면, 캐빈 시스템(100)은, 항공 서비스와 연동되는 기능을 제공할 수 있다. 프로세서(151)는, 통신 장치(300)를 통해 관리 서버와 신호를 교환할 수 있다. 프로세서(151)는, 관리 서버로부터 비행기(3310) 출발 예정 정보 및 비행기 도착 예정 정보 중 적어도 어느 하나를 수신할 수 있다. 프로세서(151)는, 비행기 출발 예정 정보 및 비행기 도착 예정 정보 중 적어도 어느 하나에 기초하여, 공항 도착 시간을 설정할 수 있다. 프로세서(171)는, 설정된 시간에 맞춰 차량(10)이 공항에 도착하도록 제어 신호를 제공할 수 있다.
도 34은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 34를 참조하면, 캐빈 시스템(100)은 클리닝 기능을 제공할 수 있다. 캐빈 시스템(100)은, 자동 클리닝 시스템을 더 포함할 수 있다. 프로세서(171)는, 캐빈 시스템(100)의 가동 중지 시간에 동안 자동 클리닝을 수행하도록 자동 클리닝 시스템에 제어 신호를 제공할 수 있다. 프로세서(171)는, UV(ultraviolet)(3410)를 캐빈 내부에 조사하여, 캐빈 내부의 위생 상태를 관리할 수 있다.
도 35은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 35를 참조하면, 캐빈 시스템(100)은, 외부 디스플레이를 이용한 광고 기능을 제공할 수 있다. 디스플레이 시스템(400)은, 외부 디스플레이를 더 포함할 수 있다. 프로세서(171)는, 통신 장치(300)를 통해 광고 서버로부터 광고 데이터를 수신할 수 있다. 프로세서(171)는, 광고 데이터에 기초한 컨텐츠가 외부 디스플레이에 표시되도록 제어 신호를 제공할 수 있다.
도 36은 본 발명의 실시예에 따른 캐빈 시스템의 동작을 설명하는데 참조되는 도면이다.
도 36을 참조하면, 캐빈 시스템(100)은, 트렁크(3510)를 더 포함할 수 있다. 트렁크(3510)는, 모듈 형태로 형성될 수 있다. 모듈 형태로 형성된 트렁크(3510)는, 사용자 정보에 따라 교체될 수 있다. 예를 들면, 제1 트렁크에는 추가 배터리 팩이 내재될 수 있다. 제2 트렁크에는 상품이 담긴 카고 박스가 내재될 수 있다. 제3 트렁크에는 의류를 관리할 수 있는 스타일러가 내재될 수 있다. 차량(10)에 형성된 공간은 모듈형 트렁크(3510)를 수용할 수 있다. 사용자 정보에 맞는 모듈형 트렁크(3510)가 구비되어, 사용자 요청에 적절한 기능을 제공할 수 있다.
도 37은 본 발명의 실시예에 따른 페이먼트 시스템의 제어 블럭도이다.
도 37을 참조하면, 페이먼트 시스템(700)은, 입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(500), 카고 시스템(500), 시트 시스템(600) 및 전자 장치(710)를 포함할 수 있다. 실시예에 따라, 페이먼트 시스템(700)은, 상기 나열된 구성 요소 중 일부를 생략하거나 다른 구성 요소를 더 포함할 수 있다.
입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(500), 카고 시스템(500) 및 시트 시스템(600)은 도 1 내지 도 37을 참조하여 설명한 내용이 적용될 수 있다.
전자 장치(710)는, 차량 탑승객에 대한 과금 동작을 수행할 수 있다. 이를 위해, 전자 장치(710)는, 적어도 하나의 인터페이스부(716), 적어도 하나의 프로세서(717), 적어도 하나의 메모리(718) 및 전원 공급부(719)를 포함할 수 있다.
인터페이스부(716)는, 차량(10)에 장착된 적어도 하나의 전자 장치와 신호를 교환할 수 있다. 인터페이스부(716)는, 캐빈 시스템(100) 내에 구비되는 적어도 하나의 전자 장치와 무선 또는 유선으로 신호를 교환할 수 있다. 인터페이스부(716)는, 입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(490), 카고 시스템(500) 및 시트 시스템(600) 중 적어도 어느 하나와 신호를 교환할 수 있다. 인터페이스부(716)는, 프로세서(717)와 전기적으로 연결되어, 수신되는 신호를 프로세서(717)에 제공할 수 있다. 인터페이스부(716)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(716)는, 캐빈 내 영상을 촬영하는 적어도 하나의 내부 카메라(251)와 신호를 교환할 수 있다. 내부 카메라(251)는, 복수개일 수 있다. 예를 들면, 내부 카메라(251)는, 복수의 시트를 이용하는 복수의 사용자를 각각 촬영할 수 있도록 복수개로 구비될 수 있다. 인터페이스부(716)는, 복수의 내부 카메라(251)와 신호를 교환할 수 있다. 내부 카메라(251)는, 하나일 수도 있다. 예를 들면, 내부 카메라(251)는, 천장에 배치되어, 복수의 사용자를 촬영할 수 있다. 인터페이스부(716)는, 하나의 내부 카메라(716)와 신호를 교환할 수 있다.
인터페이스부(716)는, 시트 시스템(600)으로부터 사용자의 착좌 감지에 따른 신호를 수신할 수 있다. 시트 시스템(600)은, 사용자의 착좌를 감지하는 센서(예를 들면, 무게 센서)를 포함할 수 있다. 인터페이스부(716)는, 시트 시스템(600)의 센서로부터 착좌 감지에 따른 신호를 수신할 수 있다.
인터페이스부(716)는, 차량 외부의 영상을 촬영하는 적어도 하나의 외부 카메라(252)와 신호를 교환할 수 있다.
프로세서(717)는, 전자 장치(710)의 각 유닛의 전반적인 동작을 제어할 수 있다. 프로세서(717)는, 인터페이스부(716), 메모리(718) 및 전원 공급부(719)와 전기적으로 연결될 수 있다. 프로세서(717)는, 메인 컨트롤러(170)를 구성하는 복수의 서브 컨트롤러 중 하나로 설명될 수 있다. 프로세서(717)는, 전원 공급부(719)로부터 제공되는 전원에 의해 구동될 수 있다.
프로세서(717)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(717)는, 인터페이스부(716)를 통해, 적어도 하나의 내부 카메라(251)로부터 영상 데이터를 수신할 수 있다. 영상 데이터는, 캐빈 내부를 촬영한 영상일 수 있다. 프로세서(717)는, 영상 데이터에 기초하여 사용자를 검출할 수 있다. 프로세서(717)는, 영상 데이터에 기초하여, 사용자의 모션을 검출할 수 있다.
프로세서(717)는, 시트 시스템(600)으로부터, 사용자의 착좌 감지 신호가 수신되는 경우, 복수의 내부 카메라 중 특정된 사용자의 탑승 시트에 할당된 내부 카메라로부터 영상 데이터를 수신할 수 있다.
프로세서(717)는, 시트 시스템(600)으로부터, 사용자의 착좌 감지 신호가 수신되는 경우, 하나의 내부 카메라로부터 수신된 영상 데이터에 기초하여, 특정된 사용자의 탑승 시트에 대응되는 영역의 영상을 구분하여 처리할 수 있다.
프로세서(717)는, 검출된 사용자의 모션에 기초하여, 과금(charging) 데이터를 생성할 수 있다. 과금 데이터는, 사용자에게 요금을 청구하기 위한 데이터일 수 있다. 과금 데이터는, 사용자 정보, 이용된 서비스 정보, 금액 정보 및 요금 지불 수단 정보 중 적어도 어느 하나가 포함될 수 있다.
프로세서(717)는, 내부 카메라(251)를 통해 획득된 영상 데이터에 기초하여, 과금의 대상이 되는 사용자를 특정할 수 있다. 예를 들면, 프로세서(717)는, 영상 데이터에 기초하여, 복수의 사용자 중 어느 한명을 과금의 대상이 되는 사용자로 특정할 수 있다. 실시예에 따라, 프로세서(717)는, 외부 카메라(251)를 통해 획득된 영상 데이터에 기초하여, 과금의 대상이 되는 사용자를 특정할 수 있다. 프로세서(717)는, 인터페이스부(716)를 통해, 시트 시스템(600)으로부터 사용자의 착좌 감지에 따른 신호를 수신할 수 있다. 프로세서(717)는, 착좌 감지에 따른 신호에 더 기초하여, 과금의 대상이 되는 사용자를 특정할 수 있다.
프로세서(717)는, 사용자 탑승 전의 영상 데이터와 사용자 탑승 후의 영상 데이터를 비교할 수 있다. 프로세서(717)는, 영상 데이터 비교를 통해, 사용자의 모션을 트래킹 할 수 있다.
프로세서(717)는, 검출된 사용자의 모션이, 오염의 원인이 되는 모션, 기물 파손 모션, 도난 모션 중 적어도 어느 하나에 해당하는지 판단할 수 있다. 프로세서(717)는, 컴퓨터 영상 처리를 통해, 특정된 사용자의 모션 트래킹을 수행할 수 있다. 프로세서(717)는, 트래킹되는 모션에 기초하여, 특정된 사용자의 모션이, 오염의 원인이 되는 모션, 기물 파손 모션, 도난 모션 중 적어도 어느 하나에 해당하는지 판단할 수 있다.
프로세서(717)는, 인터페이스부(716)를 통해, 차량의 모션 데이터를 수신할 수 있다. 프로세서(717)는, 사용자의 오염 원인 모션의 시점과 차량의 모션 시점을 비교하여, 사용자의 오염 원인 모션이, 차량의 모션에 기초한 것인지 판단할 수 있다. 예를 들면, 프로세서(717)는, 사용자가 음료수를 엎지르는 모션이 차량이 노면 오브젝트(예를 들면, 범프)를 지나면서 발생한 것인지 판단할 수 있다. 만약, 사용자의 오염 원인 모션이 차량의 모션에 기초한 것으로 판단되는 경우, 과금 데이터를 생성하지 않거나, 할인된 금액의 과금 데이터를 생성할 수 있다.
프로세서(717)는, 오염 원인 모션이 캐빈 내에서 구매한 상품에 의한 것인지 판단할 수 있다. 예를 들면, 프로세서(717)는, 오염 원인 모션이, 사용자가 구매한 음료수의 용기를 캐빈 내에 두고 하차함으로써 발생하는지 판단할 수 있다. 프로세서(717)는, 사용자의 오염 원인 모션이 캐빈 내에서 구매한 상품에 의한 것으로 판단되는 경우, 과금 데이터를 생성하지 않거나 할인된 금액의 과금 데이터를 생성할 수 있다.
프로세서(717)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나로부터 영상 데이터를 수신할 수 있다. 프로세서(717)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나로부터 수신된 영상 데이터에 기초하여, 사용자의 신체 프로파일(profile) 데이터를 생성할 수 있다. 신체 프로파일 데이터는, 사용자의 신체 사이즈 정보, 사용자 신체의 특징적 정보(예를 들면, 사용자의 신체 형상 정보, 사용자가 장애인인지 여부에 대한 정보) 중 적어도 어느 하나를 포함할 수 있다. 프로세서(717)는, 사용자의 신체 프로파일 데이터에 기초하여, 사용자의 모션을 트래킹할 수 있다. 프로세서(717)는, 트래킹되는 모션에 기초하여, 특정된 사용자의 모션이, 오염의 원인이 되는 모션, 기물 파손 모션, 도난 모션 중 적어도 어느 하나에 해당하는지 판단할 수 있다.
프로세서(717)는, 사용자의 모션에 기초하여, 카고 박스에 위치하는 상품에 대한 구매 여부를 판단할 수 있다. 카고 박스는, 사용자에게 상품을 제공하기 위해 캐빈 내 구비될 수 있다. 예를 들면, 카고 박스는, 복수의 상품이 내재된 상태로 시트의 적어도 일부분에서 출납 가능하게 형성될 수 있다.
프로세서(717)는, 영상 데이터에서 카고 박스에 위치하는 상품에 접근하는 손의 방향을 특정할 수 있다. 프로세서(717)는, 손의 방향에 기초하여, 과금의 대상이 되는 사용자를 특정할 수 있다. 예를 들면, 손의 방향이 제1 시트에서 카고 박스를 향하는 것으로 판단되는 경우, 프로세서(717)는, 제1 시트의 탑승자를 과금의 대상이 되는 사용자로 특정할 수 있다.
프로세서(717)는, 영상 데이터에서 특정된 사용자의 상품 선택 모션 및 상품 개봉 모션을 검출할 수 있다. 프로세서(717)는, 영상 데이터에서 상품 선택 모션 및 상품 개봉 모션이 검출되는 경우, 특정된 사용자가 상품을 구매하는 것으로 판단할 수 있다. 프로세서(717)는, 구매된 상품 가격 정보가 포함된 과금 데이터를 생성할 수 있다.
한편, 프로세서(717)는, 인터페이스부(716)를 통해, 카고 박스에 포함된 무게 센서로부터 센싱 데이터를 수신할 수 있다. 프로세서(717)는, 수신되는 센싱 데이터에 기초하여, 사용자의 상품 선택 여부를 판단할 수 있다.
한편, 카고 박스는 발광 장치를 포함할 수 있다. 상기 발광 장치는, 상기 복수의 상품별로 각각 대응되게 배치되는 복수의 광원을 포함할 수 있다. 발광 장치는, 복수의 상품 중 어느 하나에 대한 선택에 대응하는 신호에 대응하여 상기 복수의 광원 중 어느 하나의 출력광을 변경시킬 수 있다. 프로세서(717)는, 영상 데이터에서 카고 박스에 배치된 포켓 주변 광의 색의 변화를 검출하는 경우, 특정된 사용자가 포켓에 내재된 상품을 선택하는 것으로 판단할 수 있다.
프로세서(717)는, 상품을 선택하는 모션이 검출되는 경우, 인터페이스부(716)를 통해, 차량(10)에 구비된 적어도 하나의 다른 전자 장치에, 상품 선택 정보를 출력하기 위한 신호를 제공할 수 있다. 디스플레이 시스템(400) 및 음향 출력부(490) 중 적어도 어느 하나는, 제공된 신호에 기초하여, 상품 선택 정보를 출력할 수 있다. 사용자의 이동 단말기(390)는, 통신 장치(300)를 통해 제공된 신호에 기초하여, 상품 선택 정보를 출력할 수 있다. 프로세서(717)는, 상품을 개봉하는 모션이 검출되는 경우, 인터페이스부(716)를 통해, 차량(10)에 구비된 적어도 하나의 다른 전자 장치에, 상품 구매 정보를 출력하기 위한 신호를 제공할 수 있다. 디스플레이 시스템(400) 및 음향 출력부(490) 중 적어도 어느 하나는, 제공된 신호에 기초하여, 상품 구매 정보를 출력할 수 있다. 사용자의 이동 단말기(390)는, 통신 장치(300)를 통해 제공된 신호에 기초하여, 상품 구매 정보를 출력할 수 있다.
프로세서(717)는, 영상 데이터에서 상품을 선택한 후 상품을 다시 카고 박스에 원위치시키는 모션이 검출되는 경우, 상품의 구매를 취소하는 것으로 판단할 수 있다.
프로세서(717)는, 과금의 기초가 되는 영상 데이터를 메모리(718)에 저장할 수 있다. 프로세서(717)는, 인터페이스부(716) 및 통신 장치(300)를 통해, 사용자의 이동 단말기(390)로 과금 데이터를 전송할 수 있다. 이 경우, 프로세서(717)는, 인터페이스부(716) 및 통신 장치(400)를 통해, 과금 데이터와 함께, 사용자의 이동 단말기(390)로 저장된 영상 데이터를 전송할 수 있다. 사용자는, 이동 단말기(390)로 수신된 영상을 확인함으로써, 과금의 원인을 파악할 수 있게 된다.
프로세서(717)는, 차량의 운행 동작 및 서비스 제공 동작 중 적어도 어느 하나에 더 기초하여 과금 데이터를 생성할 수 있다. 차량의 운행 동작에 따른 요금은 특정된 사용자의 승차시부터 하차시까지의 차량의 운행 요금으로 정의될 수 있다. 서비스 제공 동작에 따른 요금은, 시트의 안마 기능 제공 서비스, 차량의 냉난방 서비스, 디스플레이 시스템(400)을 통한 컨텐츠 제공 서비스 및 프라이빗(private) 공간 제공 서비스 중 적어도 어느 하나를 포함할 수 있다.
프로세서(717)는, 결제 서버에 과금 데이터를 전송할 수 있다. 결제 서버는, 과금 데이터에 기초하여, 특정된 사용자에게 과금할 수 있다. 예를 들면, 과금 데이터는, 사용자의 카드 데이터를 포함할 수 있다. 결제 서버는, 카드 데이터에 기초하여 과금할 수 있다. 예를 들면, 과금 데이터는, 사용자의 이동 단말기 데이터를 포함할 수 있다. 결제 서버는, 이동 단말기를 이용하여 과금할 수 있다.
프로세서(717)는, 인터페이스부(716) 및 통신 장치(300)를 통해, 결제 서버로부터 과금 처리 결과 데이터를 수신할 수 있다. 프로세서(717)는, 과금 처리 결과 데이터에 기초하여 과금 결과 정보가 표시될 수 있도록, 디스플레이 시스템(400)에 신호를 제공할 수 있다.
프로세서(717)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나로부터 수신된 영상 데이터에 기초하여, 사용자의 하차 동작을 검출할 수 있다. 프로세서(717)는, 사용자의 하차 동작이 검출되는 경우, 결제 서버에 과금 데이터를 전송할 수 있다.
메모리(718)는, 프로세서(717)와 전기적으로 연결된다. 메모리(718)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력 되는 데이터를 저장할 수 있다. 메모리(718)는, 프로세서(717)에서 처리된 데이터를 저장할 수 있다. 메모리(718)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(718)는 프로세서(717)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(710) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(718)는, 프로세서(717)와 일체형으로 구현될 수 있다. 메모리(718)는, 전원 공급부(719)로부터 공급되는 전원에 의해 구동될 수 있다.
전원 공급부(719)는, 전자 장치(710)에 전원을 공급할 수 있다. 전원 공급부(719)는, 차량(10)에 포함된 파워 소스로부터 전원을 공급받아, 전자 장치(710)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(719)는, 프로세서(717)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 예를 들면, 전원 공급부(719)는, SMPS(switched-mode power supply)로 구현될 수 있다.
전자 장치(710)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 인터페이스부(716), 프로세서(717), 메모리(718) 및 전원 공급부(719)는, 적어도 하나의 인쇄 회로 기판에 실장될 수 있다.
도 38는 본 발명의 실시예에 따른 페이먼트 시스템의 동작을 설명하는데 참조되는 플로우 차트이다.
도 38를 참조하면, 차량(10)에 시동이 걸리면, 페이먼트 시스템(700)이 가동된다(S1205).
프로세서(717)는, 실내 모니터링을 통한 기준 데이터를 생성할 수 있다(S1210). 프로세서(717)는, 인터페이스부(716)를 통해, 캐빈 내 여러 전자 장치로부터 각종 데이터를 수신할 수 있다. 프로세서(717)는, 수신된 데이터에 기초하여, 기준 데이터를 생성할 수 있다. 예를 들면, 프로세서(717)는, 실내 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나를 통해 영상 데이터를 획득할 수 있다. 프로세서(717)는, 영상 데이터에 기초하여, 기준 데이터를 생성할 수 있다. 예를 들면, 프로세서(717)는, 시트의 자세 데이터, 시트의 기본 부피 데이터, 시트의 오염 정도에 대한 데이터, 캐빈 내 기기의 작동 현황 데이터, 캐빈 내 기기의 파손 여부에 대한 데이터 및 카고 박스의 재고 데이터 중 적어도 어느 하나에 대한 기준 데이터를 생성할 수 있다.
프로세서(717)는, 캐빈 시스템(100)이 정상 작동하는지 판단할 수 있다(S1215). 프로세서(717)는, 수신되는 데이터에 기초하여, 캐빈 시스템(100)이 정상 작동하는지 판단할 수 있다.
캐빈 시스템(100)이 정상 작동하지 않는 경우, 프로세서(717)는, 관제 서버에 오류 결과를 송출하고 차량(10)이 수리 센터로 이동되도록 차량(10)의 ECU(Electronic Control Unit)에 신호를 제공할 수 있다(S1220).
캐빈 시스템(100)이 정상 작동하는 경우, 프로세서(717)는, 수신되는 데이터에 기초하여, 사용자(예를 들면, 승객)의 탑승 여부를 판단할 수 있다(S1225). 예를 들면, 프로세서(717)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나로부터 수신되는 영상 데이터에 기초하여 사용자의 탑승 여부를 판단할 수 있다. 사용자가 탑승하지 않는 것으로 판단되는 경우, S1210 단계로 회귀한다.
사용자가 탑승하는 것으로 판단되는 경우, 프로세서(717)는, 수신되는 데이터에 기초하여, 사용자의 탑승 위치를 파악할 수 있다(1230). 예를 들면, 프로세서(717)는, 내부 카메라(251)로부터 수신되는 영상 데이터에 기초하여, 사용자의 탑승 위치를 파악할 수 있다. 프로세서(717)는, 사용자의 탑승 위치를 파악함으로써, 사용자를 특정할 수 있다.
프로세서(717)는, 사용자의 모션을 모니터링할 수 있다(S1235). 예를 들면, 프로세서(717)는, 내부 카메라(251)로부터 수신되는 영상 데이터에 기초하여, 사용자의 모션을 모니터링 할 수 있다.
프로세서(717)는, 사용자의 모션이 서비스 이용 모션인지 판단할 수 있다(S1240). 예를 들면, 프로세서(717)는, 사용자의 모션이 시트의 안마 기능을 이용하는 모션인지 여부, 디스플레이 시스템(400)의 컨텐츠를 이용하는 모션인지 여부, 비지니스석(예를 들면, 프라이빗 공간 서비스 이용)을 이용하는 모션인지 여부 또는 카고 박스의 상품을 구매하는 모션인지 여부를 판단할 수 있다.
서비스를 이용 모션으로 판단되는 경우, 프로세서(717)는, 서비스의 내용 및 서비스 이용 사용자를 특정할 수 있다(S1245). 예를 들면, 프로세서(717)는, 내부 카메라(251)로부터 수신되는 영상 데이터에 기초하여, 서비스의 내용 및 서비스 이용 사용자를 특정할 수 있다. 예를 들면, 프로세서(717)는, 시트 시스템으로부터 수신되는 센싱 데이터에 기초하여, 서비스 이용 사용자를 특정할 수 있다.
프로세서(717)는, 특정된 사용자에게 이용된 서비스에 대응되는 요금을 과금할 수 있다(S1225). 프로세서(717)는, 검출된 사용자의 모션에 기초하여, 제1 과금 데이터를 생성할 수 있다. 제1 과금 데이터는, 특정된 사용자 정보, 이용된 서비스 정보, 요금 정보 및 결제 수단 정보 중 적어도 어느 하나를 포함할 수 있다.
프로세서(717)는, 수신된 데이터에 기초하여, 승객이 하차하는지 판단할 수 있다(S1225). 예를 들면, 프로세서(717)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나로부터 수신된 영상 데이터에 기초하여, 승객이 하차하는지 판단할 수 있다.
승객이 하차하는 것으로 판단되는 경우, 프로세서(717)는, 차량(10)의 운행 동작에 따른 요금에 기초하여 제2 과금 데이터를 생성할 수 있다(S1260). 제2 과금 데이터는, 특정된 사용자 정보, 사용자의 승차 및 하차 위치 정보, 이동 거리 정보, 이동 시간 정보, 요금 정보 및 결제 수단 정보 중 적어도 어느 하나를 포함할 수 있다.
프로세서(717)는, S1210 단계에서 생성된 기준 데이터와 사용자 하차 후 획득된 영상 데이터를 비교할 수 있다(S1265).
프로세서(717)는, 기준 데이터와 사용자 하차 후 획득된 영상 데이터간에 차이가 존재하는지 판단할 수 있다(S1270). 예를 들면, 프로세서(717)는, 비교 결과, 시트의 오염 발생 여부, 캐빈 내 기물 파손 여부, 캐빈 내 물건 도난 여부 및 캐빈 내 기기 작동 오류 여부 중 적어도 어느 하나를 판단할 수 있다.
차이가 존재하는 것으로 판단되는 경우, 프로세서(717)는, 차이에 기초하여, 제3 과금 데이터를 생성할 수 있다(S1275). 제3 과금 데이터는, 특정된 사용자 정보, 과금 발생 원인 정보, 요금 정보 및 결제 수단 정보 중 적어도 어느 하나를 포함할 수 있다.
이후에, 프로세서(717)는, 인터페이스부(716) 및 통신 장치(300)를 통해, 결제 서버에, 과금 데이터가 포함된 신호를 전송할 수 있다. 과금 데이터는, 제1 과금 데이터, 제2 과금 데이터 및 제3 과금 데이터 중 적어도 어느 하나를 포함할 수 있다.
도 39은 본 발명의 실시예에 따른 페이먼트 시스템의 동작을 설명하는데 참조되는 플로우 차트이다.
도 39을 참조하면, 입력 장치(300)는, 사용자의 스낵 메뉴 선택 입력을 수신하는 경우(S1305), 프로세서(717)는, 스낵 메뉴로 진입하고(S1315), 스낵바를 오픈하기 위한 신호를 카고 시스템(500)에 제공할 수 있다(S1320). 여기서, 스낵바는, 상술한 카고 박스로 이해될 수 있다.
사용자의 스낵 메뉴 선택 입력이 없더라도, 스낵바 버튼이 입력되는 경우(S1310), 프로세서(717)는, 스낵바를 오픈하기 위한 신호를 카고 시스템(500)에 제공할 수 있다(S1320). 한편, 스낵바 버튼은, 카고 박스의 적어도 일 영역에 배치되어, 카고 박스의 출납 신호를 생성하는 버튼으로 이해될 수 있다.
스낵바가 오픈된 상태에서, 스낵바 버튼이 다시 입력되는 경우(S1325, 1365), 프로세서(717)는, 멀티미디어 스크린의 이전 화면으로 복귀하도록 신호롤 디스플레이 시스템(400)에 제공할 수 있다(S1370). 만약, 이전 화면이 없는 경우, 디스플레이 시스템(400)은, 메인 메뉴를 출력할 수 있다.
스낵바가 오픈된 상태에서, 프로세서(717)는, 스낵이 꺼내지는지 여부를 판단할 수 있다(S1330). 여기서, 스낵은, 상술한 카고 박스를 통해 제공되는 상품 중 어느 하나로 이해될 수 있다. 프로세서(717)는, 카고 박스에 포함되는 무게 센서 및 내부 카메라(251)로부터 수신되는 영상 데이터 중 적어도 어느 하나에 기초하여, 스낵이 꺼내지는지 여부를 판단할 수 있다. 프로세서(717)는, 꺼내진 스낵을 특정할 수 있다(S1335). 프로세서(717)는, 꺼내진 스낵이 위치했던 포켓에 대응되는 광원의 광출력 색을 제1 색에서 제2 색으로 전환하기 위한 신호를 제공할 수 있다(S1340).
프로세서(717)는, 스낵을 꺼낸 사용자를 특정하고, 과금 데이터를 생성할 수 있다(S1345). 예를 들면, 프로세서(717)는, 내부 카메라(251)로부터 수신되는 영상 데이터에 기초하여, 스낵을 꺼낸 사용자를 특정할 수 있다. 프로세서(717)는, 특정된 사용자 정보, 선택된 스낵의 요금 정보, 결제 수단 정보 중 적어도 어느 하나가 포함된 과금 데이터를 생성할 수 있다.
프로세서(717)는, 과금 데이터에 대한 정보가 출력되도록 디스플레이 시스템(400)에 신호를 제공할 수 있다(S1350). 디스플레이 시스템은, 수신된 신호에 기초하여, 과금 데이터에 대한 정보를 출력할 수 있다.
프로세서(717)는, 선택된 상품이 스낵바로 복귀하는지 판단할 수 있다(S1355). 프로세서(717)는, 내부 카메라(251)로부터 수신된 영상 데이터에 기초하여, 선택된 상품이 스낵바로 복귀되는지 판단할 수 있다.
상품이 스낵바로 복귀하는 것으로 판단되는 경우, 프로세서(717)는, 과금 과정을 취소할 수 있다. 프로세서(717)는, 복귀한 스낵이 위치한 포켓에 대응되는 광원의 광출력 색을 제2 색에서 제1 색으로 전환하기 위한 신호를 제공할 수 있다. 프로세서(717)는, 결제 취소 정보를 출력하기 위한 신호를 디스플레이 시스템(400)에 제공할 수 있다(S1360).
도 40는 본 발명의 실시예에 따른 영상 데이터 획득 시나리오를 설명하는데 참조되는 도면이다.
도 40를 참조하면, 프로세서(717)는, 인터페이스부(716)를 통해, 복수의 시트를 제어하는 시트 시스템(600)과 신호를 교환할 수 있다. 시트 시스템(600)는, 복수의 시트 각각에 배치된 d좌 감지 센서를 포함할 수 있다. 프로세서(717)는, 시트 시스템(717)으로부터 착과 감지 신호를 수신할 수 있다.
영상 장치(250)는 복수의 시트 개수에 대응되는 개수로 구비되는 복수의 카메라(251)를 포함할 수 있다. 복수의 카메라(251)는, 복수의 시트를 각각 촬영할 수 있는 위치에 배치될 수 있다. 또는, 복수의 카메라(251)는, 복수의 시트에 착좌한 사용자를 각각 촬영할 수 있는 위치에 배치될 수 있다. 예를 들면, 복수의 카메라 중 제1 카메라는, 천정 중 복수의 시트 중 제1 시트에 대응되는 위치에 배치될 수 있다. 프로세서(717)는, 인터페이스부(716)를 통해, 복수의 내부 카메라(251)와 신호를 교환할 수 있다.
프로세서(717)는, 제1 시트에 배치된 착좌 감지 센서로부터 생성된 감지 신호에 대응되는 신호를 시트 시스템(717)으로부터 수신할 수 있다. 이경우, 프로세서(717)는, 제1 시트에 대응되는 제1 카메라로부터 영상 데이터를 수신할 수 있다. 프로세서(717)는, 제1 카메라로부터 수신되는 영상 데이터에 기초하여, 제1 시트에 착좌한 사용자의 모션을 검출하고, 사용자의 모션에 기초하여 과금 동작을 수행할 수 있다.
도 41는 본 발명의 실시예에 따른 영상 데이터 획득 시나리오를 설명하는데 참조되는 도면이다.
도 41를 참조하면, 프로세서(717)는, 인터페이스부(716)를 통해, 복수의 시트를 제어하는 시트 시스템(600)과 신호를 교환할 수 있다. 시트 시스템(600)는, 복수의 시트(611, 612, 613, 614) 각각에 배치된 d좌 감지 센서를 포함할 수 있다. 프로세서(717)는, 시트 시스템(717)으로부터 착과 감지 신호를 수신할 수 있다.
영상 장치(250)는, 하나의 카메라(251)를 포함할 수 있다. 카메라(251)는, 복수의 시트를 모두 촬영할 수 있는 위치에 배치될 수 있다. 예를 들면, 카메라(251)는, 천정의 일부분에 배치될 수 있다. 프로세서(717)는, 인터페이스부(716)를 통해, 카메라(251)와 신호를 교환할 수 있다.
프로세서(717)는, 제1 시트에 배치된 착좌 감지 센서로부터 생성된 감지 신호에 대응되는 신호를 시트 시스템(717)으로부터 수신할 수 있다. 이경우, 프로세서(717)는, 카메라(251)로부터 획득된 영상의 영역 중 제1 시트에 대응되는 제1 영역의 영상을 구분하여 처리할 수 있다. 프로세서(717)는, 제1 영역에서 검출되는 사용자의 모션을 검출하고, 사용자의 모션에 기초하여 과금 동작을 수행할 수 있다.
도 42 내지 도 43은 본 발명의 실시예에 따른 상품 선택 모션 및 상품 개봉 모션을 설명하는데 참조되는 도면이다.
도 42을 참조하면, 프로세서(717)는, 내부 카메라(251)에 의해 획득된 영상 데이터에 기초하여, 상품을 선택하는 사용자를 선택할 수 있다. 예를 들면, 프로세서(717)는, 영상 데이터에서, 카고 박스(530)에 위치하는 제1 상품(531)을 잡는 모션을 검출할 수 있다. 프로세서(717)는, 제1 사용자(721)의 제1 상품(531)을 잡는 모션에 기초하여, 제1 사용자(721) 제1 상품(531)의 구매 사용자로 특정할 수 있다. 예를 들면, 프로세서(717)는, 제1 상품(531)을 잡는 제1 사용자(721)의 손(721a)을 검출할 수 있다. 프로세서(717)는, 손(721a)의 움직임 궤적에 기초하여, 제1 사용자(721)를 제1 상품(531)의 구매 사용자로 특정할 수 있다.
도 43을 참조하면, 프로세서(717)는, 제1 상품(531)을 잡은 제1 사용자(721)의 손(721a)을 검출할 수 있다. 프로세서(717)는, 제1 상품(531)을 잡은 손(721a)에 기초하여, 제1 상품(531)에 대한 제1 사용자(731)의 선택(731) 여부를 판단할 수 있다. 프로세서(717)는, 제1 상품(531)의 개봉 모션(732)을 검출할 수 있다. 프로세서(717)는, 제1 상품(531)의 개봉 모션(732)에 기초하여, 제1 상품(531)에 대한 제1 사용자(731)의 구매 여부를 판단할 수 있다. 프로세서(717)는, 제1 사용자(721)가 제1 상품(531)을 선택하고, 구매한 것으로 판단되는 경우, 과금 데이터를 생성할 수 있다.
프로세서(717)는, 제1 상품(531)을 카고 박스(530)에 복귀시키는 제1 사용자(721)의 모션을 검출할 수 있다. 프로세서(717)는, 제1 상품(531)을 복귀시키는 모션에 기초하여, 제1 상품(531)에 대한 제1 사용자(721)의 구매 취소 여부를 판단할 수 있다.
도 44은 본 발명의 실시예에 따라 정보를 표시하는 동작을 설명하는데 참조되는 도면이다.
도 44을 참조하면, 프로세서(717)는, 인터페이스부(716)를 통해, 디스플레이 시스템(400) 및 음향 출력부(490) 중 적어도 어느 하나와 신호를 교환할 수 있다.
프로세서(717)는, 상품의 선택 여부 판단 및 상품의 개봉 여부 판단에 기초하여, 상품의 구매 여부를 판단할 수 있다.
프로세서(717)는, 제1 상품에 대한 제1 사용자의 선택 동작이 검출되는 경우, 제1 사용자의 제1 상품 선택 정보에 대응되는 신호를, 디스플레이 시스템(400)에 제공할 수 있다. 디스플레이 시스템(400)은, 수신되는 신호에 기초하여, 적어도 하나의 디스플레이를 통해, 제1 상품 선택 정보(741)를 출력할 수 있다. 프로세서(717)는, 제1 사용자의 제1 상품 선택 정보에 대응되는 신호를, 음향 출력부(490)에 제공할 수 있다. 음향 출력부(490)는, 수신되는 신호에 기초하여, 적어도 하나의 스피커를 통해, 제1 상품 선택 정보를 출력할 수 있다. 이를 통해, 제1 사용자는 제1 상품의 선택 여부를 인지할 수 있게 된다.
프로세서(717)는, 제1 상품에 대한 제1 사용자의 개봉 동작이 검출되는 경우, 제1 사용자의 제1 상품 구매 정보에 대응되는 신호를, 디스플레이 시스템(400)에 제공할 수 있다. 디스플레이 시스템(400)은, 수신되는 신호에 기초하여, 적어도 하나의 디스플레이를 통해, 제1 상품 구매 정보(742)를 출력할 수 있다. 프로세서(717)는, 제1 사용자의 제1 상품 구매 정보에 대응되는 신호를, 음향 출력부(490)에 제공할 수 있다. 음향 출력부(490)는, 수신된 신호에 기초하여, 적어도 하나의 스피커를 통해, 제1 상품 선택 정보를 출력할 수 있다. 이를 통해, 제1 사용자는 제1 상품의 구매 여부를 인지할 수 있게 된다.
도 45는 본 발명의 실시예에 따라 이동 단말기에 정보를 제공하는 동작을 설명하는데 참조되는 도면이다.
도 45를 참조하면, 페이먼트 시스템(700)은, 이동 단말기(390)를 더 포함할 수 있다.
프로세서(717)는, 인터페이스부(716) 및 통신 장치(300)를 통해, 이동 단말기(390)와 신호를 교환할 수 있다. 프로세서(717)는, 과금 데이터를 이동 단말기(390)에 전송할 수 있다. 과금 데이터는, 사용자 정보, 과금의 원인 정보, 과금 요금 정보, 결제 수단 정보 중 적어도 어느 하나를 포함할 수 있다. 프로세서(717)는, 과금 데이터와 함께 과금의 기초가 되는 영상 데이터를 이동 단말기(390)에 전송할 수 있다. 이동 단말기(390)는, 과금 데이터에 기초하여, 과금 정보를 출력할 수 있다. 이동 단말기(390)는, 과금 데이터와 함께, 과금의 기초가 되는 영상 데이터를 출력할 수 있다. 이동 단말기(390)는, 과금 데이터에 기초하여, 결제를 진행할 수 있다.
프로세서(717)는, 사용자의 상품 구매시, 상품 구매 정보를 이동 단말기(390)에 전송할 수 있다. 프로세서(717)는, 제1 상품에 대한 제1 사용자의 선택 동작이 검출되는 경우, 제1 사용자의 제1 상품 선택 정보에 대응되는 신호를 제1 사용자의 이동 단말기(390)에 전송할 수 있다. 이동 단말기(390)는, 제1 사용자의 제1 상품 선택 정보를 출력할 수 있다. 프로세서(717)는, 제1 상품에 대한 제1 사용자의 개봉 동작이 검출되는 경우, 제1 사용자의 제1 상품 구매 정보에 대응되는 신호를 제1 사용자의 이동 단말기(390)에 전송할 수 있다. 이동 단말기(390)는, 제1 사용자의 제1 상품 구매 정보를 출력할 수 있다.
도 46은 본 발명의 실시예에 결제를 진행하는 동작을 설명하는데 참조되는 도면이다.
도 46을 참조하면, 페이먼트 시스템(700)은, 결제 서버(391)를 더 포함할 수 있다.
프로세서(717)는, 인터페이스부(716) 밍 통신 장치(300)를 통해, 결제 서버(391)와 신호를 교환할 수 있다. 프로세서(717)는, 과금 데이터를 결제 서버(391)에 전송할 수 있다. 결제 서버(391)는, 과금 데이터에 기초하여, 결제를 진행할 수 있다.
도 47은 본 발명의 실시예에 따른 카고 시스템의 제어 블럭도이다.
도 47을 참조하면, 카고 시스템(500)은, 입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(490), 시트 시스템(600), 페이먼트 시스템(700) 및 상품 제공 장치(510)를 포함할 수 있다. 실시예에 따라, 카고 시스템(500)은, 상기 나열된 구성 요소 중 일부를 생략하거나 다른 구성 요소를 더 포함할 수 있다.
입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(490), 시트 시스템(600) 및 페이먼트 시스템(700)은 도 1 내지 도 47을 참조하여 설명한 내용이 적용될 수 있다.
상품 제공 장치(510)는, 차량(10)의 적어도 일부분에 장착될 수 있다. 상품 제공 장치(510)는, 차량용 상품 제공 장치(510)로 명명될 수 있다. 상품 제공 장치(510)는 캐빈 내부의 사용자에게 상품을 제공할 수 있다. 이를 위해, 상품 제공 장치(510)는, 적어도 하나의 박스(530), 적어도 하나의 인터페이스부(516), 적어도 하나의 프로세서(517), 적어도 하나의 메모리(518), 전원 공급부(519) 및 무빙 메카니즘(520)을 포함할 수 있다. 실시예에 따라, 상품 제공 장치(510)는, 발광 장치(525) 및 냉장 장치(527)를 개별적으로 또는 조합하여 더 포함할 수 있다.
박스(530)는 복수의 상품이 내재된 상태로 시트의 적어도 일부분에서 출납 가능하게 형성될 수 있다. 박스(530)는, 복수의 시트의 하부 사이에 은닉될 수 있다. 예를 들면, 박스(530)는, 제1 시트의 하부와 제2 시트의 하부 사이에 은닉될 수 있다. 박스(530)의 적어도 일면은 투명 재질로 형성될 수 있다. 박스(530)는 도 49 이하를 참조하여 상세하게 설명한다.
인터페이스부(516)는, 차량(10)에 장착된 적어도 하나의 전자 장치와 신호를 교환할 수 있다. 인터페이스부(516)는, 캐빈 시스템(100) 내에 구비되는 적어도 하나의 전자 장치와 무선 또는 유선으로 신호를 교환할 수 있다. 인터페이스부(516)는, 입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 시스템(400), 음향 출력부(490), 시트 시스템(600) 및 페이먼트 시스템(700) 중 적어도 어느 하나와 신호를 교환할 수 있다. 인터페이스부(516)는, 프로세서(517)와 전기적으로 연결되어, 수신되는 신호를 프로세서(517)에 제공할 수 있다. 인터페이스부(516)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(516)는, 입력 장치(200), 영상 장치(250) 및 통신 장치(300) 중 적어도 어느 하나로부터, 사용자 입력이 전환된 신호를 수신할 수 있다. 인터페이스부(516)는, 차량(10)의 내비게이션 장치으로부터 사용자의 목적지 데이터를 수신할 수 있다. 인터페이스부(516)는, 내비게이션 장치로부터 차량(10)의 위치 데이터를 수신할 수 있다.
프로세서(517)는, 상품 제공 장치(510)의 각 유닛의 전반적인 동작을 제어할 수 있다. 프로세서(517)는, 인터페이스부(516), 메모리(518) 및 전원 공급부(519)와 전기적으로 연결될 수 있다. 프로세서(517)는, 메인 컨트롤러(170)를 구성하는 복수의 서브 컨트롤러 중 하나로 설명될 수 있다. 프로세서(517)는, 전원 공급부(519)로부터 제공되는 전원에 의해 구동될 수 있다.
프로세서(517)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(517)는, 사용자 입력에 기초한 신호를 수신할 수 있다. 프로세서(517)는, 입력 장치(200), 영상 장치(250) 및 통신 장치(300) 중 적어도 어느 하나로부터, 사용자 입력에 기초한 신호를 수신할 수 있다. 프로세서(517)는, 박스(530) 중 적어도 일면에 구비된 버튼으로부터 사용자 입력에 기초한 신호를 수신할 수 있다.
프로세서(517)는, 사용자 입력에 기초한 신호가 수신되는 경우, 복수의 상품 중 적어도 하나가 캐빈 내로 노출되도록 제어 신호를 제공할 수 있다. 프로세서(517)는, 차량에 장착된 적어도 하나의 전자 장치로부터 신호가 수신되는 경우, 제어 신호를 제공할 수 있다. 예를 들면, 프로세서(517)는, 시트와 일체화되어 은닉된 상태의 박스의 적어도 일부분이 캐빈 내로 노출되도록 제어 신호를 제공할 수 있다. 프로세서(517)는, 박스의 무빙을 위해 무빙 메카니즘(520)에 제어 신호를 제공할 수 있다. 무빙 메카니즘(520)은, 제어 신호에 따라 박스를 이동시킬 수 있다.
프로세서(517)는, 무빙 메카니즘(520)에 제어 신호를 제공할 수 있다. 프로세서(517)는, 제1 조건에 따라, 캐빈 내로 나온 박스(530)를 은닉시키기 위한 제어 신호를 무빙 메카니즘(520)에 제공할 수 있다. 제1 조건은, 기 설정 시간 이상 사용자의 상품의 선택 동작이 감지되지 않는 조건일 수 있다. 프로세서(517)는, 내부 카메라(251)의 영상 데이터에서 검출된 사용자 모션 데이터에 따라 제1 조건만족 여부를 판단할 수 있다.
프로세서(517)는, 제2 조건에 따라, 적어도 시트 내부로 들어간 박스(530)를 다시 캐빈 내로 나오게 하기 위한 제어 신호를 제공할 수 있다. 제2 조건은, 박스(530)로의 사용자 접근 감지 또는 박스에 대한 터치 감지 조건일 수 있다. 프로세서(517)는, 내부 카메라(251)의 영상 데이터에서 검출된 사용자 모션 데이터에 따라 제2 조건 만족 여부를 판단할 수 있다. 프로세서(517)는 박스(530)의 적어도 일면에 구비된 터치 센서로부터 수신된 센싱 데이터에 따라 제2 조건 만족 여부를 판단할 수 있다.
프로세서(517)는, 슬라이딩 메카니즘(521)에 제어 신호를 제공할 수 있다. 슬라이딩 메카니즘(521)은, 제어 신호에 따라 박스(530)를 슬라이딩시킬 수 있다. 프로세서(517)는, 리프팅 메카니즘(522)에 제어 신호를 제공할 수 있다. 리프팅 메카니즘(522)은, 제어 신호에 따라 박스 내에 배치되는 선반을 리프팅시킬 수 있다. 박스(530)는, 적어도 하나의 선반을 포함할 수 있다. 박스(530)는, 제1 상품을 안치하는 제1 선반을 포함할 수 있다. 프로세서(517)는, 제1 상품에 대한 선택에 대응하는 신호가 수신되는 경우, 제1 선반을 리프팅시키기 위한 제어 신호를 리프팅 메카니즘(522)에 제공할 수 있다.
프로세서(517)는, 발광 장치(525)에 제어 신호를 제공할 수 있다. 복수의 상품은 제1 상품을 포함할 수 있다. 발광 장치(525)는 제1 상품의 적어도 일부를 둘러싸는 형상을 가지는 제1 광원을 포함할 수 있다. 프로세서(517)는, 제1 상품에 대한 선택에 대응하는 신호가 수신되는 경우, 제1 광원의 출력광의 색을 제1 색에서 제2 색으로 전환하기 위한 제어 신호를 발광 장치(525)에 제공할 수 있다.
박스(530)는, 복수개의 박스로 구성될 수 있다. 프로세서(517)는, 복수개의 박스가 차량(10)의 캐빈 밖의 공간에 은닉된 상태에서, 신호가 수신되는 경우, 복수개의 박스 중 신호에 대응하는 박스에 내재된 상품을 노출시키기 위한 제어 신호를 제공할 수 있다. 예를 들면, 프로세서(517)는, 차량(10)에 장착된 적어도 하나의 전자 장치로부터 사용자의 목적지 데이터가 포함된 신호를 수신할 수 있다. 프로세서(517)는, 복수개의 박스 중 목적지 데이터에 대응되는 박스에 내재된 상품을 노출시키기 위한 제어 신호를 제공할 수 있다.
프로세서(517)는, 냉장 장치(527)에 제어 신호를 제공할 수 있다. 프로세서(517)는, 인터페이스부(516)를 통해, 차량에 장착된 적어도 하나의 전자 장치로부터 차량(10)의 위치 데이터를 수신할 수 있다. 프로세서(517)는, 위치 데이터에 기초하여 냉장 장치의 구동을 제어할 수 있다. 예를 들면, 프로세서(517)는, 차량의 위치 데이터에 기초하여 연산된, 차량(10) 탑승 예정인 사용자 사이의 거리 데이터에 따라 냉장 장치의 구동을 제어할 수 있다. 프로세서(517)는, 차량(10)과 사용자 사이의 거리값이 작아질수록 냉장 성능이 높아지도록 제어 신호를 제공할 수 있다. 예를 들면, 차량(10)이 전기 자동차인 경우, 프로세서(517)는, 차량의 위치 데이터에 기초하여 연산된 차량(10)과 배터리 충전소 사이의 거리 데이터에 따라 냉장 장치의 구동을 제어할 수 있다. 프로세서(517)는, 배터리 잔량이 기준값 이하일 때, 차량(10)과 배터리 충전소 사이의 거리값이 기준값 이상인 경우, 냉장 성능을 낮출 수 있다.
메모리(518)는, 프로세서(517)와 전기적으로 연결된다. 메모리(518)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력 되는 데이터를 저장할 수 있다. 메모리(518)는, 프로세서(517)에서 처리된 데이터를 저장할 수 있다. 메모리(518)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(518)는 프로세서(517)의 처리 또는 제어를 위한 프로그램 등, 상품 제공 장치(510) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(518)는, 프로세서(517)와 일체형으로 구현될 수 있다. 메모리(518)는, 전원 공급부(519)로부터 공급되는 전원에 의해 구동될 수 있다.
전원 공급부(519)는, 상품 제공 장치(510)에 전원을 공급할 수 있다. 전원 공급부(519)는, 차량(10)에 포함된 파워 소스로부터 전원을 공급받아, 상품 제공 장치(510)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(519)는, 프로세서(517)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 예를 들면, 전원 공급부(519)는, SMPS(switched-mode power supply)로 구현될 수 있다.
상품 제공 장치(510)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 인터페이스부(516), 프로세서(517), 메모리(518) 및 전원 공급부(519)는, 적어도 하나의 인쇄 회로 기판에 실장될 수 있다.
무빙 메카니즘(520)은, 프로세서(517)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 무빙 메카니즘(520)은, 박스(530)의 은닉 공간에서부터 캐빈으로, 박스(530)를 이동시킬 수 있다. 무빙 메카니즘(520)은, 프로세서(517)부터의 제어 신호에 기초하여, 박스를 이동시킬 수 있다. 무빙 메카니즘(520)은, 구동력을 제공하는 구동부(예를 들면, 모터, 액추에이터, 솔레노이드), 구동력을 박스에 전달하는 구동력 전달부를 포함할 수 있다. 실시예에 따라, 무빙 메카니즘(520)은, 구동력을 박스의 무빙 동력으로 전환하는 동력 전환부를 더 포함할 수도 있다. 무빙 메카니즘(520)은, 프로세서(517)로부터의 제어 신호에 기초하여, 캐빈 내로 나온 박스(530)를 시트로 은닉시킬 수 있다. 무빙 메카니즘(520)은, 프로세서(517)로부터의 제어 신호에 기초하여, 시트 내부로 들어간 박스(530)를 다시 캐빈 내로 노출시킬 수 있다. 무빙 메카니즘(520)은, 슬라이딩 메카니즘(521) 및 리프팅 메카니즘(522)을 포함할 수 있다.
슬라이딩 메카니즘(521)은, 프로세서(517)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 슬라이딩 메카니즘(521)은, 박스(530)를 슬라이딩시킬 수 있다. 슬라이딩 메카니즘(521)은, 시트 내부의 은닉 공간에서부터 캐빈으로 박스(530)를 슬라이딩 시킬 수 있다.
리프팅 메카니즘(522)은, 프로세서(517)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 리프팅 메카니즘(522)은, 박스(530)에 배치되는 선반을 리프팅시킬 수 있다. 리프팅 메카니즘(522)은, 박스(530)에 상품별로 배치되는 복수의 선반을 각각 리프팅시킬 수 있다.
발광 장치(525)는, 프로세서(517)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 발광 장치(525)는, 박스(530) 내에 배치될 수 있다. 발광 장치(525)는, 복수의 상품별로 각각 대응되게 배치되는 복수의 광원을 포함할 수 있다. 발광 장치(525)는, 복수의 상품 중 어느 하나에 대한 선택에 대응하는 신호에 따라 복수의 광원 중 어느 하나의 출력광을 변경시킬 수 있다.
냉장 장치(527)는, 프로세서(517)로부터 수신되는 제어 신호에 따라 동작될 수 있다. 냉장 장치(527)는, 박스(530) 내부의 열을 흡수할 수 있다. 예를 들면, 냉장 장치(527)는, 차량(10)과 사용자 사이의 거리값이 작아질수록 냉장 성능이 높아지도록, 프로세서(517)의 제어 신호에 따라, 박스(530) 내부의 열을 흡수할 수 있다. 예를 들면, 차량(10)이 전기 자동차인 경우, 냉장 장치(527)는, 배터리 잔량이 기준값 이하인 상태에서, 차량(10)과 배터리 충전소 사이의 거리값이 기준값 이상인 경우, 냉장 성능이 낮아지도록, 프로세서(517)의 제어 신호에 따라, 박스(530) 내부의 열을 흡수할 수 있다.
도 48는 본 발명의 실시예에 따른 카고 시스템의 동작을 설명하는데 참조되는 플로우 차트이다.
도 48를 참조하면, 디스플레이 시스템(400) 화면에서 카고 메뉴에 진입 하여(S1210), 상품을 선택하는 사용자 입력이 수신되는 경우(S1225), 프로세서(517)는, 트렁크 내에 위치하는 복수의 박스 중 선택된 상품이 내재된 박스를 선택할 수 있다(S1230).
디스플레이 시스템(400) 화면에서 카고 메뉴 진입이 없더라도, 카고 버튼이 입력되는 경우(S1215), 프로세서(517)는, 박스를 선택할 수 있다(S1220). 프로세서(517)는, 기본 패키지 상품이 담긴 박스 또는 추천 패키지 상품이 담긴 박스를 선택할 수 있다. 한편, 카고 버튼은, 박스의 적어도 일 영역에 배치되어 박스의 출납 신호를 생성하는 버튼으로 이해될 수 있다.
프로세서(517)는, 박스(530)가 오픈되도록 무빙 메카니즘(520)에 제어 신호를 제공할 수 있다(S1235). 무빙 메카니즘(520)은 박스를 오픈시키기 위해, 박스를 이동시킬 수 있다.
박스(530)가 오픈된 상태에서, 카고 버튼이 입력되는 경우(S1240), 프로세서(517)는, 박스를 은닉시키고(S1285), 디스플레이 시스템(400)의 디스플레이 화면을 이전 화면으로 복귀시킬 수 있다(S1290).
프로세서(517)는, 복수의 상품 중 제1 상품이 선택되는지 판단할 수 있다(S1245). 예를 들면, 프로세서(517)는, 내부 카메라(512)의 영상 데이터에 기초하여, 제1 상품이 선택되는지 판단할 수 있다. 예를 들면, 프로세서(517)는, 박스에 구비되는 무게 센서에서 생성되는 센싱 데이터에 기초하여, 제1 상품이 선택되는지 판단할 수 있다. 제1 상품이 선택되는 경우, 프로세서(517)는, 영상 데이터 및 센싱 데이터 중 적어도 어느 하나에 기초하여, 선택된 제1 상품의 위치를 파악할 수 있다(S1250).
프로세서(517)는, 제1 상품에 대응되는 제1 광원의 출력광을 색을 제1 색에서 제2 색으로 변환시킬 수 있다(S1255).
페이먼트 시스템(700) 또는 프로세서(517)는, 내부 카메라(251)의 영상 데이터에 기초하여 제1 상품을 선택한 제1 사용자를 특정하고, 제1 상품의 개봉 모션을 검출할 수 있다. 이경우, 페이먼트 시스템(700) 또는 프로세서(517)는, 제1 상품의 제1 사용자에 대한 과금 데이터를 생성할 수 있다(S1260). 프로세서(517)가 제1 사용자를 특정하고, 제1 상품의 개봉 모션을 검출하여 과금 데이터를 생성하는 경우, 프로세서(517)는 과금 데이터를 페이먼트 시스템(700)에 전송할 수 있다.
페이먼트 시스템(700) 또는 프로세서(517)는, 제1 사용자의 이동 단말기(390)로 과금 데이터가 포함된 신호를 전송할 수 있다(S1265).
프로세서(517)는, 제1 상품이 복귀하는지 판단할 수 있다(S1270). 예를 들면, 프로세서(517)는, 내부 카메라(251)의 영상 데이터 및 무게 센서의 센싱 데이터 중 적어도 어느 하나에 기초하여, 제1 상품이 복귀하는지 판단할 수 있다.
제1 상품이 복귀되는 경우, 프로세서(517)는, 제1 광원의 출력광의 색을 제2 색에서 제1 색으로 변환시킬 수 있다. 프로세서(517)는, 과금 과정을 취소할 수 있다(S1275).
프로세서(517)는, 박스(530)가 시트로 은닉되도록 무빙 메카니즘(520)에 제어 신호를 제공할 수 있다(S1280).
도 49은 본 발명의 실시예에 따른 캐빈을 간략하게 그린 도면이다. 도 50는 본 발명의 실시예에 따른 박스를 예시한다.
도 49 내지 도 50를 참조하면, 상품 제공 장치(510)는, 적어도 하나의 박스(530)를 포함할 수 있다. 박스(530)는, 카고 박스(cargo box)로 명명될 수 있다.
박스(530)는, 복수의 상품이 내재된 상태로 시트(611, 612)의 적어도 일부분에서 출납가능하게 형성될 수 있다. 박스(530)는, 무빙 메카니즘(520)에서 제공되는 힘에 의해 시트 내부에서 캐빈 내부로 또는 캐빈 내부에서 시트 내부로 이동될 수 있다. 박스(530)는, 무빙 메카니즘(520)에서 제공되는 힘에 의해 캐빈 내로 노출될 수 있다. 박스(530)는, 무빙 메카니즘(520)에서 제공되는 힘에 의해 시트(611, 612) 내부로 은닉될 수 있다. 시트(611, 612) 내부에는 박스(530)를 수용할 수 있는 공간이 형성될 수 있다.
박스(530)는, 적어도 하나의 시트 내부 공간에 은닉될 수 있다. 박스(530)는, 복수의 시트 하부 사이 공간에 은닉될 수 있다. 박스(530)는, 제1 시트(611)의 하부 및 제2 시트(612)의 하부 사이에 은닉될 수 있다. 박스(530)가 은닉된 상태에서, 박스(530)는, 시트와 일체화될 수 있다. 박스(530)의 적어도 일면(예를 들면, 캐빈 내부를 향해 노출되는 면)은, 시트와 같은 색의 재질로 형성될 수 있다.
박스(530)의 적어도 일면은 투명 재질로 형성될 수 있다. 예를 들면, 박스(530)를 정의하는 복수의 면 중 캐빈 내부를 향해 노출되는 면은 투명 재질로 형성될 수 있다.
박스(530)의 적어도 일면에는 버튼(549)이 배치될 수 있다. 예를 들면, 박스(530)를 정의하는 복수의 면 중 캐빈 내부를 향해 노출되는 면에는 버튼(549)이 배치될 수 있다. 버튼(549)은, 사용자 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(517)에 전송될 수 있다. 프로세서(517)는, 버튼(549)에서 수신되는 전기적 신호에 따라 박스를 오픈하거나 클로즈할 수 있다.
박스(530)는 복수의 상품(541b, 547b)이 내재될 수 있다. 상품은, 음료, 스낵, 파스타, 햄버거 등 간단한 음식이거나, 상품은, 골프공, 골프 장갑 등 레저용 물품일 수 있다. 상품에는 한정을 두지 않는다.
박스(530)는 복수의 포켓(541, 547)을 포함할 수 있다. 복수의 포켓(541, 547) 각각에 복수의 상품이 안치될 수 있다. 복수의 포켓(541, 547)의 측면부는 변형 가능한 재질로 형성될 수 있다. 복수의 포켓(541, 547)의 하부에는 상품의 존재 여부를 감지하는 센서(예를 들면, 무게 센서)가 배치될 수 있다. 복수의 포켓(541, 547)의 하단은 선반과 접촉될 수 있다. 선반이 리프팅 메카니즘(522)에 의해 상승되는 경우, 복수의 포켓(541, 547)의 측면부가 압축되면서 상품(541b, 547b)의 적어도 일부가 캐빈 내부로 노출될 수 있다. 복수의 포켓(541, 547) 각각의 개구부 주변에는 복수의 광원이 각각 배치될 수 있다. 광원(541a, 547a)은, 포켓의 개구부 형상을 따라 개구부 가장자리를 둘러싸는 형상을 가질 수 있다. 광원(541a, 547a)은, 상술한 발광 장치(525)의 하위 구성으로, 프로세서(517)의 제어에 따라 제어될 수 있다. 복수의 상품(541b, 547b) 중 어느 하나가 선택되는 경우, 선택된 상품을 수용하는 포켓(541, 547) 주변의 광원(541a, 547a)의 출력광이 변할 수 있다.
박스(530)는, 제1 포켓(541)를 포함할 수 있다. 제1 포켓(541)에는 제1 상품(541b)이 안치될 수 있다. 제1 포켓(541)의 측면부는 변형 가능한 재질로 형성될 수 있다. 제1 포켓(541)의 하부에는 제1 상품(541b)의 존재 여부를 감지하는 센서가 배치될 수 있다. 제1 포켓(541)의 하단은 선반과 접촉될 수 있다. 선반이 리프팅 메카니즘(522)에 의해 상승되는 경우, 제1 포켓(541)의 측면부가 압축되면서 제1 상품(541b)의 적어도 일부가 캐빈 내부로 노출될 수 있다. 제1 포켓(541)의 개구부 주변에는 제1 광원(541a)이 배치될 수 있다. 제1 광원(541a)은, 제1 포켓(541)의 개구부 형상을 따라 개구부 가장자리를 둘러싸는 형상을 가질 수 있다. 제1 상품(541b)이 선택되는 경우, 제1 상품(541b)을 수용하는 제1 포켓(541) 주변의 제1 광원(541a)의 출력광의 색이 제1 색에서 제2 색으로 변경될 수 있다.
도 51 내지 도 52은 본 발명의 실시예에 따른 무빙 메카니즘을 설명하는데 참조되는 도면이다.
도 51를 참조하면, 무빙 메카니즘(520)은, 슬라이딩 메카니즘(521) 및 리프팅 메카니즘(522)을 포함할 수 있다. 슬라이딩 메카니즘(521)은, 구동부, 동력 전환부 및 구동력 전달부를 포함할 수 있다. 구동부는 전기 에너지를 운동 에너지로 전환할 수 있다. 구동부는, 구동력을 생성할 수 있다. 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 박스(530)를 움직이기에 적합한 동력으로 전환할 수 있다. 예를 들면, 동력 전환부는, 회전 운동의 동력을 직선 운동의 동력으로 전환할 수 있다. 구동력 전달부는, 전환된 동력을 박스(530)에 제공할 수 있다. 슬라이딩 메카니즘(521)은, 레일를 더 포함할 수 있다. 박스(530)는, 구동력 전달부에 의해 전달되는 동력에 기초하여, 레일을 매개로 슬라이딩 운동할 수 있다.
리프팅 메카니즘(522)은, 구동부, 동력 전환부, 구동력 전달부를 포함할 수 있다. 구동부는 전기 에너지를 운동 에너지로 전환할 수 있다. 구동부는, 구동력을 생성할 수 있다. 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 선반(531)를 움직이기에 적합한 동력으로 전환할 수 있다. 예를 들면, 동력 전환부는, 회전 운동의 동력을 직선 운동의 동력으로 전환할 수 있다. 구동력 전달부는, 전환된 동력을 선반(531)에 제공할 수 있다. 선반(531)은, 구동력 전달부에 의해 전달되는 동력에 기초하여, 리프팅 운동할 수 있다.
한편, 선반(531)은, 박스(530)의 하위 구성으로 분류될 수 있다. 선반(531)은, 적어도 하나의 상품(501, 502, 503, 504)을 안치할 수 있다. 도 51에 예시된 바와 같이, 선반(531)은 일체형으로 형성될 수 있다. 선반(531)이 일체형으로 형성된 경우, 리프팅 메카니즘(522)에 의해 제공된 동력에 의해 복수의 상품(501, 502, 503, 504)이 함께, 캐빈 내부로 노출될 수 있다. 도 52에 예시된 바와 같이, 선반(531a)은 분리형으로 형성될 수 있다. 선반(531)은, 복수의 상품(501, 502, 503, 504)을 각각 안치할 수 있다. 예를 들면, 선반(531)은 복수의 선반(531a, 531b, 531c, 531d)으로 구성될 수 있다. 제1 선반(531a)은, 제1 상품(501)을 안치하고, 제2 선반(531b)은, 제2 상품(502)을 안치할 수 있다. 복수의 선반(531a, 531b, 531c, 531d) 각각은 개별적으로 리프팅 운동할 수 있다. 예를 들면, 제1 상품(501)을 선택하기 위한 신호에 기초하여, 리프팅 메카니즘(522)에 의해 제공된 동력에 따라 제1 선반(531a)이 리프팅 운동할 수 있다. 이경우, 제1 상품(501)만 캐빈 내부로 노출될 수 있다.
도 53은 본 발명의 실시예에 따라 사용자 입력에 따라 상품이 노출되는 동작을 설명하는데 참조되는 도면이다.
도 53을 참조하면, 입력 장치(200)는, 사용자 입력을 수신하여 제1 전기적 신호로 전환 할 수 있다. 터치 입력부(210)에 포함된 터치 센서는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 제스쳐 입력부(220)에 포함된 제스쳐 센서(221)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 기계식 입력부(230)에 포함된 조그 다이얼(231)은, 사용자의 기계적 입력을 전기적 신호로 전환할 수 있다. 음성 입력부(240)에 포함된 마이크(241)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다.
디스플레이 시스템(400)은, 적어도 하나의 디스플레이에, 입력 장치(200)에 의해 전환된 전기적 신호에 기초하여, 상품 메뉴를 표시할 수 있다. 디스플레이에 상품 메뉴가 표시된 상태에서, 입력 장치(200)는, 상품을 선택하는 사용자 입력을 수신할 수 있다. 입력 장치(200)는, 제1 상품을 선택하는 사용자 입력을 제2 전기적 신호로 전환할 수 있다.
프로세서(517)는, 제2 전기적 신호에 기초하여, 박스를 캐빈 내부로 이동 시키도록 슬라이딩 메카니즘(521)을 제어할 수 있다. 프로세서(517)는, 제2 전기적 신호에 기초하여, 제1 상품이 캐빈 내부로 노출될 수 있도록 리프팅 메카니즘(522)을 제어할 수 있다.
한편, 카고 버튼(549)은 사용자 입력을 전기적 신호로 전환할 수 있다. 프로세서(517)는, 전기적 신호에 기초하여, 박스를 캐빈 내부로 이동 시키도록 슬라이딩 메카니즘(521)을 제어할 수 있다. 프로세서(517)는, 전기적 신호에 기초하여, 복수의 상품이 캐빈 내로 노출될 수 있도록 리프팅 메카니즘(522)을 제어할 수 있다.
도 54은 본 발명의 실시예에 따라 복수의 박스 중 선택된 박스만 오픈되는 동작을 설명하는데 참조되는 도면이다.
도 54을 참조하면, 상품 제공 장치(510)는, 복수의 박스(531, 532, 533, 534)를 포함할 수 있다. 복수의 박스(531, 532, 533, 534)는, 캐빈 밖의 공간에 위치할 수 있다. 예를 들면, 복수의 박스(531, 532, 533, 534)는, 트렁크에 위치할 수 있다. 한편, 캐빈 내부는, 트렁크와 연통되어, 복수의 박스(531, 532, 533, 534)는, 트렁크에서 캐빈 내부로 이동하거나 캐빈 내부에서 트렁크로 이동할 수 있다. 트렁크에는, 복수의 박스(531, 532, 533, 534)를 순환 시킬 수 있는 메카니즘이 구비될 수 있다.
소정 조건에 따라 제1 박스(531)가 선택될 수 있다. 예를 들면, 디폴트로 제1 박스(531)가 선택될 수 있다. 예를 들면, 사용자 입력에 따라 복수의 박스 중 제1 박스(531)가 선택될 수 있다. 예를 들면, 복수의 사용자 선호도 데이터에 따라 제1 박스(531)가 선택될 수 있다. 예를 들면, 사용자 상품 구매 이력 데이터에 따라 복수의 박스 중 제1 박스(531)가 선택될 수 있다. 예를 들면, 사용자 목적지 데이터에 따라 복수의 박스 중 제1 박스(531)가 선택될 수 있다. 선택된 제1 박스(531)는, 무빙 메카니즘(520)에 의해 트렁크에서 캐빈 내부로 이동할 수 있다.
도 55은 본 발명의 실시예에 따른 디스플레이 시스템의 제어 블럭도이다.
도 55을 참조하면, 디스플레이 시스템(101)은, 인터페이스부(406), 프로세서(407), 메모리(408), 전원 공급부(409), 디스플레이 장치(410) 및 음향 출력부(490)를 포함할 수 있다. 실시예에 따라, 디스플레이 시스템(101)은, 입력 장치(200), 영상 장치(250) 및 통신 장치(300)를 개별적으로 또는 조합하여 더 포함할 수 있다.
입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 장치(410) 및 음향 출력부(490)는 도 1 내지 도 55을 참조하여 설명한 내용이 적용될 수 있다. 이하에서는, 도 1 내지 도 55에서 설명되지 않은 내용을 중심으로 설명한다.
입력 장치(200)는, 디스플레이 장치(410) 조작을 위한 사용자 입력을 수신하여 전기적 신호로 전환할 수 있다. 영상 장치(250)는 사용자의 모션을 검출하기 위한 영상을 획득할 수 있다. 통신 장치(300)는, 외부 서버, 이동 단말기 및 타 차량 중 적어도 어느 하나로부터 디스플레이 장치(410) 및 음향 출력부(490)를 통해 출력할 컨텐츠를 수신할 수 있다. 도 55에는 입력 장치(200), 영상 장치(250) 및 통신 장치(300)가 프로세서(407)와 직접 신호를 교환하는 것으로 예시되나, 이와 다르게 입력 장치(200), 영상 장치(250) 및 통신 장치(300)는 인터페이스부(406)를 매개로 프로세서(407)와 신호를 교환할 수 있다.
디스플레이 시스템(101)은, 차량(10)에 장착될 수 있다. 디스플레이 시스템(101)은 차량용 디스플레이 시스템으로 명명될 수 있다. 디스플레이 시스템(101)은, 캐빈 내부의 사용자에게 메뉴, 멀티미디어 컨텐츠, 화상 회의, 주행 상황 정보 등을 제공할 수 있다.
인터페이스부(406)는, 차량(10)에 장착된 적어도 하나의 전자 장치와 신호를 교환할 수 있다. 인터페이스부(406)는, 캐빈 시스템(100) 내에 구비되는 적어도 하나의 전자 장치와 무선 또는 유선으로 신호를 교환할 수 있다. 인터페이스부(406)는, 입력 장치(200), 영상 장치(250), 통신 장치(300), 카고 시스템(500), 시트 시스템(600) 및 페이먼트 시스템(700) 중 적어도 어느 하나와 신호를 교환할 수 있다. 인터페이스부(406)는, 프로세서(407)와 전기적으로 연결되어, 수신되는 신호를 프로세서(407)에 제공할 수 있다. 인터페이스부(406)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(406)는, 입력 장치(200), 영상 장치(250) 및 통신 장치(300) 중 적어도 어느 하나와 신호를 교환할 수 있다. 인터페이스부(406)는, 내부 카메라(251)와 신호를 교환할 수 있다. 인터페이스부(406)는, 내부 카메라(251)로부터 영상 데이터를 수신할 수 있다.
프로세서(407)는, 디스플레이 시스템(400)의 각 유닛의 전반적인 동작을 제어할 수 있다. 프로세서(407)는, 인터페이스부(406), 메모리(408) 및 전원 공급부(409)와 전기적으로 연결될 수 있다. 프로세서(407)는, 메인 컨트롤러(170)를 구성하는 복수의 서브 컨트롤러 중 하나로 설명될 수 있다. 프로세서(407)는, 전원 공급부(409)로부터 제공되는 전원에 의해 구동될 수 있다.
프로세서(407)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(407)는, 사용자 입력에 기초한 신호를 수신할 수 있다. 프로세서(407)는, 입력 장치(200), 영상 장치(250) 및 통신 장치(300) 중 적어도 어느 하나로부터, 사용자 입력에 기초한 신호를 수신할 수 있다. 프로세서(407)는, 디스플레이 장치(410) 및 음향 출력부(490) 중 적어도 하나에 제어 신호를 제공할 수 있다.
프로세서(407)는, 사용자의 시팅 포지션 데이터를 획득할 수 있다. 프로세서(407)는, 차량에 장착된 적어도 하나의 전자 장치로부터 시팅 포지션 데이터를 수신할 수 있다. 예를 들면, 프로세서(407)는, 시트 시스템(600)으로부터 사용자의 시팅 포지션 데이터를 수신할 수 있다. 시트 시스템(600)은 시팅 포지션 센서를 포함할 수 있다. 프로세서(407)는, 시팅 포지션 센서에 의해 생성된 센싱 데이터를 수신할 수 있다. 예를 들면, 프로세서(407)는, 영상 장치(250)로부터 시팅 포지션 데이터를 수신할 수 있다. 프로세서(407)는, 내부 카메라(251)의 영상 데이터에 기초하여 영상 처리에 의해 검출된 시팅 포지션 데이터를 수신할 수 있다.
프로세서(407)는, 사용자의 시팅 포지션 데이터에 기초하여, 디스플레이(411, 412, 413)의 시청 각도를 조절하기 위한 제어 신호를 제공할 수 있다. 프로세서(407)는, 시팅 포지션에 대응되게 디스플레이(411, 412, 413)의 시청 각도를 조절하기 위한 제어 신호를 제공할 수 있다. 프로세서(407)는, 제어 신호를 제1 디스플레이(411), 제2 디스플레이(412) 및 제3 디스플레이(413) 중 적어도 어느 하나에 제공할 수 있다. 프로세서(407)는, 제어 신호를 제1 메카니즘(416), 제2 메카니즘(417) 및 제3 메카니즘(418) 중 적어도 어느 하나에 제공할 수 있다.
프로세서(407)는, 인터페이스부(406)를 통해, 시트 시스템(600)으로부터 시트 변경 데이터를 수신할 수 있다. 이 경우, 프로세서(407)는, 인터페이스부(406)를 통해, 내부 카메라(251)로부터 사용자의 시선 데이터를 수신할 수 있다. 프로세서(407)는, 사용자의 시선 데이터에 기초하여, 디스플레이(411, 412, 413)의 시청 각도를 조절하기 위한 제어 신호를 제공할 수 있다.
프로세서(407)는, 사용자의 시팅 포지션에 대응하여 디스플레이(411, 412, 413)의 자세를 조절하기 위한 제어 신호를 제공할 수 있다. 프로세서(407)는, 사용자의 시팅 포지션에 대응하여 제1 디스플레이(411)가 상승하거나 하강하도록 제1 메카니즘(416)에 제어 신호를 제공할 수 있다. 제1 메카니즘(416)은, 제어 신호에 기초하여 제1 디스플레이(411)를 상승시키거나 하강시킬 수 있다. 프로세서(407)는, 사용자의 시팅 포지션에 대응하여 제2 디스플레이(412)가 롤 업(roll up)되거나 롤 다운(roll down)되도록 제2 메카니즘(417)에 제어 신호를 제공할 수 있다. 제2 메카니즘(417)은, 제어 신호에 기초하여 제2 디스플레이(412)를 롤 업시키거나 롤 다운 시킬 수 있다. 프로세서(407)는, 사용자의 시팅 포지션에 대응하여 제3 디스플레이(413)의 곡률이 변경되도록 제3 메카니즘(418)에 제어 신호를 제공할 수 있다. 제3 메카니즘(418)은, 제어 신호에 기초하여 제3 디스플레이(413)의 곡률을 변경시킬 수 있다.
프로세서(407)는, 사용자의 시팅 포지션에 대응하여 디스플레이(411, 412, 413)에서의 표시 영역의 위치를 변경하는 제어 신호를 디스플레이 장치(410)에 제공할 수 있다. 디스플레이 장치(410)는, 제어 신호에 기초하여 디스플레이(411, 412, 413)의 표시 영역의 위치를 위쪽 방향 및 아래쪽 방향 중 적어도 어느 하나의 방향으로 변경할 수 있다.
프로세서(407)는, 차량(10)에 장착된 적어도 하나의 전자 장치로부터 수신되는 데이터에 기초하여, 디스플레이(411, 412, 413)의 시청 각도를 조절하기 위한 제어 신호를 제공할 수 있다.
예를 들면, 프로세서(407)는, 내부 카메라(251)로부터 사용자 이미지가 포함된 영상 데이터를 수신할 수 있다. 프로세서(407)는, 영상 데이터에서 사용자의 시선 및 사용자의 손가락을 검출할 수 있다. 프로세서(407)는, 사용자의 시선과 사용자의 손가락을 연장한 가상의 연장선이 디스플레이(411, 412, 413)가 위치할 수 있는 공간과 만나는지 여부를 판단할 수 있다. 프로세서(407)는, 가상의 연장선이 디스플레이(411, 412, 413)가 위치할 수 있는 공간과 만나는 것으로 판단되는 경우, 사용자 제어 가능 알림 컨텐츠를 출력할 수 있다. 프로세서(407)는, 그래픽 객체를 표시하거나 음향 컨텐츠를 출력할 수 있다. 프로세서(407)는, 사용자 이미지에서 사용자의 손가락의 움직임을 트래킹할 수 있다. 프로세서(407)는, 트래킹되는 사용자의 손가락의 움직임에 따라 디스플레이의 시청 각도를 조절하기 위한 제어 신호를 제공할 수 있다. 이와 같은 제어를 통해, 사용자가 직관적으로 디스플레이 시청 각도를 조절할 수 있게 된다.
프로세서(407)는, 사용자의 시팅 포지션 데이터에 기초하여, 입력 장치(200)의 자세를 조절하기 위한 제어 신호를 제공할 수 있다. 프로세서(407)는, 사용자의 시팅 포지션에 대응되게 입력 장치(200)의 자세를 조절하는 제어 신호를 제공할 수 있다. 프로세서(407)는, 시팅 포지션에 대응하여 터치 입력부(210)의 틸팅 각도를 조절하는 제어 신호를 제공할 수 있다. 프로세서(407)는, 사용자의 시팅 포지션에 대응하여 조그 다이얼 장치가 상승하거나 하강하도록 조절하는 제어 신호를 제공할 수 있다. 프로세서(407)는, 사용자의 시팅 포지션이 낮아지는 경우, 조그 다이얼 장치의 윗면에 표시된 조작 가이드 이미지를 조그 다이얼 옆면에 표시하기 위한 제어 신호를 제공할 수 있다.
프로세서(407)는, 탑승한 사용자의 수에 대한 데이터를 수신할 수 있다. 프로세서(407)는, 차량(10)에 장착된 적어도 하나의 전자 장치로부터 탑승한 사용자의 수에 대한 데이터를 수신할 수 있다. 예를 들면, 프로세서(407)는, 시트 시스템(600)으로부터 탑승한 사용자의 수에 대한 데이터를 수신할 수 있다. 프로세서(407)는, 시트 시스템(600)에 포함된 착좌 센서에 기초한 탑승한 사용자의 수에 대한 데이터를 획득할 수 있다. 예를 들면, 프로세서(407)는, 영상 장치(300)로부터 탑승한 사용자의 수에 대한 데이터를 수신할 수 있다. 프로세서(407)는, 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나로부터 획득된 영상에 기초한 탑승한 사용자의 수에 대한 데이터를 획득할 수 있다.
프로세서(407)는, 탑승자 수에 대한 데이터에 기초하여 디스플레이(411, 412, 413)의 표시 영역을 구분하기 위한 제어 신호를 디스플레이 장치(410)에 제공할 수 있다. 프로세서(407)는, 탑승한 사용자의 수에 따라 디스플레이(411, 412, 413)의 표시 영역을 구분하기 위한 제어 신호를 디스플레이 장치(410)에 제공할 수 있다.
메모리(408)는, 프로세서(407)와 전기적으로 연결된다. 메모리(408)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력 되는 데이터를 저장할 수 있다. 메모리(408)는, 프로세서(407)에서 처리된 데이터를 저장할 수 있다. 메모리(408)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(408)는 프로세서(407)의 처리 또는 제어를 위한 프로그램 등, 디스플레이 시스템(400) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(408)는, 프로세서(407)와 일체형으로 구현될 수 있다. 메모리(408)는, 전원 공급부(409)로부터 공급되는 전원에 의해 구동될 수 있다.
전원 공급부(409)는, 디스플레이 시스템(400)에 전원을 공급할 수 있다. 전원 공급부(409)는, 차량(10)에 포함된 파워 소스로부터 전원을 공급받아, 디스플레이 시스템(400)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(409)는, 프로세서(407)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 예를 들면, 전원 공급부(409)는, SMPS(switched-mode power supply)로 구현될 수 있다.
디스플레이 시스템(400)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 인터페이스부(406), 프로세서(407), 메모리(408) 및 전원 공급부(409)는, 적어도 하나의 인쇄 회로 기판에 실장될 수 있다.
디스플레이 장치(410)는, 적어도 하나의 그래픽 객체를 표시할 수 있다. 디스플레이 장치(410)는, 그래픽 객체를 표시함으로써, 캐빈 내부의 사용자에게 메뉴, 멀티미디어 컨텐츠, 화상 회의, 주행 상황 정보 등을 제공할 수 있다. 디스플레이 장치(410)는, 도 1 내지 도 10을 참조하여 설명한 제1 디스플레이 장치(410)에 대한 설명이 적용될 수 있다.
디스플레이 장치(410)는, 적어도 하나의 디스플레이(411, 412, 413)를 포함할 수 있다. 도 55에는, 디스플레이 장치(410)가 4개의 디스플레이를 포함하는 것으로 예시하나, 개수에는 제한을 두지 않는다.
디스플레이 장치(410)는, 제1 디스플레이(411), 제1 메카니즘(416), 제2 디스플레이(412), 제2 메카니즘(417), 제3 디스플레이(413) 및 제3 메카니즘(418)을 모두 포함하거나 일부를 선택적으로 포함할 수 있다.
디스플레이 장치(410)는, 제1 디스플레이(411) 및 제1 메카니즘(416)을 선택적으로 포함할 수 있다. 제1 디스플레이(411)는, 시트 후방에 위치하고, 캐빈 내부로 출납 가능하게 형성될 수 있다. 제1 메카니즘(416)은 제1 디스플레이(411)를 이동시킬 수 있다.
디스플레이 장치(410)는, 제2 디스플레이(412) 및 제2 메카니즘(417)을 선택적으로 포함할 수 있다. 제2 디스플레이(412)는 캐빈 내부의 천장에 위치하고, 롤러블(rollable)하게 형성될 수 있다. 제2 메카니즘(417)은, 제2 디스플레이(412)를 감거나 풀수 있다.
디스플레이 장치(410)는, 제3 디스플레이(413) 및 제3 메카니즘(418)을 선택적으로 포함할 수 있다. 제3 디스플레이(413)는 캐빈 내부의 천장에 위치하고, 플렉서블(flexible)하게 형성될 수 있다. 제3 메카니즘(418)은, 제3 디스플레이(413)를 휘거나 펼 수 있다.
도 56는 본 발명의 실시예에 따른 사용자의 시팅 포지션을 예시한다.
도 56를 참조하면, 사용자의 시팅 포지션(441, 442)은, 시트 위에서의 사용자 자세로 정의될 수 있다.
시트 시스템(600)은, 시팅 포지션 센서에 기초하여 사용자의 시팅 포지션 데이터를 생성할 수 있다. 예를 들면, 시트 시스템(600)는, 시트의 등받이에 배치된 기울기 센서를 포함할 수 있다. 시트 시스템(600)은, 기울기 센서에 의해 생성된 센싱 데이터에 기초하여 사용자의 시팅 포지션 데이터를 생성할 수 있다.
영상 장치(250)는, 영상 처리에 기초하여 사용자의 시팅 포지션 데이터를 생성할 수 있다. 영상 장치(250)는, 영상 처리 알고리즘을 구현하기 위해 적어도 하나의 프로세서를 포함할 수 있다. 영상 장치(250)는, 내부 카메라(251)를 통해 사용자 영상을 획득할 수 있다. 예를 들면, 영상 장치(250)는, 사용자가 시트에 착좌한 상태에서 사용자의 머리 높이에 기초하여 시팅 포지션 데이터를 생성할 수 있다. 예를 들면, 영상 장치(250)는, 캐빈의 바닥면을 기준으로 하는 상체의 기울기 또는 하체의 기울기로 시팅 포지션 데이터를 생성할 수 있다.
한편, 사용자의 시팅 포지션은 제1 시팅 포지션(441) 및 제2 시팅 포지션(442)으로 구분될 수 있다. 제1 시팅 포지션(441)은 시트에 앉은 자세로 정의될 수 있고, 제2 시팅 포지션(442)은 시트에 누운 자세로 정의될 수 있다. 제1 시팅 포지션(441)은 제2 시팅 포지션(442)보다 상대적으로 높은 자세로 설명될 수 있고, 제2 시팅 포지션(442)은, 제1 시팅 포지션(441)보다 상대적으로 낮은 자세로 설명될 수 있다.
도 57은 본 발명의 실시예에 따른 디스플레이 시청 각도를 조절하기 위한 사용자 입력을 예시한다.
도 57을 참조하면, 지시부호 451에 예시된 바와 같이, 프로세서(407)는, 내부 카메라(251)로부터 사용자 이미지 가 포함된 영상 데이터를 수신할 수 있다. 지시부호 452에 예시된 바와 같이, 프로세서(407)는, 소정의 영상 처리 알고리즘을 통해, 영상 데이터에서 사용자의 시선 및 사용자의 손가락을 검출할 수 있다. 프로세서(407)는, 사용자의 시선과 사용자의 손가락을 연장한 가상의 선(452a)이 디스플레이(411)가 위치할 수 있는 공간(452b)과 만나는지 판단할 수 있다. 가상의 선(452a) 상에 디스플레이(411)가 위치하는 것으로 판단되는 경우, 프로세서(407)는, 사용자의 모션을 이용한 디스플레이 위치 제어가 가능함을 알리는 컨텐츠를 디스플레이 장치(410) 및 음향 출력부(490) 중 적어도 어느 하나를 통해 출력할 수 있다. 지시부호 453에 예시된 바와 같이, 프로세서(407)는, 사용자의 손가락의 움직임을 트래킹하고, 트래킹되는 손가락의 움직임에 따라 디스플레이(411)의 시청 각도를 조절하기 위한 제어 신호를 제공할 수 있다. 예를 들면, 위로 올라가는 손가락이 트래킹되는 경우, 프로세서(407)는, 제1 디스플레이(411)가 위로 올라가도록 제어 신호를 제공할 수 있다. 예를 들면, 아래로 내려가는 손가락이 트래킹되는 경우, 프로세서(407)는, 제1 디스플레이(411)가 아래로 내려가도록 제어 신호를 제공할 수 있다. 지시부호 454에 예시된 바와 같이, 사용자가 팔을 내려 디스플레이(411)를 향하는 손가락이 검출되지 않는 경우, 프로세서(407)는, 디스플레이 제어 과정을 종료할 수 있다.
도 58 내지 도 59는 본 발명의 실시예에 따른 제1 디스플레이의 물리적인 시청 각도 조절 동작을 예시한다.
도면을 참조하면, 제1 디스플레이(411)는, 적어도 하나의 시트(611, 612) 후방에 위치할 수 있다. 예를 들면, 제1 디스플레이(411)는, 제1 시트 및 제2 시트(611, 612)의 후방에 위치할 수 있다. 이경우, 제1 디스플레이(411)는, 제3 시트 및 제4 시트와 마주볼 수 있다. 제3 시트 또는 제4 시트에 착좌하는 사용자는 제1 디스플레이(411)에서 표시되는 컨텐츠를 시청할 수 있다. 예를 들면, 제1 디스플레이(411)는, 제3 시트 및 제4 시트의 후방에 위치할 수 있다. 이경우, 제1 디스플레이(411)는, 제1 시트(611) 및 제2 시트(612)와 마주볼 수 있다. 제1 시트(611) 또는 제2 시트(612)에 착좌하는 사용자 제1 디스플레이(411)에서 표시되는 컨텐츠를 시청할 수 있다.
제1 디스플레이(411)는, 캐빈 내부로 출납 가능하게 형성될 수 있다. 제1 디스플레이(411)는, 시트 프레임에 형성된 슬롯에 배치될 수 있다. 제1 디스플레이(411)는, 제1 메카니즘에 의해 슬롯으로부터 캐빈 내부로 나오거나 캐빈 내부에서 슬롯으로 들어갈 수 있다. 제1 메카니즘은 제1 디스플레이(411)의 적어도 일부를 슬롯에서 캐빈 내부로 나오게 하거나, 제1 디스플레이(411)의 적어도 일부를 캐빈 내부에서 슬롯으로 들어가게 할 수 있다.
제1 메카니즘(416)은 제1 디스플레이(411)를 물리적으로 움직여 시청 각도를 조절할 수 있다. 제1 메카니즘(416)은 프로세서(407)의 제어 신호에 기초하여 동작될 수 있다. 제1 메카니즘(416)은 구동부, 동력 전환부, 동력 전달부를 포함할 수 있다. 구동부는, 구동력을 생성할 수 있다. 예를 들면, 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 제1 디스플레이(411) 이동에 적합한 동력으로 전환할 수 있다. 동력 전달부는, 전환된 동력을 제1 디스플레이(411)에 전달할 수 있다.
프로세서(407)는, 시팅 포지션에 대응하여 제1 디스플레이(411)가 상승하거나 하강하도록 제1 메카니즘(416)에 제어 신호를 제공할 수 있다. 프로세서(407)는, 제1 시팅 포지션(441) 데이터를 획득하는 경우, 제1 디스플레이(411)의 적어도 일부가 캐빈 내부로 나오도록 제어 신호를 제1 메카니즘(416)에 제공할 수 있다. 제1 메카니즘은, 제1 디스플레이(411)의 적어도 일부를 슬롯에서 캐빈 내부로 나오게 할 수 있다. 이경우, 제1 디스플레이(411)는, 제1 상태(411a)가 될 수 있다. 프로세서(407)는, 제2 시팅 포지션(442) 데이터를 획득하는 경우, 제1 디스플레이(411)의 적어도 일부가 슬롯 내부로 들어가도록 제어 신호를 제1 메카니즘(416)에 제공할 수 있다. 제1 메카니즘(416)은, 제1 디스플레이(411)의 적어도 일부를 캐빈 내부에서 슬롯 내부로 들어가게 할 수 있다. 이경우, 제1 디스플레이(411)는, 제2 상태(411b)가 될 수 있다. 제2 상태(411b)는, 제1 상태(411b)에 비해 캐빈 내부로의 제1 디스플레이(411) 노출 영역이 더 적은 상태로 이해될 수 있다.
디스플레이 장치(410)는, 플렉서블 영역 조절 메카니즘을 더 포함할 수 있다. 플렉서블 영역 조절 메카니즘은 프로세서(407)의 제어 신호에 따라 동작될 수 있다. 플렉서블 영역 조절 메카니즘은, 제1 레일, 제2 레일, 포스트, 연결부 및 구동부를 포함할 수 있다. 제1 레일은 제1 디스플레이(411)의 일면에 부착될 수 있다. 제1 레일은 플렉서블한 재질로 형성될 수 있다. 제1 레일은 연결부의 일단을 전고 방향으로 구속할 수 있다. 제1 레일은 연결부가 전폭 방향으로 슬라이딩되도록 가이드할 수 있다. 제2 레일은, 캐빈 내 바닥 또는 시트 프레임의 일부분에 부착될 수 있다. 제2 레일은 포스트의 일단을 전장 방향으로 구속할 수 있다. 제2 레일은 포스트가 전폭 방향으로 슬라이딩되도록 가이드할 수 있다. 포스트는 전고 방향으로 연장될 수 있다. 포스트의 일단은 제2 레일에 삽입되어, 포스트는 제2 레일을 따라 전폭 방향으로 슬라이딩할 수 있다. 연결부는 포스트와 제1 디스플레이(411)를 연결할 수 있다. 연결부의 일단은 제1 레일에 삽입될 수 있다. 연결부의 일단은 제1 디스플레이(411)의 일 영역을 제1 방향으로 휘어지게 한 상태로 제1 레일에 연결될 수 있다. 구동부는, 포스트의 슬라이딩이 가능하도록 구동력을 제공할 수 있다. 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 포스트가 제2 레일을 따라 슬라이딩하면, 연결부는 제1 레일을 따라 슬라이딩하게 된다. 연결부가 이동됨에 따라, 제1 레일의 플렉서블 영역이 변경되고, 제1 레일의 플렉서블 영역이 변경됨에 따라 제1 디스플레이(411)의 플렉서블 영역이 변경될 수 있다.
플렉서블 영역 조절 메카니즘은 상하 방향(예를 들면, 전폭 방향)으로 연장되는 포스트, 포스트와 제1 디스플레이(411)를 연결하는 연결부를 포함할 수 있다.
제1 디스플레이(411)는, 좌우 방향(예를 들면, 전폭 방향)으로 플렉서블하게 형성될 수 있다.
프로세서(407)는, 제1 디스플레이(411)가 사용자를 지향하도록 플렉서블 영역 조절 메카니즘에 제어 신호를 제공할 수 있다. 프로세서(407)는, 사용자의 위치에 따라 제1 디스플레이(411)의 플렉서블 영역이 조절되도록 플렉서블 영역 조절 메카니즘에 제어 신호를 제공할 수 있다.
도 60 내지 도 61은 본 발명의 실시예에 따른 제2 디스플레이의 물리적인 시청 각도 조절 동작을 예시한다.
도면을 참조하면, 제2 디스플레이(412)는, 캐빈 내부의 천장에 위치할 수 있다. 제2 디스플레이(412)는, 롤러블(rollable)하게 형성될 수 있다. 예를 들면, 제2 디스플레이(412)는, 캐빈 내부의 천장에서, 제1 시트(611)에 대응되는 영역과 제1 시트(611)와 마주보는 제3 시트(613)에 대응되는 영역 사이 또는 제2 시트(612)에 대응되는 영역과 제2 시트(612)와 마주보는 제4 시트(614)에 대응되는 영역 사이에 위치할 수 있다. 말려있는 상태의 제2 디스플레이(412)는, 캐빈 내부의 천장에 전폭 방향으로 배치될 수 있다. 제2 디스플레이(412)는, 양면에 화면 출력이 가능하게 형성될 수 있다. 제1 시트(611) 및 제2 시트(613)에 착좌한 사용자와 제3 시트(613) 및 제4 시트(614)에 착좌한 사용자 모두 제2 디스플레이에 표시되는 컨텐츠를 시청할 수 있다. 제2 디스플레이(412)는, 캐빈 내로 롤 다운(roll down)되거나 롤 업(roll up)되게 형성될 수 있다. 제2 메카니즘(417)은, 제2 디스플레이(412)를 감거나 풀 수 있다.
제2 메카니즘(417)은, 제2 디스플레이(412)를 물리적으로 움직여 시청 각도를 조절할 수 있다. 제2 메카니즘(417)은, 프로세서(407)의 제어 신호에 기초하여 동작될 수 있다. 제2 메카니즘(417)은, 구동부, 동력 전환부, 동력 전달부를 포함할 수 있다. 구동부는, 구동력을 생성할 수 있다. 예를 들면, 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 제2 디스플레이(412) 이동에 적합한 동력으로 전환할 수 있다. 동력 전달부는, 전환된 동력을 제2 디스플레이(412)에 전달할 수 있다.
프로세서(407)는, 시팅 포지션에 대응하여 제2 디스플레이(412)가 롤 업되거나 롤 다운되도록 제2 메카니즘(417)에 제어 신호를 제공할 수 있다. 프로세서(407)는, 제1 시팅 포지션(441) 데이터를 획득하는 경우, 제2 디스플레이(412)의 적어도 일부가 롤 업되도록 제어 신호를 제2 메카니즘(417)에 제공할 수 있다. 제2 메카니즘(417)은, 제2 디스플레이(412)의 적어도 일부를 롤 업되도록 할 수 있다. 이 경우, 제2 디스플레이(412)는 제1 상태(412a)가 될 수 있다. 프로세서(407)는, 제2 시팅 포지션(442) 데이터를 획득하는 경우, 제2 디스플레이(412)의 적어도 일부가 롤 다운되도록 제어 신호를 제2 메카니즘(417)에 제공할 수 있다. 이 경우, 제2 디스플레이(412)는 제2 상태(412b)가 될 수 있다. 제2 상태(412b)는, 제1 상태(412a)에 비해 캐빈 내부로의 제2 디스플레이(412)의 노출 영역이 더 많은 상태로 이해될 수 있다.
도 62 내지 도 63는 본 발명의 실시예에 따른 제3 디스플레이의 물리적인 시청 각도 조절 동작을 예시한다.
도면을 참조하면, 제3 디스플레이(413)는, 캐빈 내부 천장에 위치할 수 있다. 제3 디스플레이(413)는, 플렉서블(flexible)하게 형성될 수 있다. 제3 디스플레이(413)는, 캐빈 실내의 천장에서 제3 시트(613) 및 제4 시트와 마주보는 지점에 위치할 수 있다. 제3 디스플레이(413)는, 캐빈 실내의 천장에서 제1 시트(611) 및 제2 시트와 마주보는 지점에 위치할 수 있다. 제3 디스플레이(413)는, 휘어지거나 펴질 수 있다.
제3 메카니즘(418)은, 제3 디스플레이(413)를 물리적으로 움직여 시청 각도를 조절할 수 있다. 제3 메카니즘(418)은, 프로세서(407)의 제어 신호에 기초하여 동작될 수 있다. 제3 메카니즘(418)은, 구동부, 동력 전환부, 동력 전달부를 포함할 수 있다. 구동부는, 구동력을 생성할 수 있다. 예를 들면, 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 제3 디스플레이(413) 이동에 적합한 동력으로 전환할 수 있다. 동력 전달부는, 전환된 동력을 제3 디스플레이(413)에 전달할 수 있다.
프로세서(407)는, 시팅 포지션에 대응하여 제3 디스플레이(413)의 곡률이 변경되도록 제3 메카니즘(418)에 제어 신호를 제공할 수 있다. 프로세서(407)는, 제1 시팅 포지션(441) 데이터를 획득하는 경우, 제3 디스플레이(413)의 상부가 캐빈 실내를 향하는 방향의 반대 방향으로 휘어지도록 제어 신호를 제3 메카니즘(418)에 제공할 수 있다. 이경우, 제3 디스플레이(413)는 제1 상태(413a)가 될 수 있다. 프로세서(407)는, 제2 시팅 포지션(442) 데이터를 획득하는 경우, 제3 디스플레이(413)의 하부가 캐빈 실내를 향하는 방향의 반대 방향으로 휘어지도록 제어 신호를 제3 메카니즘(418)에 제공할 수 있다. 이경우, 제3 디스플레이(413)는, 제2 상태(413b)가 될 수 있다. 제2 상태(413b)는 제1 상태(413a)에 비해 캐빈 실내의 바닥과 마주보는 제3 디스플레이(413)의 면적이 더 큰 상태로 이해될 수 있다.
도 64은 본 발명의 실시예에 따른 디스플레이의 표시 영역의 위치 변경에 따른 시청 각도 조절 동작을 예시한다.
도 64을 참조하면, 캐빈 내부로 노출된 디스플레이(411, 412, 413)의 영역이 일정한 상태에서, 사용자의 시팅 포지션에 따라 디스플레이(411, 412, 413)의 표시 영역이 변경될 수 있다. 프로세서(407)는, 사용자의 시팅 포지션에 대응하여 디스플레이(411, 412, 413)에서의 표시 영역의 위치를 변경할 수 있다. 예를 들면, 프로세서(407)는, 사용자의 시팅 포지션이 제1 시팅 포지션(441)에서 제2 시팅 포지션(442)으로 변경되는 경우, 디스플레이(411, 412, 413)의 표시 영역을 제1 영역(461)에서 제2 영역(462)으로 변경할 수 있다. 프로세서(407)는, 사용자의 시팅 포지션이 제2 시팅 포지션(442)에서 제1 시팅 포지션(441)으로 변경되는 경우, 디스플레이(411, 412, 413)의 표시 영역을 제2 영역(462)에서 제1 영역(461)으로 변경할 수 있다. 제1 영역(461)은 제2 영역(462) 대비 디스플레이(411, 412, 413) 하부 영역으로 설명될 수 있다.
도 65은 본 발명의 실시예에 따른 터치 입력부의 틸팅 각도 조절 동작을 예시한다.
도 65을 참조하면, 입력 장치(300)는, 사용자의 터치 입력을 전기적 신호로 전환하는 터치 입력부(210)를 포함할 수 있다. 터치 입력부(210)는, 프라이빗 디스플레이 장치(420)와 일체형으로 형성되어 터치 스크린을 구현할 수 있다. 터치 입력부(210)는, 시트, 암레스트 및 도어 중 적어도 어느 하나에 배치될 수 있다.
입력 장치(300)는, 틸팅 메카니즘을 더 포함할 수 있다. 틸팅 메카니즘은, 터치 입력부(210)를 물리적으로 움직일 수 있다. 틸팅 메카니즘은, 프로세서(407)의 제어 신호에 기초하여 동작될 수 있다. 틸팅 메카니즘은, 구동부, 동력 전환부, 동력 전달부를 포함할 수 있다. 구동부는, 구동력을 생성할 수 있다. 예를 들면, 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 터치 입력부(210) 이동에 적합한 동력으로 전환할 수 있다. 동력 전달부는, 전환된 동력을 터치 입력부(210)에 전달할 수 있다.
프로세서(407)는, 시팅 포지션에 대응하여 터치 입력부의 틸팅 각도를 조절하는 제어 신호를 제공할 수 있다. 프로세서(407)는, 제1 시팅 포지션(441) 데이터를 획득하는 경우, 터치 입력부(210)가 주변 구조물(예를 들면, 시트, 암레스트, 도어)과 평평한 상태를 이루도록 제어 신호를 틸팅 메카니즘에 제공할 수 있다. 이경우, 틸팅각은 0도일 수 있다. 터치 입력부(210)의 상태는 제1 상태(210a)가 될 수 있다. 프로세서(407)는, 제2 시팅 포지션(442) 데이터를 획득하는 경우, 터치 입력부(210)가 틸팅되도록 제어 신호를 틸팅 메카니즘에 제공할 수 있다. 틸팅 메카니즘은 터치 입력부(210)를 틸팅시킬 수 있다. 이경우, 틸팅각은 1도 이상 90도 이하일 수 있다. 터치 입력부(210)의 상태는 제2 상태(210b)가 될 수 있다. 제2 상태(210b)는, 제1 상태(210a)에 비해 더 많이 틸팅된 상태로 이해될 수 있다.
도 66는 본 발명의 실시에에 따른 조그 다이얼 장치의 상승과 하강 조절 동작을 예시한다.
도 66를 참조하면, 입력 장치(300)는, 제스쳐 센서가 포함되고, 시트, 암레스트 및 도어 중 적어도 어느 하나의 일 부분에서 출납 가능하게 형성된 조그 다이얼 장치를 포함할 수 있다. 조그 다이얼 장치의 윗면에는 조작 가이드 이미지가 표시될 수 있다. 조그 다이얼 장치의 윗면에는 조작 가이드 이미지가 표시될 수 있다. 프로세서(407)의 제어 신호에 따라 조작 가이드 이미지는 지워질 수 있다. 조그 다이얼 장치의 옆면에는 조작 가이드 이미지가 표시될 수 있다. 프로세서(407)의 제어 신호에 따라 조작 가이드 이미지는 지워질 수 있다.
입력 장치(300)는, 승강(상승 및 하강) 메카니즘을 더 포함할 수 있다. 승강 메카니즘은, 프로세서(407)의 제어 신호에 기초하여 동작될 수 있다. 승강 메카니즘은, 구동부, 동력 전환부, 동력 전달부를 포함할 수 있다. 구동부는, 구동력을 생성할 수 있다. 예를 들면, 구동부는, 모터, 액추에이터 및 솔레노이드 중 적어도 어느 하나를 포함할 수 있다. 동력 전환부는, 생성된 구동력을 조그 다이얼 장치의 이동에 적합한 동력으로 전환할 수 있다. 동력 전달부는, 전환된 동력을 조그 다이얼 장치에 전달할 수 있다.
프로세서(407)는, 시팅 포지션에 대응하여 조그 다이얼 장치가 상승하거나 하강하도록 조절하는 제어 신호를 제공할 수 있다. 프로세서(407)는, 제1 시팅 포지션(441) 데이터를 획득하는 경우, 조그 다이얼 장치가 주변 구조물(예를 들면, 시트, 암레스트, 도어)과 평평한 상태를 이루도록 제어 신호를 승강 메카니즘에 제공할 수 있다. 승강 메카니즘은 조그 다이얼 장치를 상승시킬 수 있다. 이경우, 조그 다이얼 장치의 상태는 제1 상태(221a)가 될 수 있다. 제1 상태(221a)에서 조그 다이얼 장치는, 기계식 입력부(230)로 기능할 수 있다. 프로세서(407)는, 제2 시팅 포지션(442) 데이터를 획득하는 경우, 조그 다이얼 장치가 주변 구조물에 비해 돌출되도록 제어 신호를 승강 메카니즘에 제공할 수 있다. 승강 메카니즘은 조그 다이얼 장치를 하강 시킬 수 있다. 이경우, 조그 다이얼 장치의 상태는 제2 상태(221b)가 될 수 있다. 제2 상태(221b)에서 조그 다이얼 장치는, 제스쳐 입력부(220)로 기능할 수 있다.
한편, 프로세서(407)는, 시팅 포지션이 낮아지는 경우(예를 들면, 제1 시팅 포지션(441)에서 제2 시팅 포지션(442)으로 변경되는 경우), 조그 다이얼 장치의 윗면에 표시된 조작 가이드 이미지를 조그 다이얼 장치 옆면에 표시하기 위한 제어 신호를 제공할 수 있다.
도 67은 본 발명의 실시예에 따른 탑승자 수에 따른 디스플레이의 표시 영역 구분 동작을 예시한다.
도 67을 참조하면, 프로세서(407)는, 탑승한 사용자의 수에 따라 디스플레이(411, 412, 413)의 표시 영역을 구분하기 위한 제어 신호를 디스플레이 장치(410)에 제공할 수 있다. 지시 부호 471에 예시된 바와 같이, 1명의 사용자가 탑승한 경우, 디스플레이(411, 412, 413)의 전체 영역에 컨텐츠를 표시할 수 있다. 지시부호 472에 예시된 바와 같이, 제1 사용자 및 제2 사용자가 탑승한 경우, 프로세서(407)는 디스플레이(411, 412, 413)를 제1 영역 및 제2 영역으로 구분하여, 제1 영역에는 제1 사용자의 제1 컨텐츠를 표시하고, 제2 영역에는 제2 사용자의 제2 컨텐츠를 표시할 수 있다. 지시부호 473에 예시된 바와 같이, 제1 사용자 및 제2 사용자가 동일한 컨텐츠를 요청하는 경우, 프로세서(407)는 디스플레이(411, 412, 413)의 전체 영역에 동일 컨텐츠를 표시할 수 있다.
도 68 내지 도 69는 본 발명의 실시예에 따른 차량용 멀미 저감 시스템을 설명하는데 참조되는 도면이다. 도 68은 제1 디스플레이에 대해 예시하고, 도 69는 제3 디스플레이에 대해 예시한다.
도 68 내지 도 69를 참조하면, 도 55의 디스플레이 시스템(400)은, 차량용 멀미 저감 시스템(400)으로 동작될 수 있다. 멀미 저감 동작이 수행되는 디스플레이 시스템(400)은, 차량용 멀미 저감 시스템(400)으로 명명될 수 있다.
차량용 멀미 저감 시스템(400)은, 인터페이스부(406), 적어도 하나의 광 출력 영역(2410) 및 프로세서(407)를 포함할 수 있다. 차량용 멀미 저감 시스템(400)은, 입력 장치(200), 영상 장치(250), 통신 장치(300), 음향 출력부(490), 메모리(408) 및 전원 공급부(409) 중 적어도 어느 하나를 더 포함할 수 있다. 차량용 멀미 저감 시스템(400)의 각 구성에 대한 설명은, 도 55 내지 도 67에 대한 설명이 적용될 수 있다.
인터페이스부(406)는, 차량(10)에 장착된 적어도 하나의 전자 장치와 신호를 교환할 수 있다. 인터페이스부(406)는, 차량(10)에 장착된 적어도 하나의 센서로부터 차량의 상태에 대한 정보를 수신할 수 있다. 인터페이스부(406)는, 차량(10)에 장착된 적어도 하나의 EUC(Electronic Control Unit)로부터 차량의 상태에 대한 정보를 수신할 수 있다. 예를 들면, 인터페이스부(406)는, 적어도 하나의 전자 장치로부터, 차량(10)의 정지 상태에 대한 정보, 차량(10)의 주행 속도에 대한 정보, 차량(10)의 조향 방향에 대한 정보, 차량(10)의 상하 방향 움직임에 대한 정보 및 차량(10)의 헤딩 방향에 대한 정보 중 적어도 어느 하나를 수신할 수 있다. 인터페이스부(406)는, 적어도 하나의 전자 장치로부터, 차량(10)의 주행 상황 정보를 수신할 수 있다. 예를 들면, 인터페이스부(406)는, 적어도 하나의 전자 장치로부터, 차량(10)이 주행 중인 도로의 지형에 대한 정보를 수신할 수 있다.
한편, 인터페이스부(406)는, 시트 시스템(600)과 신호를 교환할 수 있다. 인터페이스부(406)는, 시트 시스템(600)에 포함된 시트 자세 조정 메카니즘과 신호를 교환할 수 있다. 시트 자세 조정 메카니즘은 프로세서(407)에서 제공된 신호에 기초하여 시트의 자세를 조정할 수 있다.
인터페이스부(406)는, 이동 단말기(390)와의 무선 통신을 수행하는 통신 장치(300)와 신호를 교환할 수 있다.
적어도 하나의 광 출력 영역(2410)은, 적어도 하나의 디스플레이 화면 주변에 위치할 수 있다. 적어도 하나의 광 출력 영역(2410)은, 디스플레이 화면과 기구적으로 일체형으로 형성될 수 있다. 적어도 하나의 광 출력 영역(2410)은, 적어도 하나의 디스플레이 화면과 함께 디스플레이 장치(410)의 디스플레이(411, 412, 413) 중 적어도 어느 하나를 구성할 수 있다. 이경우, 적어도 하나의 광 출력 영역(2410)은, 디스플레이(411, 412, 413)의 적어도 하나의 영역에서 구현될 수 있다.
실시예에 따라, 적어도 하나의 광 출력 영역(2410)은, 디스플레이 화면과 기구적으로 분리되게 형성될 수 있다. 적어도 하나의 광 출력 영역(2410)은, 적어도 하나의 광원을 포함할 수 있다. 광원은, 프로세서(407)에서 생성된 제어 신호에 의해 동작될 수 있다. 광원은, 면광원인 것이 바람직하다.
한편, 리어 시트는, 사용자가 차량의 전진 방향을 향하게 앉을 수 있는 시트로 정의될 수 있다. 프런트 시트는, 사용자가 차량의 후진 방향을 향하게 앉을 수 있는 시트로 정의될 수 있다.
한편, 적어도 하나의 디스플레이(411)는, 리어 시트용 디스플레이(411a) 및 프런트 시트용 디스플레이(411b)를 포함할 수 있다. 도 68에는, 제1 디스플레이(411)에 적용된 리어 시트용 디스플레이(411a) 및 프런트 시트용 디스플레이(411b)만을 예시하지만, 제2 디스플레이(412) 및 제3 디스플레이(413) 각각은 리어 시트용 디스플레이 및 프런트 시트용 디스플레이를 포함할 수 있다.
리어 시트용 디스플레이(411a)는, 화면의 표시 방향이 차량 전진 주행 방향의 반대 방향일 수 있다. 리어 시트용 디스플레이(411a)는, 리어 시트(2452)에서 화면을 시청할 수 있도록 위치할 수 있다. 적어도 하나의 광 출력 영역(2410)은, 차량(10)의 전진 주행 방향을 기준으로 리어 시트용 디스플레이(411a)의 좌측에 배치되는 제1 광 출력 영역(2411) 및 차량(10)의 전진 주행 방향을 기준으로 리어 시트용 디스플레이(411a)의 우측에 배치되는 제2 광 출력 영역(2412)을 포함할 수 있다.
프런트 시트용 디스플레이(411b)는, 화면의 표시 방향이 차량 전진 주행 방향일 수 있다. 프런트 시트용 디스플레이(411b)는, 프런트 시트에서 화면을 시청할 수 있도록 배치될 수 있다 . 적어도 하나의 광 출력 영역(2410)은, 차량(10)의 전진 주행 방향을 기준으로 프런트 시트용 디스플레이(411b)의 좌측에 배치되는 제3 광 출력 영역(2413) 및 차량(10)의 전진 주행 방향을 기준으로 프런트 시트용 디스플레이(411b)의 우측에 배치되는 제4 광 출력 영역(2414)을 포함할 수 있다 .
프로세서(407)는, 인터페이스부(406)를 통해, 전자 장치로부터 수신된 차량의 상태에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량의 상태에 대한 정보에 기초하여, 광 출력 영역(2410)에서 출력되는 광의 패턴을 변경하기 위한 제어 신호를 광 출력 영역(2410)에 제공할 수 있다. 출력되는 광의 패턴을 변경함으로써, 사용자에게 차량(10)의 움직임을 인지시킬 수 있다. 그로 인해, 디스플레이 화면을 시청하면서 느끼는 멀미를 완화할 수 있게 된다.
프로세서(407)는, 전자 장치로부터 차량(10)의 정지 상태에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량(10)의 정지 상태에 대한 정보에 기초하여, 광 출력 영역(2410)에서 출력되는 광의 패턴 변경을 중지하기 위한 제어 신호를 제공할 수 있다. 실시예에 따라, 프로세서(407)는, 차량(10)의 정지 상태에 대한 정보에 기초하여, 광 출력 영역(2410)에서 출력되는 광의 패턴을 일정한 속도로 변경하기 위한 제어 신호를 제공할 수 있다. 차량(10)의 움직임이 없는 상태에서는 광의 패턴 변경을 중지하거나 광의 패턴을 일정한 속도로 변경하여, 사용자에게 차량(10)이 정지 상태임을 인지하게 할 수 있다.
프로세서(407)는, 전자 장치로부터 차량(10)의 주행 속도에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량(10)의 주행 속도에 대한 정보에 기초하여, 광 출력 영역(2410)에서 출력되는 광의 패턴 변경 속도를 조절할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 주행 속도 값에 비례하도록 출력되는 광의 패턴 변경 속도를 조절할 수 있다. 프로세서(407)는, 차량(10)의 주행 속도의 변화에 대한 정보에 기초하여, 광 출력 영역(2410)에서 출력되는 광의 패턴 변경 속도의 변화를 조절할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 주행 속도의 변화 값에 비례하도록 출력되는 광의 패턴 변경 속도의 변화를 조절할 수 있다.
프로세서(407)는, 전자 장치로부터 차량(10)의 주행 속도에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량(10)의 주행 속도에 대한 정보에 기초하여, 광 출력 영역(2410)에서 발광 영역의 길이를 조절할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 주행 속도값에 비례하여 광 출력 영역(2410)에서 발광 영역의 길이를 조절할 수 있다.
프로세서(407)는, 전자 장치로부터 차량(10)의 조향에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량(10)의 조향 방향 및 조향의 정도에 대한 정보에 기초하여, 광 출력 영역(2410)에서 발광 영역의 폭을 조절할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 조향 방향에 따라 화면의 왼쪽에 위치하는 광 출력 영역 및 오른쪽에 위치하는 광 출력 영역 중 적어도 어느 하나을 선택할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 조향의 정도에 비례하여, 선택된 광 출력 영역의 발광 영역의 폭을 조절할 수 있다. 예를 들면, 프로세서(407)는, 좌측 방향으로의 조향 방향 정보를 수신하는 경우, 리어 시트용 디스플레이(411a)의 좌측에 위치한 제1 광 출력 영역(2411)의 폭을 넓힐 수 있다. 이경우, 프로세서(407)는, 리어 시트용 디스플레이(411a) 주변에 위치한 제2 광 출력 영역(2412)의 폭은 좁히거나 유지할 수 있다. 예를 들면, 프로세서(407)는, 우측 방향으로의 조향 방향 정보를 수신하는 경우, 리어 시트용 디스플레이(411a) 우측에 위치한 제2 광 출력 영역(2412)의 폭을 넓힐 수 있다. 이경우, 프로세서(407)는, 리어 시트용 디스플레이(411a) 주변에 위치한 제1 광 출력 영역(2411)의 폭은 좁히거나 유지할 수 있다. 예를 들면, 프로세서(407)는, 좌측 방향으로의 조향 방향 정보를 수신하는 경우, 프런트 시트용 디스플레이(411b)의 우측에 배치되는 제4 광 출력 영역(2414)의 폭을 넓힐 수 있다. 이경우, 프로세서(407)는, 프런트 시트용 디스플레이(411b)의 좌측에 배치되는 제3 광 출력 영역(2413)의 폭은 좁히거나 유지할 수 있다. 예를 들면, 프로세서(407)는, 우측 방향으로의 조향 방향 정보를 수신하는 경우, 프런트 시트용 디스플레이(411b)의 좌측에 배치되는 제3 광 출력 영역(2413)의 폭을 넓힐 수 있다. 이경우, 프로세서(407)는, 프런트 시트용 디스플레이(411b)의 우측에 배치되는 제4 광 출력 영역(2414)의 폭은 좁히거나 유지할 수 있다.
프로세서(407)는, 전자 장치로부터 차량(10)의 상하 방향 움직임에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량(10)의 상하 방향 움직임에 대한 정보에 기초하여, 광 출력 영역에서 발광 영역의 위치를 변경할 수 있다. 프로세서(407)는, 차량(10)의 상하 방향 움직임과 반대 방향으로 발광 영역의 위치를 변경할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 앞바퀴가 노면 오브젝트(예를 들면, 범프(bump))에 올라가면서, 차량(10)이 상승하는 움직임에 대한 정보를 수신하는 경우, 광 출력 영역(2410)에서 발광 영역의 위치를 아래로 변경할 수 있다. 예를 들면, 프로세서(407)는, 차량(10)의 앞바퀴가 노면 오브젝트에서 내려가면서, 차량(10)이 하강하는 움직임에 대한 정보를 수신하는 경우, 광 출력 영역(2410)에서 발광 영역의 위치를 아래로 변경할 수 있다.
프로세서(407)는, 전자 장치로부터 주행 도로의 지형에 대한 정보를 수신할 수 있다. 프로세서(407)는, 주행 도로의 지형에 대한 정보에 대응하는 그래픽 객체를 디스플레이 화면 중 적어도 일 영역에 표시할 수 있다. 주행 도로의 지형에 대한 정보를 대응하는 그래픽 객체를 표시함으로써, 사용자에게 지형을 인지하게 하고 지형에 따른 차량의 움직임을 예상하게 함으로써 멀미를 저감시킬 수 있다.
프로세서(407)는, 전자 장치로부터 주행 도로의 지형에 따른 가속, 감속 및 조향 중 적어도 어느 하나에 대한 정보를 수신할 수 있다. 프로세서(407)는, 가속, 감속 및 조향 중 적어도 어느 하나에 대한 정보에 대응하는 그래픽 객체를 디스플레이 화면 중 적어도 일 영역에 표시할 수 있다. 가속, 감속 및 조향 중 적어도 어느 하나에 대한 정보에 대응하는 그래픽 객체를 표시함으로써, 사용자가 차량의 움직임을 인지하게 함으로써 멀미를 저감시킬 수 있다.
프로세서(407)는 화상 회의 관련 그래픽 객체를 디스플레이 화면 중 적어도 일 영역에 표시하는 중에 광 출력 영역에서 출력되는 광의 패턴을 변경하기 위한 제어 신호를 제공할 수 있다 .
프로세서(407)는, 인터페이스부(406) 및 통신 장치(300)를 통해, 광 출력 영역에서 출력되는 광의 패턴의 변경에 대한 데이터를 이동 단말기(390)로 전송할 수 있다. 이동 단말기(390)가 캐빈(100) 내부에 위치하고, 사용자가 이동 단말기(390)를 보는 것이 감지되는 경우, 프로세서(407)는, 광의 패턴의 변경에 대한 데이터를 이동 단말기(390)로 전송할 수 있다. 이동 단말기(390)는, 사용자의 멀미 저감을 위한 광의 패턴 변경을 구현함으로써, 이동 단말기를 보는 사용자의 멀미를 저감시킬 수 있다.
프로세서(407)는, 전자 장치로부터 차량(10)의 상태에 대한 정보를 수신할 수 있다. 프로세서(407)는, 차량(10)의 상태에 대한 정보에 기초하여, 차량(10)의 관성과 다른 방향으로 시트의 자세를 조정하기 위한 제어 신호를, 인터페이스부(406)를 통해, 시트 자세 조정 메카니즘에 제공할 수 있다 . 프로세서(407)는, 시트가 수평을 유지하기 위한 제어 신호를 인터페이스부(406)를 통해, 시트 자세 조정 메카니즘에 제공할 수 있다. 프로세서(407)는, 사용자가 디스플레이의 화면을 시청하는 것으로 판단되는 경우, 시트의 자세를 조정하기 위한 제어 신호를 제공할 수 있다. 이와 같은 제어를 통해, 사용자가 차량(10)이 움직이지 않는 것으로 인지하게 하여 멀미를 저감시킬 수 있다.
도 70a 내지 도 70c는 본 발명의 실시예에 따른 광 출력 영역을 설명하는데 참조되는 도면이다.
도 70a를 참조하면, 적어도 하나의 광 출력 영역(2410)은, 제1 광 출력 영역(2411) 및 제2 광 출력 영역(2412)을 포함할 수 있다. 제1 광 출력 영역(2411)은, 차량(10)의 전진 주행 방향을 기준으로, 리어 시트용 디스플레이(411a)의 표시 화면(2651)의 좌측에 위치할 수 있다. 또는, 제1 광 출력 영역(2411)은, 사용자(7010)가 화면(2651)을 시청할 때, 사용자(7010)를 기준으로 표시 화면(2651)의 좌측에 위치할 수 있다. 제2 광 출력 영역(2412)은, 차량(10)의 전진 주행 방향을 기준으로, 리어 시트용 디스플레이(411a)의 표시 화면(2651)의 우측에 위치할 수 있다. 또는, 제2 광 출력 영역(2412)은, 사용자(7010)가 화면(2651)을 시청할 때, 사용자(7010)를 기준으로 표시 화면(2651)의 우측에 위치할 수 있다. 사용자의 중심시에는 표시 화면(2651)이 위치하게 되고, 사용자의 주변시에는 광 출력 영역(2410)이 위치하게 된다.
도 70b를 참조하면, 적어도 하나의 광 출력 영역(2410)은, 제3 광 출력 영역(2413) 및 제4 광 출력 영역(2414)을 포함할 수 있다. 제3 광 출력 영역(2411)은, 차량(10)의 전진 주행 방향을 기준으로, 프런트 시트용 디스플레이(411b)의 표시 화면(2651)의 좌측에 위치할 수 있다. 또는, 제3 광 출력 영역(2413)은, 사용자(7010)가 화면(2651)을 시청할 때, 사용자(7010)를 기준으로 표시 화면(2651)의 우측에 위치할 수 있다. 제4 광 출력 영역(2414)은, 차량(10)의 전진 주행 방향을 기준으로, 프런트 시트용 디스플레이(411b)의 표시 화면(2651)의 우측에 위치할 수 있다. 또는, 제4 광 출력 영역(2414)은, 사용자(7010)가 화면(2651)을 시청할 때, 사용자(7010)를 기준으로 표시 화면(2651)의 좌측에 위치할 수 있다. 사용자의 중심시에는 표시 화면(2651)이 위치하게 되고, 사용자의 주변시에는 광 출력 영역(2410)이 위치하게 된다.
도 70c를 참조하면, 적어도 하나의 광 출력 영역(2410)은, 제5 광 출력 영역(2415) 및 제6 광 출력 영역(2416)을 포함할 수 있다. 제5 광 출력 영역(2415)은, 리어 시트용 디스플레이(411a) 또는 프런트 시트용 디스플레이(411b)의 표시 화면(2651)의 상단에 위치할 수 있다. 제6 광 출력 영역(2416)은, 리어 시트용 디스플레이(411a) 또는 프런트 시트용 디스플레이(411b)의 표시 화면(2651)의 하단에 위치할 수 있다. 사용자의 중심시에는 표시 화면(2651)이 위치하게 되고, 사용자의 주변시에는 광 출력 영역(2410)이 위치하게 된다.
도 71a 내지 도 71b는 본 발명의 실시예에 따른 디스플레이 및 광 출력 영역을 설명하는데 참조되는 도면이다.
도 71a를 참조하면, 제1 디스플레이(411)는 리어 시트용 제1 디스플레이 및 프런트 시트용 제1 디스플레이로 구분될 수 있다. 리어 시트용 제1 디스플레이는, 리어 시트에서 화면을 시청할 수 있도록 위치할 수 있다. 리어 시트용 제1 디스플레이는, 프런트 윈드 쉴드와 프런트 시트 사이에 위치할 수 있다. 프런트 시트용 제1 디스플레이는, 프런트 시트에서 화면을 시청할 수 있도록 위치할 수 있다. 프런트 시트용 제1 디스플레이는, 리어 글래스와 리어 시트 사이에 위치할 수 있다.
광 출력 영역(2410)은, 제1 디스플레이(411) 주변에 위치할 수 있다. 광 출력 영역(2410)은, 제1 디스플레이(411)의 적어도 일 영역으로 설명될 수 있다. 이경우, 제1 디스플레이(411)는, 컨텐츠 표시 영역(2651) 및 광 출력 영역(2410)을 포함할 수 있다. 광 출력 영역(2410)은, 제1 디스플레이(411)와 물리적으로 구별되는 적어도 하나의 광원을 포함할 수 있다. 이경우, 적어도 하나의 광원은, 제1 디스플레이(411) 주변에 배치될 수 있다. 적어도 하나의 광원은, 제1 디스플레이(411) 양 측면에 배치되는 것이 바람직하다.
도 71b를 참조하면, 제3 디스플레이(413)는, 리어 시트용 제3 디스플레이 및 프런트 시트용 제3 디스플레이로 구분될 수 있다. 리어 시트용 제3 디스플레이는, 리어 시트에서 화면을 시청할 수 있도록 위치할 수 있다. 리어 시트용 제3 디스플레이는, 캐빈(100) 내 천장 중 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 프런트 시트용 제3 디스플레이는, 프런트 시트에서 화면을 시청할 수 있도록 위치할 수 있다. 프런트 시트용 제3 디스플레이는 캐빈(100) 내 천장 중 리어 글래스에 근접하게 배치될 수 있다.
도 72 내지 74는 본 발명의 실시예에 따른 광 출력 영역의 광 출력 패턴의 변경을 설명하는데 참조되는 도면이다.
리어 시트용 제1 디스플레이(411a)만을 예시하여 설명하나, 프런트 시트용 제1 디스플레이(411b), 제2 디스플레이 및 제3 디스플레이에도 광 출력 영역(2410)에 대한 설명이 적용될 수 있다.
프로세서(407)는, 차량(10)의 주행 속도에 대한 정보에 기초하여, 광 출력 영역(2410)의 발광 영역의 길이를 조절할 수 있다.
도 72의 지시부호 2841에 예시된 바와 같이, 프로세서(407)는, 차량(10)의 제1 속도값에 기초하여, 제1 광 출력 영역(2411)의 일 영역(2851)이 발광 되도록 제어 신호를 제공할 수 있다. 발광 영역(2851)은, 제1 길이값을 가질 수 있다. 프로세서(407)는, 제2 광 출력 영역(2412)의 일 영역(2852)이 발광 되도록 제어 신호를 제공할 수 있다. 발광 영역(2852)은, 제1 길이값을 가질 수 있다.
지시부호 2842에 예시된 바와 같이, 프로세서(407)는, 차량(10)의 제1 속도값보다 큰 제2 속도값에 기초하여, 제1 광 출력 영역(2411)의 발광 영역(2851)의 길이를 제2 길이값으로 조정할 수 있다. 프로세서(407)는, 제2 속도값에 기초하여, 제2 광 출력 영역(2412)의 발광 영역(2852)의 길이를 제2 길이값으로 조정할 수 있다.
지시부호 2843에 예시된 바와 같이, 프로세서(407)는, 차량(10)의 제2 속도값보다 큰 제3 속도값에 기초하여, 제1 광 출력 영역(2411)의 발광 영역(2851)의 길이를 제3 길이값으로 조정할 수 있다. 프로세서(407)는, 차량(10)의 제3 속도값에 기초하여, 제2 광 출력 영역(2412)의 발광 영역(2852)의 길이를 제3 길이값으로 조정할 수 있다.
프로세서(407)는, 차량(10)의 조향 방향 및 조향의 정도에 대한 정보에 기초하여, 광 출력 영역(2410)에서 발광 영역의 폭을 조절할 수 있다.
도 73의 지시부호 2941에 예시된 바와 같이, 프로세서(407)는, 좌측 방향 및 우측 방향 중 어디로도 조향이 되지 않는 경우, 제1 광 출력 영역(2411)의 폭을 제2 광출력 영역(2412)의 폭과 같이 유지할 수 있다.
지시부호 2942에 예시된 바와 같이, 프로세서(407)는, 좌측 방향으로의 조향 방향 정보를 수신하는 경우, 제1 광 출력 영역(2411)의 폭을 제2 광 출력 영역(2412) 보다 넓힐 수 있다. 프로세서(407)는, 좌측 방향으로의 조향 방향 정보를 수신하는 경우, 제1 광 출력 영역(2411)의 발광 영역(2851)을 제2 광 출력 영역(2412)의 발광 영역(2852)보다 넓힐 수 있다.
지시부호 2942 또는 2943에 예시된 바와 같이, 프로세서(407)는, 좌측 방향으로의 조향 방향 정보를 수신하는 경우, 제2 광 출력 영역(2412)의 폭을 유지하거나 좁힐 수 있다. 프로세서(407)는, 좌측 방향으로의 조향 방향 정보를 수신하는 경우, 제2 광 출력 영역(2412)의 발광 영역(2852)을 유지하거나 좁힐 수 있다.
한편, 우측 방향으로 조향이 이루어진 경우는, 도 73를 참조하여 설명한 것과 반대로 제1 광 출력 영역(2411) 및 제2 광 출력 영역(2412)이 제어될 수 있다.
프로세서(407)는, 차량(10)의 상하 방향 움직임에 대한 정보에 기초하여, 광 출력 영역에서 발광 영역의 위치를 변경할 수 있다. 프로세서(407)는, 차량(10)의 상하 방향 움직임과 반대 방향으로 발광 영역의 위치를 변경할 수 있다.
도 74의 지시부호 3041에 예시된 바와 같이, 프로세서(407)는, 차량(10)의 상하 방향의 움직임이 없는 경우, 제1 광 출력 영역(2411)의 중심 영역(2851)과 제2 광 출력 영역(2412)의 중심 영역(2852)이 발광 되도록 제어 신호를 제공할 수 있다.
지시부호 3042에 예시된 바와 같이, 프로세서(407)는, 차량(10)이 상승하는 움직임에 대한 정보를 수신하는 경우, 제1 광 출력 영역(2411)의 발광 영역(2851)의 위치를 아래로 변경할 수 있다. 프로세서(407)는, 차량(10)이 상승하는 움직임에 대한 정보를 수신하는 경우, 제2 광 출력 영역(2412)의 발광 영역(2852)의 위치를 아래로 변경할 수 있다. 프로세서(407)는, 차량(10)이 상승하는 속도에 비례하여, 발광 영역(2851, 2852)이 변경되는 속도를 조절할 수 있다. 프로세서(407)는, 차량(10)이 상승하는 변위에 비례하여, 발광 영역(2851, 2852)이 변경되는 변위를 조절할 수 있다.
지시부호 3043에 예시된 바와 같이, 프로세서(407)는, 차량(10)이 하강하는 움직임에 대한 정보를 수신하는 경우, 제1 광 출력 영역(2411)의 발광 영역(2851)의 위치를 위로 변경할 수 있다. 프로세서(407)는, 차량(10)이 하강하는 움직임에 대한 정보를 수신하는 경우, 제2 광 출력 영역(2412)의 발광 영역(2852)의 위치를 위로 변경할 수 있다. 프로세서(407)는, 차량(10)이 하강하는 속도에 비례하여, 발광 영역(2851, 2852)이 변경되는 속도를 조절할 수 있다. 프로세서(407)는, 차량(10)이 하강하는 변위에 비례하여, 발광 영역(2851, 2852)이 변경되는 변위를 조절할 수 있다.
도 75는 본 발명의 실시예에 따라 멀미를 저감시키는 그래픽 객체를 출력하는 동작을 설명하는데 참조되는 도면이다.
도 75를 참조하면, 프로세서(407)는, 전자 장치로부터 주행 도로의 지형에 대한 정보를 수신할 수 있다. 프로세서(407)는, 주행 도로의 지형에 대한 정보에 대응하는 그래픽 객체를 디스플레이 화면 중 적어도 일 영역에 표시할 수 있다.
지시부호 3141 및 3142에 예시된 바와 같이, 프로세서(407)는, 전자 장치로부터 커브 구간에 대한 정보를 수신할 수 있다. 프로세서(407)는, 커브 구간에 대응되는 이미지를 디스플레이 화면 중 적어도 일 영역(3151)에 표시할 수 있다. 프로세서(407)는, 커브 구간까지 남은 거리 및 남은 시간을 디스플레이 화면 중 적어도 일 영역(3151)에 표시할 수 있다.
프로세서(407)는, 주행 도로의 지형에 대응되는 가속, 감속 및 조향 중 적어도 어느 하나에 대한 정보에 대응하는 그래픽 객체를 디스플레이 화면 중 적어도 일 영역에 표시할 수 있다. 예를 들면, 프로세서(407)는, 가속 페달 이미지, 브레이크 페달 이미지 및 스티어링 휠 이미지 중 적어도 어느 하나를 디스플레이 화면 중 적어도 일 영역에 표시할 수 있다.
도 76은 본 발명의 실시예에 따라 화상 회의 중 멀미를 저감시키는 동작을 설명하는데 참조되는 도면이다.
도 76을 참조하면, 프로세서(407)는, 화상 회의 관련 그래픽 객체를 디스플레이에 표시할 수 있다. 프로세서(407)는, 화상 회의 관련 그래픽 객체 표시 중에 제1 광 출력 영역(2411) 및 제2 광 출력 영역(2412)에 제어 신호를 제공할 수 있다. 프로세서(407)는, 화상 회의 컨텐츠 표시 중에 제1 광 출력 영역(2411)의 발광 영역(2851) 및 제2 광 출력 영역(2412)의 발광 영역(2852)의 변경을 위한 제어 신호를 제공할 수 있다.
도 77은 본 발명의 실시예에 따라 이동 단말기를 통해 컨텐츠를 시청할 때, 멀미를 저감시키는 동작을 설명하는데 참조되는 도면이다.
도 77을 참조하면, 프로세서(407)는 인터페이스부(406) 및 통신 장치(300)를 통해, 광 출력 영역에서 출력되는 광의 패턴의 변경에 대한 데이터를 이동 단말기(390)에 전송할 수 있다. 이동 단말기(390)는, 광 출력 영역(3311, 3312)을 표시할 수 있다. 이동 단말기(390)는, 광 출력 영역(3311, 3312)의 일 영역을 발광 영역(3351, 3352)으로 설정할 수 있다. 이동 단말기(390)는, 발광 영역(3351, 3352)의 변화를 제어할 수 있다.
도 78은 본 발명의 실시예에 따라 멀미를 저감 시키기 위한 시트의 자세 조정 동작을 설명하는데 참조되는 도면이다.
도 78을 참조하면, 프로세서(407)는, 인터페이스부(406)를 통해 시트 시스템(600)과 신호를 교환할 수 있다. 시트 시스템(600)은, 시트 자세 조정 메카니즘(3451)을 포함할 수 있다. 시트 자세 조정 메카니즘(3451)은 시트의 하방에 위치하여, 시트의 일부분을 상승 시키거나 하강 시킬 수 있다.
프로세서(407)는, 전자 장치로부터 수신된 차량(10)의 상태에 대한 정보에 기초하여, 차량(10)의 관성과 다른 방향으로 시트의 자세를 조정하기 위한 제어 신호를 시트 자세 조정 메카니즘에 제공할 수 있다. 예를 들면, 차량(10)이 소정의 값을 가지는 가속도로 가속하는 경우, 프로세서(407)는, 시트의 뒤부분을 상승시킬 수 있다. 예를 들면, 차량(10)이 소정의 값을 가지는 감속도로 감속하는 경우, 프로세서(407)는, 시트의 앞부분을 상승시킬 수 있다. 예를 들면, 차량(10)이 소정의 값을 가지는 회전 가속도로 회전하는 경우, 프로세서(407)는, 시트에서 구심력이 형성되는 방향의 부분을 상승시킬 수 있다.
도 79는 본 발명의 실시예에 따른 개인용 이동 장치의 외관을 예시한다.
도 80은 본 발명의 실시예에 따른 개인용 이동 장치의 제어 블럭도를 예시한다.
도 81은 본 발명의 실시예에 따른 공유형 차량 및 개인용 이동 장치를 예시한다.
도 79 내지 도 81을 참조하면, 개인용 이동 장치(20)는, 사용자 한명을 수송하기 위한 자율 주행 차량으로 설명될 수 있다. 개인용 이동 장치(20)는, 적어도 하나의 바퀴(8001) , 사용자 탑승부(8002) 및 사용자 인터페이스 장치(8005)를 포함할 수 있다. 사용자 인터페이스 장치(8005)는, 입력 장치(8010), 영상 장치(8015) 및 출력 장치(8050)를 포함할 수 있다. 실시예에 따라, 개인용 이동 장치(20)는, 손잡이(8003) 등 신체와 접촉되는 부분을 더 포함할 수 있다.
개인용 이동 장치(20)는, 입력 장치(8010), 영상 장치(8015), 통신 장치(8020), 오브젝트 검출 장치(8025), 내비게이션 장치(8030), 출력 장치(8050), 구동 장치(8060), 인터페이스부(8069), 프로세서(8070), 메모리(8080) 및 전원 공급부(8090)를 포함할 수 있다. 실시예에 따라, 개인용 이동 장치(20)는, 설명된 구성 요소를 생략하거나 다른 구성 요소를 더 포함할 수 있다.
입력 장치(8010)는, 사용자 입력을 수신할 수 있다. 입력 장치(200)는, 사용자 입력을 전기적 신호로 전환할 수 있다. 입력 장치(8010)는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있는 터치 센서, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있는 제스쳐 센서, 사용자의 물리적인 입력(예를 들면, 누름 또는 회전)을 전기적 신호로 전환할 수 있는 기계식 장치 및 사용자의 음성 입력을 전기적 신호로 전환할 수 있는 마이크 중 적어도 어느 하나를 포함할 수 있다.
영상 장치(8015)는, 적어도 하나의 카메라를 포함할 수 있다. 영상 장치(8015)는, 사용자 영상을 획득할 수 있다. 영상 장치(8015)에 의해 획득된 사용자 영상은 사용자 인증에 이용될 수 있다.
통신 장치(8020)는, 외부 디바이스와 무선으로 신호를 교환할 수 있다. 통신 장치(8020)는, 네트워크 망을 통해 외부 디바이스와 신호를 교환하거나, 직접 외부 디바이스와 신호를 교환할 수 있다. 외부 디바이스는, 서버(도 82a의 8212, 도 82b의 8211), 이동 단말기 및 공유형 차량(10) 중 적어도 어느 하나를 포함할 수 있다.
통신 장치(8020)는, 통신을 수행하기 위해 안테나, 적어도 하나의 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. 실시예에 따라, 통신 장치(8020)는, 복수의 통신 프로토콜을 이용할 수도 있다. 통신 장치(8020)는, 이동 단말기와의 거리에 따라 통신 프로토콜을 전환할 수 있다.
오브젝트 검출 장치(8025)는, 개인용 이동 장치 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(8025)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(8025)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
내비게이션 장치(8030)는, 내비게이션 정보를 제공할 수 있다. 내비게이션 정보는, 맵(map) 정보, 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 경로 상의 다양한 오브젝트에 대한 정보, 차선 정보 및 차량의 현재 위치 정보 중 적어도 어느 하나를 포함할 수 있다.
출력 장치(8050)는, 정보를 출력할 수 있다. 출력 장치(8050)는, 디스플레이(8051), 음향 출력부(8052) 및 광 출력 장치(8053)를 포함할 수 있다. 디스플레이(8051)는, 정보를 시각적으로 출력할 수 있다. 음향 출력부(8052)는, 정보를 청각적으로 출력할 수 있다. 광 출력 장치(8052)는, 적어도 하나의 색의 광을 출력할 수 있다. 광 출력 장치(8052)는 , 사용자가 출력되는 광의 색을 인지하기 쉽게 개인용 이동 장치(20) 바디 중 적어도 하나의 부분에 배치될 수 있다.
구동 장치(8060)는, 개인용 이동 장치(20)의 각종 장치의 구동을 전기적으로 제어하는 장치이다. 구동 장치(8060)는, 바퀴의 움직임을 제어할 수 있다. 구동 장치(8060)는, 동력원 구동부(8061), 브레이크 구동부(8062) 및 조향 구동부(8063)를 포함할 수 있다. 동력원 구동부(8061)는, 개인용 이동 장치(20)의 동력원에 대한 제어를 수행할 수 있다. 예를 들면, 엔진이 동력원인 경우, 동력원 구동부(8061)는, 엔진 출력 토크 등을 제어할 수 있다. 예를 들면, 모터가 동력원인 경우, 동력원 구동부(8061)는, 모터의 회전 속도, 토크 등을 제어할 수 있다. 브레이크 구동부(8062)는, 브라이크 장치에 대한 전자식 제어를 수행할 수 있다. 조향 구동부(8063)는, 조향 장치에 대한 전자식 제어를 수행할 수 있다.
인터페이스부(8069)는, 다른 디바이스와 유선으로 신호를 교환할 수 있다. 예를 들면, 인터페이스부(8069)는 이동 단말기(390)와 유선으로 연결되어 이동 단말기(390)외 신호를 교환할 수 있다.
프로세서(8070)는, 입력 장치(8010), 영상 장치(8015), 통신 장치(8020), 오브젝트 검출 장치(8025), 내비게이션 장치(8030), 출력 장치(8050), 구동 장치(8060), 인터페이스부(8069) 및 메모리(8080)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(8070)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(8070)는, 통신 장치(8020)를 통해, 적어도 하나의 서버(도 82a의 8212, 도 82b의 8211)로부터 정보 또는 데이터가 포함된 신호를 수신할 수 있다. 프로세서(8070)는, 수신되는 신호에 기초하여 출력 장치(8050) 및 구동 장치(8060) 중 적어도 어느 하나를 제어할 수 있다.
프로세서(8070)는, 통신 장치(8020)를 통해, 사용자가 탑승한 공유형 차량(10)의 하차 지점에 대한 정보를 수신할 수 있다 . 공유형 차량(10)의 하차 지점에 대한 정보는, 적어도 하나의 서버(82a의 8212, 82b의 8211)로부터 제공될 수 있다. 프로세서(8070)는, 하차 지점까지 자율적으로 이동하도록 구동 장치(8060)에 제어 신호를 제공할 수 있다. 이경우, 프로세서(8070)는, 내비게이션 장치(8030)에서 제공하는 내비게이션 데이터를 이용할 수 있다.
프로세서(8070)는, 통신 장치(8020)를 통해, 공유형 차량(10)이 하차 지점에 도착하는 시점에 대한 정보를 수신할 수 있다. 프로세서(8070)는, 도착하는 시점에 개인용 이동 장치가 하차 지점에 도착하도록 구동 장치(8060)에 제어 신호를 제공할 수 있다. 여기서, 공유형 차량(10)이 하차 지점에 도착하는 시점은, 교통 상황에 따른 공유형 차량(10)의 이동 시간이 반영된 것일 수 있다 .
프로세서(8070)는, 통신 장치(8020)를 통해, 사용자가 탑승할 예정인 공유형 차량(10)의 승차 예정 지점에 대한 정보를 수신할 수 있다. 프로세서(8070)는, 승차 예정 지점까지 사용자를 수송하도록 구동 장치(8060)에 제어 신호를 제공할 수 있다.
프로세서(8070)는, 충전 스테이션을 목적지로 하는 경로를 따라 이동하는 상태에서, 하차 지점에 대한 정보를 수신할 수 있다. 이경우, 프로세서(8070)는, 하차 지점을 목적지로 경로를 변경할 수 있다.
프로세서(8070)는, 통신 장치(8020)를 통해, 사용자와 연관된 식별 데이터를 수신할 수 있다. 프로세서(8070)는, 식별 데이터에 기초하여, 제1 색의 식별용 광을 출력하도록 광 출력 장치(8053)에 제어 신호를 제공할 수 있다. 사용자는, 식별용 광을 통해, 자신에게 할당된 개인용 이동 장치를 인지할 수 있다.
프로세서(8070)는, 통신 장치(8020)를 통해, 공유형 차량(10)을 관리하는 서버로부터, 사용자에 대한 제1 정보를 수신할 수 있다. 프로세서(8070)는, 제1 정보에 기초하여, 사용자를 인증할 수 있다. 제1 정보는, 사용자 인증 정보를 포함할 수 있다.
메모리(8080)는, 프로세서(8070)와 전기적으로 연결된다. 메모리(8080)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(8080)는, 프로세서(8070)에서 처리된 데이터를 저장할 수 있다. 메모리(8080)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(8080)는 프로세서(8070)의 처리 또는 제어를 위한 프로그램 등, 개인용 이동 장치(20) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(8080)는, 프로세서(8070)와 일체형으로 구현될 수 있다.
전원 공급부(8090)는, 개인용 이동 장치(20)에 전원을 공급할 수 있다. 전원 공급부(8090)는 배터리를 포함할 수 있다. 전원 공급부(8090)는, 메인 컨트롤러(170)로부터 제공되는 제어 신호에 따라 동작될 수 있다.
도 82a 내지 도 82b는 본 발명의 실시예에 따른 사용자 수송 시스템을 설명하는데 참조되는 도면이다.
사용자 수송 시스템(8200)은, 적어도 하나의 서버(8211, 8212, 8214), 적어도 하나의 공유형 차량(10a, 10b) 및 적어도 하나의 개인용 이동 장치(20a, 20b)를 포함할 수 있다. 실시예에 따라, 사용자 수송 시스템(8200)은, 적어도 하나의 사용자 이동 단말기(390a, 390b) 및 결제 서버(8213)를 더 포함할 수 있다.
적어도 하나의 서버(8211, 8212, 8214)는, 제1 사용자의 최초 출발 지점에서 최종 목적지까지의 이동 서비스 요청 신호를 수신할 수 있다. 적어도 하나의 서버(8211, 8212, 8214)는, 공유형 차량이 상기 제1 사용자의 승차 예정 지점부터 하차 예정 지점까지 이동하도록 제1 요청 신호를 전송할 수 있다. 적어도 하나의 서버(8211, 8212, 8214)는, 상기 최초 출발 지점부터 상기 최종 목적지까지의 경로에 차량이 주행할 수 없는 구간이 존재하는지 판단할 수 있다. 적어도 하나의 서버(8211, 8212, 8214)는, 경로에 차량이 주행할 수 없는 구간이 존재하는 것으로 판단되는 경우, 개인용 이동 장치가, 상기 최초 출발 지점 및 상기 하차 예정 지점 중 적어도 어느 하나를 향해 이동하도록 제2 요청 신호를 전송할 수 있다.
적어도 하나의 공유형 차량(10a, 10b)는, 상기 제1 요청 신호에 따라, 상기 승차 예정 지점 부타 상기 하차 예정 지점까지 이동할 수 있다. 적어도 하나의 개인용 이동 장치(20a, 20b)는, 상기 제2 요청 신호에 따라, 상기 최초 출발 지점부터 상기 승차 예정 지점까지 이동하거나 상기 하차 예정 지점부터 상기 최종 목적지까지 이동할 수 있다.
도 82a를 참조하면, 사용자 수송 시스템(8200)은, 공유 차량 서버(8211), 복수의 공유형 차량(10a, 10b), 개인용 이동 장치 서버(8212), 복수의 개인용 이동 장치(20a, 20b), 사용자 이동 단말기(390a, 390b) 및 결제 서버(8213)를 포함할 수 있다.
공유 차량 서버(8211)는, 복수의 공유형 차량(10a, 10b)을 관리할 수 있다. 공유 차량 서버(8211)는, 사용자 단말기(390a, 390b)로부터 신호를 수신할 수 있다. 공유 차량 서버(8211)는, 수신된 신호에 기초하여, 공유형 차량(10a, 10b)을 배차할 수 있다. 공유 차량 서버(8211)는, 수신된 신호에 기초하여, 공유형 차량(10a, 10b)에 작동 명령 신호를 전송할 수 있다. 예를 들면, 공유 차량 서버(8211)는, 공유형 차량(10a, 10b)에 이동 명령 신호, 정지 명령 신호, 가속 명령 신호, 감속 명령 신호 및 조향 명령 신호 중 적어도 어느 하나를 전송할 수 있다.
한편, 공유 차량 서버(8211)는, 개인용 이동 장치 서버(8212)와 신호를 교환할 수 있다.
복수의 공유형 차량(10a, 10b)은, 공유 차량 서버(8211)에서 수신된 작동 명령 신호에 기초하여 작동될 수 있다. 공유형 차량(10a, 10b)은, 공유 차량 서버(8211)에서 수신된 신호에 기초하여, 제1 사용자의 승차 지점까지 이동할 수 있다. 공유형 차량(10a, 10b)은, 공유 차량 서버(8211)에서 수신된 신호에 기초하여, 제1 사용자의 승차 지점에서 제1 사용자의 하차 지점까지 이동할 수 있다.
개인용 이동 장치 서버(8212)는, 복수의 개인용 이동 장치(20a, 20b)를 관리할 수 있다. 개인용 이동 장치 서버(8212)는, 사용자 단말기(390a, 390b)로부터 신호를 수신할 수 있다. 개인용 이동 장치 서버(8212)는, 공유 차량 서버(8211)로부터 신호를 수신할 수 있다. 개인용 이동 장치 서버(8212)는, 수신된 신호에 기초하여, 개인용 이동 장치(20a, 20b)를 배차할 수 있다. 개인용 이동 장치 서버(8212)는, 수신된 신호에 기초하여, 개인용 이동 장치(20a, 20b)에 작동 명령 신호를 전송할 수 있다. 예를 들면, 개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a, 20b)에 이동 명령 신호, 정지 명령 신호, 가속 명령 신호, 감속 명령 신호 및 조향 명령 신호 중 적어도 어느 하나를 전송할 수 있다.
복수의 개인용 이동 장치(20a, 20b)는, 개인용 이동 장치 서버(8212)에서 수신된 작동 명령 신호에 기초하여 작동될 수 있다. 개인용 이동 장치(20a, 20b)는, 수신된 신호에 기초하여, 제1 사용자의 최초 출발지까지 이동할 수 있다. 개인용 이동 장치(20a, 20b)는, 수신된 신호에 기초하여, 제1 사용자의 최초 출발지에서 공유형 차량(10a, 10b) 승차 지점(또는 승차 예정 지점)까지 이동할 수 있다. 개인용 이동 장치(20a, 20b)는, 수신된 신호에 기초하여, 제1 사용자의 하차 지점(또는 하차 예정 지점)까지 이동할 수 있다. 개인용 이동 장치(20a, 20b)는, 수신된 신호에 기초하여, 제1 사용자의 하차 지점에서 제1 사용자의 최종 목적지까지 이동할 수 있다.
사용자 단말기(390a, 390b)는, 공유형 차량(10a, 10b) 및 개인용 이동 장치(20a, 20b) 중 적어도 어느 하나를 이용하기 위한 사용자 입력을 수신할 수 있다. 사용자 단말기(390a, 390b)는, 사용자 입력에 기초한 이동 서비스 요청 신호를 공유 차량 서버(8211) 및 개인용 이동 장치 서버(8212) 중 적어도 어느 하나에 전송할 수 있다.
결제 서버(8213)는, 사용자의 이동 서비스 이용 요금을 결제할 수 있다. 결제 서버(8213)는, 공유 차량 서버(8211), 개인용 이동 장치 서버(8212), 공유형 차량(10a, 10b) 및 개인용 이동 장치(20a, 20b) 중 적어도 어느 하나로부터 결제 데이터를 수신하여 결제를 수행할 수 있다.
도 82b의 사용자 수송 시스템(8200)은, 도 82a의 사용자 수송 시스템(8200)에 대한 설명이 적용될 수 있다. 이하, 차이점을 중심으로 설명한다.
사용자 수송 시스템(8200)은, 사용자 수송 서버(8214), 복수의 공유형 차량(10a, 10b), 복수의 개인용 이동 장치(20a, 20b), 사용자 이동 단말기(390a, 390b) 및 결제 서버(8213)를 포함할 수 있다.
사용자 수송 서버(8214)는, 도 82a의 공유 차량 서버(8211) 및 개인용 이동 장치 서버(8212)의 기능을 수행할 수 있다. 사용자 수송 서버(8214)는, 복수의 공유형 차량(10a, 10b)을 관리할 수 있다. 사용자 수송 서버(8214)는, 복수의 개인용 이동 장치(20a, 20b)를 관리할 수 있다.
도 83은 본 발명의 실시예에 따른 사용자 수송 시스템의 플로우 차트를 예시한다. 도 83은 도 82a의 사용자 수송 시스템(8200)의 사용자 수송 방법에 대한 플로우 차트이다.
도 85는 본 발명의 실시예에 따라 경로에 따른 공유형 차량과 개인용 이동 장치의 이용을 설명하는데 참조되는 도면이다.
도 83 및 도 85를 참조하면, 공유 차량 서버(8211)는, 제1 사용자 단말기(도 82a의 390a)로부터, 최초 출발 지점에서 최종 목적지까지의 이동 서비스 요청 신호를 수신할 수 있다(S1505).
공유 차량 서버(8211)는, 최초 출발 지점에서 최종 목적지까지의 경로에 차량이 주행할 수 없는 구간이 존재하는지 판단할 수 있다(S1510). 예를 들면, 공유 차량 서버(8211)는, 최초 출발 지점에서 최종 목적지까지의 경로에 차로가 없는 구간이 존재하는지 판단할 수 있다.
차량이 주행할 수 없는 구간이 존재하는 것으로 판단된 경우, 공유 차량 서버(8211)는, 개인용 이동 장치 서버(8212)에, 개인용 이동 장치 요청 신호를 전송할 수 있다(S1520).
개인용 이동 장치 서버(8212)는, 개인용 이동 장치의 이동 서비스 요청 신호를 수신할 수 있다 (S1525). 개인용 이동 장치의 이동 서비스 요청 신호는, 사용자의 물건 배달 요청 신호를 포함할 수 있다 .
공유 차량 서버(8211)는, 승차 예상 지점 정보, 하차 예상 지점 정보를 전송할 수 있다(S1530).
개인용 이동 장치 서버(8212)는, 승차 예정 지점(8520) 정보 및 하차 예정 지점(8530) 정보를 수신할 수 있다(S1535). 공유 차량 서버(8211)에서, 최초 출발지(8505)에서 최종 목적지까지의 전체 경로 중, 적어도 일부의 구간에서 공유형 차량이 주행할 수 없는 것으로 판단되는 경우(S1510), 개인용 이동 장치 서버(8212)는, 승차 예정 지점(8520) 정보 및 하차 예정 지점(8530) 정보 중 적어도 어느 하나를 수신할 수 있다. 승차 예정 지점(8520)은, 공유형 차량(10a)으로 이동 가능하면서 최초 출발지(8505)에서 가장 가까운 지점으로 정의될 수 있다. 하차 예정 지점(8530)은, 공유형 차량(10a)으로 이동 가능하고, 최종 목적지에서 가장 가까운 지점으로 정의될 수 있다.
공유 차량 서버(8211)는, 사용자의 제1 정보를 획득하여 전송할 수 있다(S1540).
개인용 이동 장치 서버(8212)는, 사용자의 제1 정보를 수신할 수 있다(S1545). S1560 단계 이전 또는 S1585 단계 이전에, 사용자가 개인용 이동 장치 서버(8212)에 탑승한 것으로 판단되는 경우, 개인용 이동 장치 서버(8212)는, 사용자의 제1 정보를 개인용 이동 장치(20a)에 전송할 수 있다. 개인용 이동 장치(20a)는 수신한 제1 정보에 기초하여 사용자 인증을 수행할 수 있다.
개인용 이동 장치 서버(8212)는, 복수의 이동 장치(20a, 20b) 각각의 위치와 하차 예정 지점(8530)과의 거리 및 복수의 개인용 이동 장치(20a, 20b) 각각의 잔여 에너지량에 기초하여, 복수의 개인용 이동 장치(20a, 20b) 중 어느 하나(20a)에 호출 신호를 전송할 수 있다 (S1547).
개인용 이동 장치 서버(8212)는, 호출된 개인용 이동 장치(20a)에, 최초 출발 지점 정보 및 공유형 차량(10a)의 승차 예정 지점(8520) 정보를 전송할 수 있다(S1550).
개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에, 최초 출발 지점을 향해 이동하도록 요청할 수 있다 (S1555). 실시예에 따라, 개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에, 사용자 물건 배달 요청 신호에 따른 물건이 개인용 이동 장치(20a)에 적재된 상태에서, 최초 출발 지점을 향해 이동하도록 요청할 수 있다. 이 경우, 개인용 이동 장치 서버(8212)는, 최초 출발 지점을 향해 이동하기 전에, 개인용 이동 장치(20a)에, 사용자 물건 배달 요청 신호에 따른 물건을 획득하기 위한 지점을 향해 이동하도록 요청할 수 있다.
개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에, 사용자가 탑승한 상태에서, 최초 출발 지점에서 공유형 차량(10a)의 승차 예정 지점(8520)까지 이동하도록 신호를 전송할 수 있다 (S1560).
공유 차량 서버(8211)는, 공유형 차량(10a)이 승차 예정 지점(8520)부터 하차 예정 지점(8530)까지 이동하도록 요청할 수 있다(S1565).
개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에 공유형 차량(10a)의 하차 예정 지점(8530) 정보 및 최종 목적지 정보를 전송할 수 있다 (S1570).
공유 차량 서버(8211)는, 하차 지점에의 공유형 차량(10a)의 도착 예정 시점을 결정할 수 있다(S1575).
개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에 하차 예정 지점(8530)을 향해 이동하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다 (S1580). S1580 단계는, 개인용 이동 장치 서버(8212)가, 공유형 차량(10a)이 하차 예정 지점(8530)에 도착하는 시점에 대한 정보를 수신하는 단계 및 개인용 이동 장치 서버(8212)가 하차 예정 지점(8530)에 도착하는 시점에 개인용 이동 장치(20a)가 하차 예정 지점(8530)에 위치하도록, 개인용 이동 장치(20a)에 신호를 전송하는 단계를 포함할 수 있다. 여기서, 하차 예정 지점(8530)에 도착하는 시점은, 교통 상황에 기초하여 결정될 수 있다. 실시예에 따라, 개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에, 사용자 물건 배달 요청 신호에 따른 물건이 개인용 이동 장치(20a)에 적재된 상태에서, 하차 예정 지점을 향해 이동하도록, 이동 장치(20a)에 신호를 전송할 수 있다. 이 경우, 개인용 이동 장치 서버(8212)는, 하차 예정 지점을 향해 이동하기 전에, 개인용 이동 장치(20a)에, 사용자 물건 배달 요청 신호에 따른 물건을 획득하기 위한 지점을 향해 이동하도록 요청할 수 있다.
개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)가, 사용자가 탑승한 상태에서, 하차 예정 지점(8530)에서 최종 목적지까지 이동하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다 (S1585). 한편, 실시예에 따라, 사용자 수송 방법은, 개인용 이동 장치 서버(8212)가, 개인용 이동 장치(20a)에, 공유형 차량(10a)의 승차 예정 지점에 대한 정보를 전송하는 단계 및 개인용 이동 장치 서버(8212)가, 개인용 이동 장치(20a)에, 승차 예정 지점을 향해 이동하도록 신호를 전송하는 단계를 더 포함할 수 있다. 예를 들면, 개인용 이동 장치 서버(8212)는, 개인용 이동 장치(20a)에, 물건 배달 요청 신호에 따른 물건이, 개인용 이동 장치(20a)에 적재된 상태에서, 승차 예정 지점을 향해 이동하도록 신호를 전송할 수 있다. 이 경우, 개인용 이동 장치 서버(8212)는, 승차 예정 지점을 향해 이동하기 전에, 개인용 이동 장치(20a)에, 사용자 물건 배달 요청 신호에 따른 물건을 획득하기 위한 지점을 향해 이동하도록 요청할 수 있다.
도 84는 본 발명의 실시예에 따른 사용자 수송 시스템의 플로우 차트를 예시한다. 도 84는 도 82b의 사용자 수송 시스템의 플로우 차트이다.
도 85는 본 발명의 실시예에 따라 경로에 따른 공유형 차량과 개인용 이동 장치의 이용을 설명하는데 참조되는 도면이다.
도 84 및 도 85를 참조하면, 사용자 단말기(390a)는, 최초 출발 지점에서 최종 목적지(8540)까지의 공유형 차량을 요청할 수 있다. 사용자 수송 서버(8214)는, 공유형 차량(10a)을 요청한 사용자에 배정할 수 있다(S1601).
사용자 수송 서버(8214)는, 출발지(8505)가 공유형 차량(10a, 10b) 진입이 가능한 위치인지 판단할 수 있다(S1605).
만약, 출발지(8505)가 차량 진입이 가능하지 않은 위치로 판단되는 경우, 사용자 수송 서버(8214)는, 개인용 이동 장치(20a, 20b)에 대한 이용 여부를 사용자 단말기(390a)를 통해 확인할 수 있다(S1610).
개인용 이동 장치(20a, 20b)를 이용하는 것으로 확인된 경우, 사용자 수송 서버(8214)는, 개인용 이동 장치(20a, 20b) 중 어느 하나(20a)를 호출하고, 호출한 개인용 이동 장치(20a)의 식별용 컬러 코드를 부여할 수 있다. 사용자 수송 서버(8214)는, 식별용 컬러 코드에 대한 정보를 사용자 단말기(390a)에 제공할 수 있다(S1613).
사용자 수송 서버(8214)는, 개인용 이동 장치(20a)가 최초 출발지(8505)로 이동하도록 신호를 제공할 수 있다(S1616).
사용자 수송 서버(8214)는, 사용자가 건물 안에 있는지 판단할 수 있다(S1620). 사용자가 건물안에 있는 것으로 판단된 경우, 사용자 수송 서버(8214)는, 개인용 이동 장치(20a)를 사용자가 건물 밖으로 나올 때까지 대기시킬 수 있다(S1623). 사용자가 건물 밖에 있는 것으로 판단된 경우, 사용자 수송 서버(8214)는, 사용자가 탑승한 상태에서, 개인용 이동 장치(20a)가 승차 예정 지점(8520)으로 이동하도록 신호를 제공할 수 있다.
사용자 수송 서버(8214)는, 최종 목적지(8540)가 공유형 차량(10a, 10b) 진입이 가능한 위치인지 판단할 수 있다(S1630).
공유형 차량(10a, 10b)이 진입이 가능한 것으로 판단된 경우, 사용자 수송 서버(8214)는, 공유형 차량(10a, 10b) 중 어느 하나(10a)를 호출할 수 있다(S1633).
사용자 수송 서버(8214)는, 사용자가 승차 예정 지점(8520)에서 탑승한 상태에서, 공유형 차량(10a)이 최종 목적지(8540)까지 이동되도록 신호를 제공할 수 있다(S1635).
S1630 단계에서, 공유형 차량(10a, 10b)이 진입할 수 없는 것으로 판단된 경우, 사용자 수송 서버(8214)는, 개인용 이동 장치(20a, 20b)에 대한 이용 여부를 사용자 단말기(390a)를 통해 확인할 수 있다(S1640).
개인용 이동 장치(20a, 20b)를 이용하는 것으로 확인된 경우, 사용자 수송 서버(8214)는, 최종 목적지(8540) 주변의 스테이션에 도착 예정 시간을 공유할 수 있다(S1645). 스테이션은, 복수의 개인 이동 장치(20a, 20b)를 보관하면서 복수의 개인 이동 장치(20a, 20b)의 배터리를 충전할 수 있다.
사용자 수송 서버(8214)는, 개인용 이동 장치(20a, 20b)중 어느 하나(20a)에 컬러 식별 코드를 적용할 수 있다(S1650).
사용자 수송 서버(8214)는, 하차 지점에의 도착 예정 시간을 업데이트할 수 있다(S1655).
사용자 수송 서버(8214)는, 개인용 이동 장치(20a)가 공유형 차량(10a)의 하차 예정 지점(8530)으로 이동하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다.
사용자 수송 서버(8214)는, 공유형 차량(10a)이 하차 예정 지점(8530)에 도착하는지 판단할 수 있다(S1665). 공유형 차량(10a)이 도착하지 않는 경우, 도착할 때까지 개인용 이동 장치(20a)가 하차 예정 지점(8530)에 대기하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다(S1670).
공유형 차량(10a)이 하차 예정 지점(8530)에 도착한 것으로 판단된 경우, 사용자 수송 서버(8214)는, 사용자가 탑승한 상태에서, 개인용 이동 장치(20a)가, 하차 예정 지점(8530)에서 최종 목적지(8540)까지 이동하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다(S1675).
사용자 수송 서버(8214)는, 개인용 이동 장치(20a) 주변의 다른 사용자 호출을 탐지하고(S1680), 다른 사용자 호출이 없는 경우, 개인용 이동 장치(20a)가 스테이션으로 복귀하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다(S1690). 다른 사용자 호출이 있는 경우, 사용자 수송 서버(8214)는, 개인용 이동 장치(20a)의 잔여 배터리양이 충분한지 판단할 수 있다(S1685). 잔여 배터리 양이 충분한 것으로 판단된 경우, 개인용 이동 장치(20a)가 호출된 신규 목적지(8540)로 이동하도록 개인용 이동 장치(20a)에 신호를 제공할 수 있다. 잔여 배터리 양이 충분하지 않는 것으로 판단된 경우, 개인용 이동 장치(20a)가 스테이션으로 복귀하도록, 개인용 이동 장치(20a)에 신호를 전송할 수 있다.
도 86은 본 발명의 실시예에 따라 사용자의 이동 단말기에 의해 제공되는 정보를 설명하는데 참조되는 도면이다.
도 86을 참조하면, 공유 차량 서버(8211), 개인용 이동 장치 서버(8212) 및 사용자 수송 서버(8214) 중 적어도 어느 하나는, 사용자 단말기(390a)에 사용자 수송 서비스에 대한 정보를 전송할 수 있다. 공유 차량 서버(8211), 개인용 이동 장치 서버(8212) 및 사용자 수송 서버(8214) 중 적어도 어느 하나는, 이동 경로 정보, 공유형 차량(10a) 이용 정보 및 개인용 이동 장치(20a) 이동 정보를 전송할 수 있다. 사용자 단말기(390a)는, 사용자 수송 서비스에 대한 정보를 표시할 수 있다. 사용자 단말기(390a)는, 공유형 차량(10a) 및 개인용 이동 장치(20a)를 이용해 사용자가 이동한 경로에 대한 정보(8610)를 표시할 수 있다. 사용자 단말기(390a)는, 공유형 차량(10a)을 이용한 이동 거리 및 이용 비용에 대한 정보(8620)를 표시할 수 있다. 사용자 단말기(390a)는, 개인용 이동 장치(20a)를 이용한 이동 거리 및 이용 비용에 대한 정보(8630)를 표시할 수 있다.
도 87은 본 발명의 실시예에 따라 공유 차량 시스템과 개인용 이동 장치 시스템과의 정보 공유를 설명하는데 참조되는 도면이다.
도 87을 참조하면, 개인용 이동 장치(20)의 영상 장치(8015)는, 사용자 영상을 획득할 수 있다. 개인용 이동 장치(20)는, 사용자 영상을 개인용 이동 장치 서버(8212)에 전송할 수 있다. 개인용 이동 장치 서버(도 82a의 8212)는, 수신된 사용자 영상에 기초하여 사용자를 인증할 수 있다. 개인용 이동 장치 서버(8121)는, 공유 차량 서버(8211) 및 공유형 자동차(10a, 10b)와 인증 정보를 공유할 수 있다.
공유형 차량(10)의 내부 카메라(251) 및 외부 카메라(252) 중 적어도 어느 하나는, 사용자 영상을 획득할 수 있다. 공유형 차량(10)은, 사용자 영상을 공유 차량 서버(도 82a의 8211)에 전송할 수 있다. 공유 차량 서버(8211)는, 수신된 사용자 영상에 기초하여 사용자를 인증할 수 있다. 공유 차량 서버(8211)는, 개인용 이동 장치 서버(8212) 및 개인용 이동 장치(20a, 20b)와 인증 정보를 공유할 수 있다.
도 88은 본 발명의 실시예에 따른 목적지 서비스 정보 제공 시스템을 설명하는데 참조되는 도면이다.
도 88을 참조하면, 목적지 서비스 정보 제공 시스템은, 사용자 단말기(390), 공유 차량 서버(도 82a 및 도 82b의 8211), 제1 서버(8950) 및 공유형 차량(10)을 포함할 수 있다.
사용자 단말기(390)는, 사용자 입력을 수신할 수 있다. 사용자 단말기(390)는, 제1 지점을 목적지로 하는 사용자 입력을 수신할 수 있다. 사용자 단말기(390)는, 제1 지점을 목적지로 하는 사용자 입력에 대응하는 신호를 공유 차량 서버(8211)로 전송할 수 있다.
공유 차량 서버(8211)는, 자율 주행 차량 서버로 명명될 수 있다. 자율 주행 차량 서버(8211)는, 사용자 단말기(390)를 통해 요청된 제1 지점을 목적지로 설정할 수 있다. 자율 주행 차량 서버(8211)는, 사용자가 자율 주행 차량(10)에 탑승한 상태에서, 자율 주행 차량(10)이 제1 지점으로 이동하도록 신호를 제공할 수 있다.
제1 서버(8950)는, 제1 지점에서 제공하는 서비스에 대한 제1 사전 정보 및 제1 사후 정보를 공유 차량 서버(8211) 및 자율 주행 차량(10) 중 적어도 어느 하나에 전송할 수 있다. 제1 서버(8950)는, 사용자 데이터를 반영하여, 제1 지점에서의 서비스 제공을 위한 데이터를 생성할 수 있다. 제1 서버(8950)는, 서비스 제공을 위한 데이터에 대응한 사용자의 피드백 데이터를 획득할 수 있다 . 피드백 데이터는, 사용자가 제1 지점에서 제공되는 서비스를 이용하면서 발생되는 데이터로 이해될 수 있다. 예를 들면, 피드백 데이터는, 사용자가 진료를 받으면서 발생되는 데이터, 상품을 구매하면서 발생되는 데이터, 공항 탑승 게이트를 통과하면서 발생되는 데이터, 호텔 체크인을 하면서 발생되는 데이터, 음식을 주문하면서 발생되는 데이터, 출근 처리하면서 발생되는 데이터, 출석하면서 발생되는 데이터, 스포츠 센터 또는 극장에 입장하면서 발생되는 데이터, 서비스 센터에 고장난 제품을 맡기면서 발생되는 데이터 중 적어도 어느 하나를 포함할 수 있다. 제1 서버(8950)는, 피드백 데이터에 기초하여, 제1 사후 정보를 생성할 수 있다.
공유형 차량(10)은, 자율 주행 차량으로 명명될 수 있다. 자율 주행 차량(10)은, 자율 주행 차량 서버(8211)에서 수신되는 신호에 기초하여, 제1 지점을 향해 이동하면서, 제1 서버(8950)로부터 사전 정보를 수신할 수 있다. 자율 주행 차량(10)은, 사전 정보를 적어도 하나의 디스플레이(411, 412, 413)에 출력할 수 있다. 자율 주행 차량(10)은, 사전 정보에 대응한 사용자 입력을 획득할 수 있다. 자율 주행 차량(10)은, 사용자 입력에 기초한 사용자 데이터를 제1 서버(8950)에 전송할 수 있다 . 자율 주행 차량(10)은, 사용자 데이터에 기초하여 과금 데이터를 생성할 수 있다. 자율 주행 차량(10)은, 과금 데이터를 제1 서버에 전송할 수 있다. 제1 서버(8950)는, 수신된 과금 데이터에 기초하여 결제를 진행할 수 있다.
실시예에 따라, 목적지 서비스 정보 제공 시스템은, 제2 서버(8960)를 더 포함할 수 있다. 제2 서버(8960)는, 제2 지점에서 제공하는 서비스에 대한 제2 사전 정보를 제공할 수 있다. 자율 주행 차량(10)은, 제1 지점에서 출발해 제2 지점을 향해 이동하면서, 제2 사전 정보를 수신할 수 있다. 자율 주행 차량(10)은, 조건 만족시, 적어도 하나의 디스플레이(411, 412, 413)에 출력되는 정보를 제1 사후 정보에서 제2 사전 정보로 전환할 수 있다. 자율 주행 차량(10)은, 조건 만족시, 적어도 하나의 디스플레이(411, 412, 413)에 출력되는 정보를 제1 사후 정보에서 제2 사전 정보로 전환할 수 있다.
자율 주행 차량(10)은, 디스플레이 시스템(도 55의 400)을 포함할 수 있다. 디스플레이 시스템(400)은, 자율 주행 차량(10)과 사용자와의 인터페이스 기능을 제공하는 차량용 사용자 인터페이스 장치로 기능할 수 있다. 이러한 디스플레이 시스템(400)은, 차량용 사용자 인터페이스 장치로 명명될 수 있다.
차량(10)은, 사용자가 탑승한 상태에서, 출발지(8941)에서 제1 지점(8942)으로 이동할 수 있다. 사용자는 제1 지점(8942)에 도착하여 제1 지점(8942)에서 제공하는 서비스를 이용할 수 있다. 이후에, 차량(10)은, 제1 지점(8942)에서 제2 지점(8943)으로 이동할 수 있다. 사용자는 제2 지점(8943)에 도착하여 제2 지점(8943)에서 제공하는 서비스를 이용할 수 있다.
차량용 사용자 인터페이스 장치(400)는, 도 55를 참조하여 설명한 바와 같이, 입력 장치(200), 영상 장치(250), 통신 장치(300), 디스플레이 장치(417), 음향 출력부(490), 인터페이스부(406), 프로세서(407), 메모리(408) 및 전원 공급부(409)를 포함할 수 있다. 차량용 사용자 인터페이스 장치(400)는 도 55 내지 도 67에서 설명한 디스플레이 시스템(400)에 대한 설명이 적용될 수 있다. 도 88 이하를 참조하여 디스플레이 시스템(400)과의 차이점 또는 특징점을 중심으로 차량용 사용자 인터페이스 장치(400)를 설명한다.
입력 장치(200)는, 사용자의 입력을 전기적 신호로 전환할 수 있다.
통신 장치(300)는, 적어도 하나의 서버와 무선으로 신호를 교환할 수 있다. 예를 들면, 통신 장치(300)는, 제1 서버(8950) 및 제2 서버(8960)와 무선으로 신호를 교환할 수 있다. 제1 서버(8950)는, 제1 지점(8942)에서 서비스 제공에 이용되는 서버로 정의될 수 있다. 제2 서버(8960)는, 제2 지점(8943)에서 서비스 제공에 이용되는 서버로 정의될 수 있다. 제1 지점(8942) 및 제2 지점(8943)은, 병원, 상품 구매 장소, 공항, 호텔, 식당, 오피스, 학교, 스포츠 센터, 극장 및 서비스 센터 중 적어도 어느 하나일 수 있다.
적어도 하나의 디스플레이(411, 412 413) 는 정보를 출력할 수 있다. 예를 들면, 적어도 하나의 디스플레이(411, 412, 413)는, 제1 지점(8942)에서 제공하는 서비스에 대한 사전 정보 및 사후 정보 중 적어도 어느 하나를 출력할 수 있다. 예를 들면, 적어도 하나의 디스플레이(411, 412, 413)는, 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보 및 사후 정보 중 적어도 어느 하나를 출력할 수 있다. 사전 정보는, 제1 지점(8942) 또는 제2 지점(8943)에 도착하기 전에, 사용자에게 제공되는 정보로 정의될 수 있다. 또는, 사전 정보는, 제1 지점(8942) 또는 제2 지점(8943)에서 제공되는 서비스를 이용하기 전에, 사용자에게 제공되는 정보로 정의될 수 있다. 사용자는 사전 정보를 바탕으로 제1 지점(8942) 또는 제2 지점(8943)에서 제공되는 서비스를 이용할 수 있다. 사후 정보는, 제1 지점(8942) 또는 제2 지점(8943)에서 출발 후 사용자에게 제공되는 정보로 정의될 수 있다. 또는, 사후 정보는, 제1 지점(8942) 또는 제2 지점(8943)에서 제공되는 서비스를 이용한 후에, 사용자에게 제공되는 정보로 정의될 수 있다.
인터페이스부(406)는, 차량(10)에 장착되는 적어도 하나의 전자 장치와 신호를 교환할 수 있다.
프로세서(407)는, 차량(10)이 제1 지점(8942)을 향하여 이동 중에, 통신 장치(300)를 통해, 제1 서버(8950)로부터 제1 지점(8942)에서 제공하는 서비스에 대한 사전 정보를 수신할 수 있다.
프로세서(407)는, 사전 정보를 적어도 하나의 디스플레이(411, 412, 413)에 출력할 수 있다.
프로세서(407)는, 사전 정보에 대응한 사용자 입력을 획득할 수 있다. 프로세서(407)는, 입력 장치 및 통신 장치 중 적어도 어느 하나를 통해, 사용자 입력을 획득할 수 있다. 예를 들면, 프로세서(407)는, 입력 장치에서 생성되는 전기적 신호를 수신함으로써, 사용자 입력을 획득할 수 있다. 프로세서(407)는, 이동 단말기(390)에 의해 전환된 전기적 신호를 통신 장치(300)를 통해 수신함으로써, 사용자 입력을 획득할 수 있다.
프로세서(407)는, 통신 장치(300)를 통해, 사용자 입력에 기초한 사용자 데이터를 제1 서버(8950)에 전송할 수 있다.
프로세서(407)는, 입력 장치(200) 및 통신 장치(300) 중 적어도 어느 하나를 통해, 사용자의 개인 정보를 획득하고, 통신 장치(300)를 통해, 획득한 개인 정보를 제1 서버(8950)에 전송할 수 있다.
프로세서(407)는, 차량(10)이 제1 지점(8942)에서 제2 지점(8943)으로 이동 중에, 통신 장치(300)를 통해, 제1 서버(8950)로부터 제1 지점(8942)에서 제공하는 서비스에 대한 사후 정보를 수신할 수 있다. 프로세서(407)는, 사후 정보를 디스플레이(411, 412, 413)에 출력할 수 있다. 사후 정보는, 사전 정보와 다른 정보로 이해될 수 있다.
프로세서(407)는, 차량(10)이 제1 지점(8942)에서 제2 지점(8943)으로 이동 중에, 통신 장치(300)를 통해, 제2 서버(8960)로부터, 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보를 수신할 수 있다. 프로세서(407)는, 조건 만족시, 디스플레이(411, 412, 413)에 표시되는 제1 지점(8942)에서 제공하는 서비스에 대한 사후 정보가 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보로 전환되도록 디스플레이(411, 412, 413)를 제어할 수 있다.
한편, 조건은, 제1 지점(8942)에서 차량(10)까지의 거리값이 제2 지점(8943)에서 차량(10)까지의 거리값보다 더 큰 제1 조건일 수 있다. 조건은, 제2 지점(8943)을 목적지로 설정하는 사용자 입력이 수신되는 제2 조건일 수 있다. 조건은, 제1 지점(8942) 관련 화면을 종료하는 사용자 입력이 수신되는 제3 조건일 수 있다.
프로세서(407)는, 차량(10)에 장착되는 적어도 하나의 전자 장치로부터 제1 지점(8942)에서 제공하는 서비스 이용에 대한 사용자 의도와 관련된 데이터를 획득할 수 있다. 프로세서(407)는, 제1 지점(8942)에서 제공하는 서비스를 이용하지 않을 의도와 관련된 제1 데이터를 획득하는 경우, 사전 정보의 출력을 중지할 수 있다. 제1 데이터는, 시트 포지션 및 내부 카메라 중 적어도 어느 하나로부터 사용자가 시트를 젖히는 모션에 의해 생성된 데이터일 수 있다.
도 89는 본 발명의 실시예에 따른 목적지 서비스 정보 제공 시스템의 플로우 차트를 예시한다.
도 89를 참조하면, 프로세서(407)는, 도착지를 설정할 수 있다(S205). 프로세서(407)는, 입력 장치(200)를 통한 사용자 입력에 기초하여 도착지를 설정할 수 있다. 프로세서(407)는, 이동 단말기(390)를 통한 사용자 입력을 통신 장치(300)로 수신하여 도착지를 설정할 수 있다. 한편, 도착지는, 제1 지점(8942)으로 이해할 수 있다.
프로세서(407)는, 사용자 정보를 획득할 수 있다(S210). 프로세서(407)는, 입력 장치(200)를 통한 사용자 입력에 기초하여 사용자 정보를 획득할 수 있다. 프로세서(407)는, 이동 단말기(390)로부터 사용자 정보를 획득할 수 있다. 사용자 정보는, 사용자의 신상 정보, 사용자의 인증 정보, 사용자의 생체 정보, 사용자의 신체 정보 및 사용자의 서비스 이력 정보 중 적어도 어느 하나를 포함할 수 있다.
프로세서(407)는, 도착지의 서비스 정보를 요청할 수 있다(S220). 예를 들면, 프로세서(407)는, 차량(10)과 도착지와의 거리가 기준값 이하인 것으로 판단되는 경우, 도착지의 서비스 정보를 요청할 수 있다. 예를 들면, 프로세서(407)는, 도착지의 예상 도착시간이 기준값 이하인 것으로 판단되는 경우, 도착지의 서비스 정보를 요청할 수 있다.
제1 서버(8950)는, 차량용 사용자 인터페이스 장치(400)로부터 요청이 수신되는 경우, 서비스의 사전 정보를 차량용 사용자 인터페이스 장치(400)로 제공할 수 있다(S225).
프로세서(407)는, 서비스의 사전 정보를 디스플레이(411, 412, 413)에 표시할 수 있다(S230). 예를 들면, 프로세서(407)는, 사용자가 시청 중인 컨텐츠를 중지하고 서비스의 사전 정보를 표시할 수 있다. 예를 들면, 프로세서(407)는, 사용자가 시청 중인 컨텐츠를 디스플레이(411, 412, 413)의 제1 영역에 표시하고, 서비스의 사전 정보를 제2 영역에 표시할 수 있다.
프로세서(407)는, 사전 정보에 기초한 사용자 입력을 수신할 수 있다(S235).
프로세서(407)는, 통신 장치(300)를 통해, 사용자 입력에 기초한 사용자 데이터를 제1 서버(8950)에 전송할 수 있다(S240).
차량(10)은, 목적지에 도착하고, 제1 서버(8950)는 서비스를 제공할 수 있다. 제1 서버(8950)는, 서비스에 대한 결제를 진행할 수 있다(S245). 실시예에 따라, 캐빈 시스템(100)의 페이먼트 시스템(700)은, 제1 서버(8950)를 이용하여 제공되는 서비스에 대한 과금 데이터를 사용자 입력 데이터에 기초하여, 미리 생성할 수 있다. 제1 서버(8950)는, 과금 데이터에 기초하여 결제를 진행할 수 있다.
제1 서버(8950)는, 서비스에 대한 사후 정보를 차량용 사용자 인터페이스 장치(400)에 제공할 수 있다(S250).
프로세서(407)는, 통신 장치(300)를 통해, 사후 정보를 수신하고, 서비스에 대한 사후 정보를 표시할 수 있다(S255).
도 90a 내지 도 90b는 본 발명의 실시예에 따른 목적지에 따라 제공되는 서비스 정보를 예시한다.
도 90a를 참조하면, 제1 지점(8942) 또는 제2 지점(8943)은 병원일 수 있다. 상황에 따라 병원은 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 병원 접수 현황 정보, 대기 순번 정보 및 담당 의료진 정보 중 적어도 어느 하나를 포함할 수 있다. 사용자 데이터는, 접수용 환자 의료 데이터, 진료전 복약 데이터, 문진 데이터, 체온 데이터, 맥박 데이터 및 혈압 데이터 중 적어도 어느 하나를 포함할 수 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사후 정보는, 진료 후 복약 정보, 의약품 수령 확인 유무 정보, 질병 관련 정보, 영양 섭취 안내 정보 및 예약 안내 정보 중 적어도 어느 하나를 포함할 수 있다.
한편, 실시예에 따라, 캐빈 시스템(100)은, 헬스 케어 센서를 더 포함할 수 있다. 헬스 케어 센서는, 사용자의 체온, 맥박 및 혈압 중 적어도 어느 하나에 대한 정보를 생성할 수 있다. 프로세서(407)는, 헬스 케어 센서에서 생성된 사용자의 체온, 맥박 및 혈압 중 적어도 어느 하나에 대한 정보를 제1 서버(8950)에 전송할 수 있다.
제1 지점(8942) 또는 제2 지점(8943)은 백화점, 마트, 식료품점과 같은 상품 구매 장소일 수 있다. 상황에 따라 상품 구매 장소는 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 신제품 정보, 계절 과일 정보, 인기 제품 정보 및 세일 정보 중 적어도 어느 하나를 포함할 수 있다. 사용자 데이터는, 사용자의 신체 데이터, SNS 데이터, 관심 상품 데이터, 멤버쉽 내역 데이터 중 적어도 어느 하나를 포함할 수 있다. 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 구매 상품 관련 정보 및 배달 서비스 정보 중 적어도 어느 하나를 포함할 수 있다.
제1 지점(8942) 또는 제2 지점(8943)은 공항일 수 있다. 상황에 따라 공항은 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 터미널 정보, 항공사 정보, 연착 안내 정보, 공항 이용 안내 정보 및 프리 체크인(pre-check in) 정보 중 적어도 어느 하나를 포함할 수 있다. 사용자 데이터는, 예약 항공권 데이터, 여권 데이터, 사용자 생체 인증 데이터 및 짐 데이터 중 적어도 어느 하나를 포함할 수 있다 . 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 이용 만족도 조사 정보 및 시차증(jet lag) 해소 정보 중 적어도 어느 하나를 포함할 수 있다 .
제1 지점(8942) 또는 제2 지점(8943)은 호텔일 수 있다. 상황에 따라 호텔은 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 프리 체크인(pre-check in) 정보, 이용 가능 객실 정보, 컨시어지 서비스(concierge service) 정보, 투어 정보, 연계 서비스 정보 및 숙박 타입별 서비스 안내 정보 중 적어도 어느 하나를 포함할 수 있다. 사용자 데이터는, 멤버쉽 내역 데이터, 여권 데이터, 사용자 생체 인증 데이터, 사용자 상태 데이터, 짐 정보, 선호 환경 데이터 및 동승자 데이터 중 적어도 어느 하나를 포함할 수 있다. 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 이용 만족도 조사 정보 및 멤버쉽 업데이트 정보 중 적어도 어느 하나를 포함할 수 있다.
제1 지점(8942) 또는 제2 지점(8943)은 드라이브 스루 카페나 레스토랑과 같은 식당일 수 있다 . 상황에 따라 식당은 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 메뉴 정보, 준비 현황 정보, 차량 진입 혼잡도 정보 및 예상 대기 시간 정보 중 적어도 어느 하나를 포함할 수 있다 . 사용자 데이터는, 선택 메뉴 데이터, 이동 경로 데이터, 이용 예정 체인점 데이터 및 결제 데이터 중 적어도 어느 하나를 포함할 수 있다 . 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 이용 만족도 조사 정보를 포함할 수 있다 .
도 90b를 참조하면, 제1 지점(8942) 또는 제2 지점(8943)은 오피스일 수 있다 . 상황에 따라 오피스는 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 일정 정보, 회사 관련 뉴스 정보 및 회사 메일 시스템 접속 정보 중 적어도 어느 하나를 포함할 수 있다. 사용자 데이터는, 출입 권한 증명 데이터 및 생체 인증 데이터 중 적어도 어느 하나를 포함할 수 있다 . 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 다음날 일정 정보를 포함할 수 있다 .
제1 지점(8942) 또는 제2 지점(8943)은 학교일 수 있다 . 상황에 따라 학교는 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 선행 학습 정보, 수업 시간표 정보, 준비물 정보, 가정 기록부 정보, 공지 사항 정보 및 특별 활동 정보 중 적어도 어느 하나를 포함할 수 있다 . 사용자 데이터는, 신분 증명 데이터를 포함할 수 있다 . 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 가정 기록부 정보, 공지 사항 정보, 학습 내용 요약 정보, 특별 활동 정보 및 보충 수업 정보 중 적어도 어느 하나를 포함할 수 있다 .
제1 지점(8942) 또는 제2 지점(8943)은 스포츠 센터일 수 있다 . 상황에 따라 스포츠 센터는 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 제공되는 운동 종목 정보, 강사 정보 및 신체 타입별 추천 운동 정보 중 적어도 어느 하나를 포함할 수 있다 . 사용자 데이터는, 신체 데이터, 관심 운동 데이터 및 SNS 데이터 중 적어도 어느 하나를 포함할 수 있다 . 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 식습관 관련 정보 및 보충 운동 정보 중 적어도 어느 하나를 포함할 수 있다 .
제1 지점(8942) 또는 제2 지점(8943)은 영화관, 공연장과 같은 극장일 수 있다. 상황에 따라 극장은 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 극장 스낵 판매 메뉴 정보, 극장 위치 안내 정보, 공연 관련 광고 정보 및 추천 공연 목록 정보 중 적어도 어느 하나를 포함할 수 있다 . 공연은, 영화, 연극 공연, 음악 공연, 뮤지컬 공연 등을 포함하는 개념일 수 있다. 사용자 데이터는, 예매 데이터, 관심 공연 데이터, 관람 내역 데이터 및 동승자 데이터 중 적어도 어느 하나를 포함할 수 있다. 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 예정된 공연 정보, 예약 정보 및 공연 평점 정보 중 적어도 어느 하나를 포함할 수 있다.
제1 지점(8942) 또는 제2 지점(8943)은 서비스 센터일 수 있다. 상황에 따라 서비스 센터는 제1 지점(8942)이 될 수도 있고, 제2 지점(8943)이 될 수도 있다. 제1 지점(8942) 또는 제2 지점(8943)에서 제공하는 서비스에 대한 사전 정보는, 서비스 기사 정보 및 증상별 조치 정보 중 적어도 어느 하나를 포함할 수 있다 . 사용자 데이터는, 고객 데이터, 서비스 요구 제품 데이터 및 증상 데이터 중 적어도 어느 하나를 포함할 수 있다 . 제1 지점(8942) 또는 제2 지점(8942)에서 제공하는 서비스에 대한 사후 정보는, 이용 만족도 조사 정보 및 재방문 일정 정보 중 적어도 어느 하나를 포함할 수 있다 .
도 91a 내지 도 91c는 본 발명의 실시예에 따라 차량용 사용자 인터페이스 장치에서 제공되는 정보를 예시한다.
도 91a에 예시된 바와 같이, 차량(10)이 출발지에서 제1 지점(8942)을 향해 이동하는 중에, 프로세서(407)는, 제1 서버(8950)에서 제공되는 서비스의 사전 정보(2751)를 디스플레이(411, 412, 413)에 표시할 수 있다. 사전 정보(2751)는, 도 90a 내지 도 90b를 참조하여 설명한 바와 같다. 프로세서(407)는, 사전 정보(2751)에 대응하여, 사용자 입력을 요청(2752)할 수 있다. 프로세서(407)는, 입력 장치(200)를 통해 사용자 입력을 수신하고, 사용자 입력에 기초하여, 사용자 데이터를 생성할 수 있다. 사용자 데이터는 도 90a 내지 도 90b를 참조하여 설명한 바와 같다.
한편, 프로세서(407)는, 차량(10)의 주행 속도 정보(2761)를 디스플레이(411, 412, 413)의 일 영역에 표시할 수 있다. 프로세서(407)는, 제1 지점(8942)까지 도착 예정 시간 정보(2762)를 디스플레이(411, 412, 413)의 일 영역에 표시할 수 있다.
한편, 프로세서(407)는, 제1 지점(8942)의 서비스 예약 시간에 맞춰 차량(10)이 제1 지점(8942)에 도착할 수 있도록 주행 속도를 조절하기 위한 신호를 차량에 구비된 적어도 하나의 전자 장치(예를 들면, ECU)에 제공할 수 있다.
도 91b에 예시된 바와 같이, 차량(10)이 제1 지점(8942)에서 제2 지점(8943)을 향해 이동하는 중에, 프로세서(407)는, 제1 서버(8950)에서 제공되는 서비스의 사후 정보(2753)를 디스플레이(411, 412, 413)에 표시할 수 있다. 사후 정보(2753)는, 도 90a 내지 도 90b를 참조하여 설명한 바와 같다. 프로세서(407)는, 제2 서버(8960)에서 제공되는 서비스의 사전 정보(2754)를 디스플레이(411, 412, 413)에 표시할 수 있다. 사전 정보(2754)는, 도 90a 내지 도 90b를 참조하여 설명한 바와 같다.
한편, 프로세서(407)는, 제1 서버(8950)의 사후 정보(2753)과 제2 서버(8960)의 사전 정보(2754)를 함께 디스플레이(411, 412, 413)에 표시할 수 있다.
도 91c에 예시된 바와 같이, 프로세서(407)는, 디스플레이(411, 412, 413)에 표시되는 제1 서버(8950)의 사후 정보(2753)를 소정 조건에 따라, 제2 서버(8960)의 사전 정보(2754)의 표시로 전환할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
[부호의 설명]
10 : 차량
20 : 개인용 이동 장치
100 : 캐빈 시스템

Claims (15)

  1. 적어도 하나의 서버가, 개인용 이동 장치의 이동 서비스 요청 신호를 수신하는 단계;
    적어도 하나의 서버가, 개인용 이동 장치에, 공유형 차량의 하차 예정 지점 및 최종 목적지에 대한 정보를 전송하는 단계; 및
    적어도 하나의 서버가, 상기 개인용 이동 장치에, 상기 하차 예정 지점을 향해 이동하도록 신호를 전송하는 단계;를 포함하는 사용자 수송 방법.
  2. 제 1항에 있어서,
    상기 하차 예정 지점을 향해 이동하도록 신호를 전송하는 단계는,
    적어도 하나의 서버가, 상기 공유형 차량이 상기 하차 예정 지점에 도착하는 시점에 대한 정보를 수신하는 단계; 및
    적어도 하나의 서버가, 상기 하차 예정 지점에 도착하는 시점에 상기 개인용 이동 장치가 상기 하차 예정 지점에 위치하도록 신호를 전송하는 단계;를 포함하고,
    상기 하차 예정 지점에 도착하는 시점은, 교통 상황에 기초하여 결정되는 사용자 수송 방법.
  3. 제 1항에 있어서,
    적어도 하나의 서버가, 최초 출발지에서 상기 최종 목적지까지의 전체 경로중, 적어도 일부의 구간에서 상기 공유형 차량이 주행할 수 없는 것으로 판단되는 경우, 승차 예상 지점 정보 및 하차 예정 지점 정보 중 적어도 어느 하나를 수신 하는 단계;를 더 포함하는 사용자 수송 방법.
  4. 제 3항에 있어서,
    적어도 하나의 서버가, 상기 개인용 이동 장치에, 사용자가 탑승한 상태에서, 상기 하차 예정 지점부터 상기 최종 목적지까지 이동하도록 신호를 전송하는 단계;를 더 포함하는 사용자 수송 방법.
  5. 제 3항에 있어서,
    적어도 하나의 서버가, 상기 개인용 이동 장치에, 상기 최초 출발 지점을 향해 이동하도록 신호를 전송하는 단계; 및
    적어도 하나의 서버가, 상기 개인용 이동 장치에, 사용자가 탑승한 상태에서, 상기 최초 출발 지점부터 상기 공유형 차량의 승차 예정 지점까지 이동하도록 신호를 전송하는 단계;를 더 포함하는 사용자 수송 방법.
  6. 제 1항에 있어서,
    적어도 하나의 서버가, 상기 공유형 차량에서 획득된 사용자의 제1 정보를 상기 개인용 이동 장치에 전송하는 단계;를 더 포함하는 사용자 수송 방법.
  7. 제 1항에 있어서,
    적어도 하나의 서버가, 복수의 개인용 이동 장치 각각의 위치와 상기 하차 예정 지점과의 거리 및 복수의 개인용 이동 장치 각각의 잔여 에너지량에 기초하여, 복수의 개인용 이동 장치 중 어느 하나에 호출 신호를 전송하는 단계;를 더 포함하는 사용자 수송 방법.
  8. 제 1항에 있어서,
    상기 이동 서비스 요청 신호는, 물건 배달 요청 신호를 포함하고,
    적어도 하나의 서버가, 상기 개인용 이동 장치에, 공유형 차량의 승차 예정 지점에 대한 정보를 전송하는 단계; 및
    적어도 하나의 서버가, 상기 개인용 이동 장치에, 상기 물건 배달 요청 신호에 따른 물건이 적재된 상태에서, 상기 승차 예정 지점을 향해 이동하도록 신호를 전송하는 단계;를 더 포함하는 사용자 수송 방법.
  9. 적어도 하나의 바퀴;
    상기 바퀴의 움직임을 제어하는 구동 장치;
    외부 디바이스와 무선으로 신호를 교환하는 통신 장치; 및
    상기 통신 장치를 통해, 사용자가 탑승한 공유형 차량의 하차 지점에 대한 정보를 수신하고, 상기 하차 지점까지 자율적으로 이동하도록 상기 구동 장치에 제어 신호를 제공하는 프로세서;를 포함하는 개인용 이동 장치.
  10. 제 9항에 있어서,
    상기 프로세서는,
    상기 통신 장치를 통해, 상기 공유형 차량이 상기 하차 지점에 도착하는 시점에 대한 정보를 수신하고, 상기 도착하는 시점에 상기 하차 지점에 도착하도록 상기 구동 장치에 제어 신호를 제공하고,
    상기 도착하는 시점은, 교통 상황에 따른 상기 공유형 차량의 이동 시간이 반영된 것인 개인용 이동 장치.
  11. 제 9항에 있어서,
    상기 프로세서는,
    상기 통신 장치를 통해, 사용자가 탑승할 예정인 공유형 차량의 승차 예정 지점에 대한 정보를 수신하고, 상기 승차 예정 지점까지 사용자를 수송하도록 상기 구동 장치에 제어 신호를 제공하는 개인용 이동 장치.
  12. 제 9항에 있어서,
    상기 프로세서는,
    충전 스테이션을 목적지로 하는 경로를 따라 이동하는 상태에서, 상기 하차 지점에 대한 정보를 수신하는 경우, 상기 하차 지점을 목적지로 경로를 변경하는 개인용 이동 장치.
  13. 제 9항에 있어서,
    광 출력 장치;를 더 포함하고,
    상기 프로세서는,
    상기 통신 장치를 통해, 상기 사용자와 연관된 식별 데이터를 수신하고,
    상기 식별 데이터에 기초하여 제1 색의 식별용 광을 출력하도록 상기 광 출력 장치에 제어 신호를 제공하는 개인용 이동 장치.
  14. 제 9항에 있어서,
    상기 프로세서는,
    상기 통신 장치를 통해, 상기 공유형 차량을 관리하는 서버로부터 상기 사용자에 대한 제1 정보를 수신하고,
    상기 제1 정보에 기초하여, 상기 사용자를 인증하는 개인용 이동 장치.
  15. 제1 사용자의 최초 출발 지점에서 최종 목적지까지의 이동 서비스 요청 신호를 수신하고,
    공유형 차량이 상기 제1 사용자의 승차 예정 지점부터 하차 예정 지점까지 이동하도록 제1 요청 신호를 전송하고,
    상기 최초 출발 지점부터 상기 최종 목적지까지의 경로에 차량이 주행할 수 없는 구간이 존재하는 것으로 판단되는 경우, 개인용 이동 장치가, 상기 최초 출발 지점 및 상기 하차 예정 지점 중 적어도 어느 하나를 향해 이동하도록 제2 요청 신호를 전송하는 적어도 하나의 서버;
    상기 제1 요청 신호에 따라, 상기 승차 예정 지점 부타 상기 하차 예정 지점까지 이동하는 적어도 하나의 공유형 차량; 및
    상기 제2 요청 신호에 따라, 상기 최초 출발 지점부터 상기 승차 예정 지점까지 이동하거나 상기 하차 예정 지점부터 상기 최종 목적지까지 이동하는 적어도 하나의 개인용 이동 장치;를 포함하는 사용자 수송 시스템.
PCT/KR2018/009564 2018-08-21 2018-08-21 사용자 수송 방법 및 개인용 이동 장치 WO2020040318A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/500,495 US20210405640A1 (en) 2018-08-21 2018-08-21 User transportation method and personal mobility
PCT/KR2018/009564 WO2020040318A1 (ko) 2018-08-21 2018-08-21 사용자 수송 방법 및 개인용 이동 장치
KR1020197024846A KR20210036775A (ko) 2018-08-21 2018-08-21 사용자 수송 방법 및 개인용 이동 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/009564 WO2020040318A1 (ko) 2018-08-21 2018-08-21 사용자 수송 방법 및 개인용 이동 장치

Publications (1)

Publication Number Publication Date
WO2020040318A1 true WO2020040318A1 (ko) 2020-02-27

Family

ID=69592717

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/009564 WO2020040318A1 (ko) 2018-08-21 2018-08-21 사용자 수송 방법 및 개인용 이동 장치

Country Status (3)

Country Link
US (1) US20210405640A1 (ko)
KR (1) KR20210036775A (ko)
WO (1) WO2020040318A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7259343B2 (ja) * 2019-01-18 2023-04-18 トヨタ自動車株式会社 配車サービスシステム、配車サービス方法、およびプログラム
KR20230016749A (ko) * 2021-07-26 2023-02-03 현대자동차주식회사 이동체 운영 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120047697A (ko) * 2010-11-04 2012-05-14 주식회사 썬하이브리드 자전거 통합관리 시스템
KR101243682B1 (ko) * 2011-11-23 2013-03-25 (주)한우리 개인 맞춤형 대중교통 정보처리 시스템 및 방법
KR20160002639A (ko) * 2015-11-17 2016-01-08 박동원 자율주행 차량 운행대기 시스템
KR101586974B1 (ko) * 2015-03-18 2016-01-21 홍익대학교 산학협력단 공유형 자율주행자동차의 편도서비스 제공 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120047697A (ko) * 2010-11-04 2012-05-14 주식회사 썬하이브리드 자전거 통합관리 시스템
KR101243682B1 (ko) * 2011-11-23 2013-03-25 (주)한우리 개인 맞춤형 대중교통 정보처리 시스템 및 방법
KR101586974B1 (ko) * 2015-03-18 2016-01-21 홍익대학교 산학협력단 공유형 자율주행자동차의 편도서비스 제공 방법
KR20160002639A (ko) * 2015-11-17 2016-01-08 박동원 자율주행 차량 운행대기 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
3 August 2018 (2018-08-03), Retrieved from the Internet <URL:https://sanhak.yuhan.ac.kr/customer/csNoticeR> *

Also Published As

Publication number Publication date
US20210405640A1 (en) 2021-12-30
KR20210036775A (ko) 2021-04-05

Similar Documents

Publication Publication Date Title
WO2020040317A1 (ko) 차량용 멀미 저감 시스템
WO2020040319A1 (ko) 차량용 사용자 인터페이스 장치 및 서비스 정보 제공 시스템
WO2020032304A1 (ko) 캐빈 시스템
WO2019004744A1 (ko) 이동 로봇
WO2018088651A1 (ko) 자율 주행 차량 및 그 제어방법
WO2017014544A1 (ko) 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템
WO2020032306A1 (ko) 차량용 상품 제공 장치 및 카고 시스템
WO2020130219A1 (ko) 로봇의 제어 방법
WO2017138702A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2016186294A1 (ko) 영상투사장치 및 이를 구비하는 차량
WO2018199380A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2019221390A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2019098434A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2020017716A1 (ko) 차량용 로봇 및 상기 로봇의 제어 방법
WO2020040318A1 (ko) 사용자 수송 방법 및 개인용 이동 장치
WO2019143010A1 (ko) 이동 로봇의 동작 방법
WO2016013774A1 (en) Goods purchase apparatus and goods purchase system having the same
WO2019132078A1 (ko) 차량에 구비된 디스플레이 장치
WO2019004633A1 (ko) 이동 로봇의 동작 방법 및 이동 로봇
WO2017018583A1 (ko) 이동 단말기 및 그 제어방법
WO2019004746A1 (ko) 이동 로봇의 동작 방법
WO2020159247A1 (ko) 영상 출력 장치
WO2016093502A9 (ko) 차량 디스플레이 장치 및 이를 구비한 차량
WO2022055006A1 (ko) 차량용 이미지 처리 장치 및 차량에 포함된 디스플레이에 시각 정보를 표시하는 방법
WO2020141639A1 (ko) 로봇의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18930548

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18930548

Country of ref document: EP

Kind code of ref document: A1